GenAI: la personalización impulsa el uso de modelos de código abierto

GenAI: la personalización impulsa el uso de modelos de código abierto
GenAI: la personalización impulsa el uso de modelos de código abierto
-

Las empresas buscan personalizar los modelos GenAI para necesidades específicas. Según Databricks, el 70% de ellos utiliza bases de datos vectoriales para optimizar los resultados del LLM. En este contexto, las herramientas y modelos de código abierto son populares.

Las empresas están ganando madurez en el uso de tecnologías en el corazón de GenAI. Según un estudio reciente de Databricks, cada vez son más los que experimentan y, sobre todo, ponen en producción modelos de aprendizaje automático. Según Databricks, cuyo informe se basa en datos de uso de su plataforma, el procesamiento del lenguaje natural se ha convertido en el tipo de aplicación de aprendizaje automático más utilizado y de más rápido crecimiento, por delante de los modelos geoespaciales, los gráficos, las series temporales y la visión por computadora.

Observamos que las empresas ya no quieren conformarse con los LLM estándar en el mercado y quieren cada vez más poder personalizar estos modelos, para satisfacer necesidades específicas y limitar la generación de respuestas erróneas. Una tendencia que se confirma con el impresionante aumento del uso de bases de datos vectoriales que aprovechan la generación de recuperación aumentada (RAG), una técnica utilizada por el 70% de las empresas que utilizan GenAI para optimizar, sin reentrenamiento, los resultados proporcionados por un LLM con recursos de datos adicionales. Databricks añade que el uso de bases de datos vectoriales aumentó un 377% durante el año 2023.

Las herramientas y modelos de código abierto son populares

En este contexto marcado por la necesidad de personalización, tres cuartas partes de las empresas optan por herramientas y modelos de código abierto (a menudo en paralelo con modelos propietarios). Este es también el caso de Suiza, donde las empresas utilizan especialmente Tensorflow y PyTorch, pero también los grandes modelos de lenguaje abierto Llama y Mistral (según 118 directivos entrevistados en el marco del Open Source Studie Schweiz 2024).

En la práctica, las empresas primero crean sus modelos de aprendizaje automático probándolos: prueban diferentes algoritmos e hiperparámetros para asegurarse de poner en producción los modelos más apropiados. “En este proceso, los equipos persiguen dos objetivos opuestos: deben garantizar que la fase de experimentación sea lo más eficiente posible en términos de tiempo y, al mismo tiempo, poner en producción únicamente modelos rigurosamente probados”, explican los autores del estudio de Databricks. Antes de destacar otro compromiso a la hora de elegir un modelo, entre rendimiento, coste y latencia. Los dos últimos aspectos tendrían más peso, según datos de Databricks, que señala que se favorecen los modelos de código abierto más pequeños, en términos de número de parámetros. Entre los usuarios de Meta Llama 2, Llama 3 y Mistral, el 77% elige modelos con 13 mil millones de parámetros o menos.

-

PREV Diez céntimos de euro por m², una ciudad sueca está causando revuelo
NEXT Disfraza burdamente su placa, este motociclista no engaña a la policía