Frente a la carrera por modelos de inteligencia artificial (IA) generativa cada vez más grandes, que requieren cada vez más potencia informática, está ganando terreno la tendencia hacia modelos de IA más pequeños, que son más eficientes, más baratos y que consumen menos energía.
El laboratorio estadounidense Merck, por ejemplo, está desarrollando un modelo con la empresa BCG para comprender el impacto de determinadas enfermedades en los genes. “Será un modelo muy pequeño, de entre unos cientos de millones y unos miles de millones de parámetros”, explica Nicolas de Bellefonds, jefe de inteligencia artificial del BCG.
A modo de comparación, un modelo como GPT-3, que sustentaba el chatbot ChatGPT de OpenAI en su lanzamiento, tenía 175 mil millones de parámetros y su sucesor, GPT-4, casi 2 billones.
Como otros expertos, Nicolas de Bellefonds constata la aparición de modelos pequeños, muy especializados, que ofrecen “mejores prestaciones o, en cualquier caso, equivalentes” a los grandes modelos generales por “un coste mucho menor”.
Lejos de ser una ola europea, los gigantes tecnológicos estadounidenses no se equivocaron y todos lanzaron modelos pequeños este año. Google ofrece Gemma, Microsoft tiene Phi-3 y Meta presentó sus primeros minimodelos en septiembre, cuando OpenAI entregó una versión en miniatura de GPT-4 este verano.
>> Leer : OpenAI lanza su propio motor de búsqueda, compitiendo con Google
Herramientas más especializadas
Resumen e indexación de documentos, búsqueda en una base de datos interna, estos pequeños modelos pueden realizar tareas simples, a menudo suficientes para las necesidades de una empresa o de una administración: “No es necesario conocer los términos del Tratado de Versalles para responder a una pregunta sobre un particular elemento de ingeniería”, resume a la AFP Laurent Félix, director general para Francia de la empresa Ekimetrics.
A menudo son incluso más rápidos que sus hermanos mayores y pueden “responder a más solicitudes y a más usuarios simultáneamente”, según Laurent Daudet, director de LightOn, una nueva empresa francesa especializada en pequeños modelos de IA que oscilan entre 8 y 40 mil millones de parámetros. .
La otra ventaja es que estos modelos consumen menos energía ya que “se necesitan menos procesadores (GPU) para implementarlos”, lo que también explica su precio más atractivo, añade. Un argumento de peso cuando los gigantes tecnológicos se enfrentan al coste energético exponencial de modelos cada vez más grandes (leer cuadro).
Funcionamiento en teléfonos y ordenadores.
Mejor aún, su pequeño tamaño les permite trabajar directamente en teléfonos o computadoras: “Esto evita tener que implementar en la nube. Esta es una de las formas de reducir la huella de carbono de nuestros modelos”, indicó Arthur Mensch, jefe de la empresa. la startup Mistral AI, a Libération en octubre. La pepita francesa del sector lanzó en otoño su modelo más pequeño hasta la fecha, el Ministral.
El uso directo en un dispositivo también promete más “seguridad y confidencialidad de los datos”, recuerda Laurent Félix, ya que permanecen almacenados localmente o en la empresa.
En el futuro, habrá potencialmente varios modelos que se comunicarán entre sí.
En última instancia, todos nuestros objetos cotidianos, incluso nuestra nevera, podrían terminar con un pequeño modelo integrado, explicó Thomas Wolf, cofundador de Hugging Face, en noviembre en el escenario de la Cumbre Web en Lisboa. Esta plataforma franco-estadounidense de inteligencia artificial de acceso abierto lanzó su serie de pequeños modelos SmolLM este verano.
Para los especialistas, los grandes modelos lingüísticos, que siguen siendo los más capaces de resolver problemas complejos, no corren peligro de desaparecer, sino de funcionar de forma complementaria con los modelos pequeños.
En el futuro, “potencialmente habrá varios modelos que se comunicarán entre sí”, afirma Nicolas de Bellefonds. “Habrá un pequeño modelo que entenderá cuál es la naturaleza de la pregunta formulada y enviará esta información a varios modelos de diferentes tamaños dependiendo de la complejidad de la pregunta”.
“De lo contrario, acabaremos con soluciones demasiado caras, demasiado lentas o ambas cosas”, concluye.
afp/sjaq