¿Están los modelos de inteligencia artificial (IA) generativa en un callejón sin salida? Desde el lanzamiento de ChatGPT hace dos años, el progreso exponencial de la tecnología nos ha dado esperanzas sobre la llegada de máquinas con inteligencia casi humana. Pero las dudas se acumulan.
Los líderes de la industria prometen mejoras de rendimiento tan significativas y rápidas que pronto debería surgir una “inteligencia general artificial”, en palabras del jefe de OpenAI (ChatGPT), Sam Altman.
Basan esta convicción en las leyes de la ampliación: bastaría con alimentar a los modelos con cada vez más datos y potencia informática para que ganen en capacidad.
Esta estrategia ha funcionado tan bien hasta ahora que muchos en la industria temieron que avanzara demasiado rápido y que la humanidad se sintiera abrumada.
Microsoft (el principal inversor de OpenAI), Google, Amazon, Meta y otros han gastado miles de millones de dólares y han lanzado herramientas que producen fácilmente textos, imágenes y vídeos de sorprendente calidad, y que ahora también son la comidilla de la ciudad.
xAI, la empresa de inteligencia artificial de Elon Musk, está recaudando 6 mil millones de dólares, según CNBC, para comprar 100.000 chips Nvidia, los componentes electrónicos de vanguardia que impulsan los modelos grandes.
OpenAI concluyó una importante recaudación de fondos de 6.600 millones de dólares a principios de octubre, lo que la valoró en 157.000 millones de dólares.
“Las altas valoraciones se basan en gran medida en la idea de que los modelos de lenguaje, a través de una expansión continua, se convertirán en IA generales”, dijo Gary Marcus, un experto de la industria a menudo crítico. “Como siempre he dicho, es sólo una fantasía”.
Límites
La prensa estadounidense informó recientemente que los nuevos modelos en desarrollo parecen haber llegado a un punto muerto, en particular en Google, Anthropic (Claude) y OpenAI.
“Estamos aumentando (la potencia informática) al mismo ritmo, pero no estamos obteniendo mejoras inteligentes”, dijo Ben Horowitz, cofundador de a16z, una firma de capital riesgo que es accionista de OpenAI e inversor en empresas. , dijeron recientemente competidores, incluido Mistral.
Orion, la última incorporación de OpenAI, aún no pública, supera a sus predecesores. Pero “el aumento de calidad fue mucho menor en comparación con el salto entre GPT-3 y GPT-4”, los dos últimos modelos estrella de la compañía, según fuentes citadas por The Information.
Varios expertos entrevistados por la AFP creen que las leyes de escala han llegado a su límite.
“Algunos laboratorios se centraron demasiado en añadir más texto, pensando que la máquina se volvería cada vez más inteligente”, subraya Scott Stevenson, director de Spellbook, empresa especializada en IA generativa legal.
Gracias a un entrenamiento basado en montañas de datos recopilados en línea, los modelos logran predecir, de manera muy convincente, secuencias de palabras o disposiciones de píxeles. Pero las empresas están empezando a quedarse sin nuevos materiales para alimentarlos.
Y no es sólo una cuestión de conocimiento: para progresar sería necesario sobre todo que las máquinas consiguieran de alguna manera comprender el significado de sus frases o imágenes.
IA “bebé”
Los empresarios del sector cuestionan la idea de una desaceleración.
“Si observamos el ritmo al que aumentan las capacidades, podemos pensar que llegaremos (a la IA general) en 2026 o 2027”, aseguró Dario Amodei, director de Anthropic, en el podcast del informático Lex Friedman.
“No hay ningún callejón sin salida”, escribió Sam Altman el jueves en X. Sin embargo, OpenAI retrasó el lanzamiento del sucesor de GPT-4.
Y, en septiembre, la start-up estrella de Silicon Valley cambió de estrategia al presentar o1, un modelo que supuestamente respondería a preguntas más complejas, en particular matemáticas, gracias a una formación que se basa menos en la acumulación de datos y más en el fortalecimiento. la propia capacidad de razonar.
Según Scott Stevenson, o1 “dedica más tiempo a pensar que a reaccionar”, lo que genera “mejoras radicales”.
Compara la evolución de la tecnología con el descubrimiento del fuego: en lugar de añadir combustible en forma de datos y potencia informática, es hora de desarrollar el equivalente a una linterna o una máquina de vapor. Como agentes de IA a los que los humanos podrán delegar tareas online.
“El bebé de la IA era un chatbot que improvisaba mucho” y, por tanto, cometía muchos errores, añade Walter De Brouwer, profesor de la Universidad de Stanford. “El enfoque del homo sapiens de pensar antes de saltar ya está aquí”.
ETA