Yann LeCun afirma que el AGI es inevitable, pero que no sucederá el próximo año y que no será sólo trabajo de los LLM, aunque podrían constituir un componente.

-

Yann LeCun, ganador del prestigioso Premio Turing y jefe de IA en Meta, no está de acuerdo con la última y audaz predicción de Elon Musk de que la IA superará la inteligencia humana el próximo año. El investigador de IA dice que la inteligencia artificial general (AGI) es inevitable, pero que no llegará dentro de un año. También dijo que AGI no surgirá de los modelos de lenguajes grandes (LLM) actuales, aunque pueden ser un componente. Para él, estos modelos de IA no son capaces de resolver desafíos cognitivos como el razonamiento, la planificación, la memoria persistente y la comprensión del mundo físico.

Muchos divulgadores e investigadores de la IA están entusiasmados con la AGI y hacen predicciones muy optimistas sobre su llegada. Sólo en las últimas semanas, un trío de poderosos agentes tecnológicos han añadido nuevas proclamas. Jensen Huang, director ejecutivo de Nvidia, insinuó que AGI podría llegar dentro de cinco años. Ben Goertzel, experto en inteligencia artificial y fundador de SingularityNET, predijo que llegaría en sólo tres años. Elon Musk, director ejecutivo de la startup xAI, se mostró mucho más optimista y por eso hizo la predicción más audaz para el punto de inflexión: finales de 2025.

Pero Yann LeCun es un notable escéptico ante todas estas predicciones. Considerado uno de los tres “padrinos de la IA”, LeCun llega incluso a afirmar que “la AGI no existe” porque “la inteligencia humana está lejos de ser general”. El francés prefiere trazar el camino hacia una “IA a nivel humano”. En un evento la semana pasada en Londres, el principal centro de ingeniería de Meta fuera de Estados Unidos, LeCun dijo que incluso esa visión sigue siendo un destino lejano. Habló de un cuarteto de desafíos cognitivos: razonamiento, planificación, memoria persistente y comprensión del mundo físico.

Estas son cuatro características esenciales de la inteligencia humana (y de la inteligencia animal, en realidad) que los sistemas de IA actuales no pueden lograr, explica. Según LeCun, sin estas capacidades, las aplicaciones de IA siguen siendo limitadas y propensas a errores. Los vehículos autónomos todavía no son seguros en la vía pública. Los robots domésticos luchan con las tareas domésticas básicas. Nuestros asistentes inteligentes solo pueden realizar tareas básicas. Estas brechas intelectuales son particularmente evidentes en los grandes modelos de lenguaje (LLM) que impulsan la IA.

Según LeCun, están severamente limitados por su dependencia de una forma de conocimiento humano: el texto. Fácilmente nos hacen pensar que son inteligentes por su dominio del lenguaje, pero en realidad su comprensión de la realidad es muy superficial. Son útiles, de eso no hay duda. Pero en el camino hacia la inteligencia a nivel humano, un LLM es esencialmente una rampa de salida, una distracción, un callejón sin salida, dijo. En otras palabras, LeCun cree que los LLM son solo el comienzo y que se necesita un nuevo enfoque para lograr AGI.

LeCun afirma que los LLM no son tan inteligentes como parecen y cuestiona la eficacia del enfoque utilizado en su formación. Modelos como LLama de Meta, GPT-4 de OpenAI y Gemini de Google se entrenan con enormes cantidades de datos. Según el investigador francés, un humano tardaría unos 100.000 años en leer todo el texto ingerido por un destacado LLM. Pero no es el principal método de aprendizaje de la humanidad, que consume mucha más información a través de sus interacciones con el mundo. De hecho, esto sugiere que la IA necesita una encarnación física.

Los metacientíficos creen que la AGI no será posible hasta que a la IA se le dé un cuerpo físico. Ésta es la hipótesis de la IA encarnada. Según este enfoque, la IA a nivel humano sólo puede surgir si es capaz de sentir y navegar en un entorno físico, como lo hacen los bebés. A través de este cuerpo, la IA puede interactuar y aprender del mundo físico. Esta hipótesis genera mucha discusión en la industria y empuja a algunos inversores a invertir fuertemente en empresas de inteligencia artificial que fabrican robots humanoides de uso general.

La hipótesis de la IA incorporada está respaldada por investigadores del laboratorio Arca de Noé de Huawei en París. Mencionaron esta idea en un informe de estudio publicado en febrero. Según el equipo de Huawei, darle un cuerpo a la IA es la única forma de que conozca el mundo a través de la interacción. En general, se cree que simplemente aumentar el tamaño de estos modelos, en términos de volumen de datos y potencia informática, podría conducir a AGI. Discutimos esta opinión, escribió el equipo. Al igual que los investigadores de Meta, el equipo de Huawei dice que este es un paso fundamental para lograr AGI.

LeCun estima que un niño de cuatro años ha visto 50 veces más datos que los mejores especialistas en LLM. En realidad, la mayor parte del conocimiento humano no es lenguaje, por lo que estos sistemas nunca podrán alcanzar una inteligencia a nivel humano a menos que cambiemos la arquitectura, dice LeCun. Naturalmente, propone otra arquitectura: “una IA guiada por objetivos”. Los modelos de IA basados ​​en objetivos están diseñados para cumplir objetivos específicos establecidos por los humanos. En lugar de recibir texto puro, aprenden sobre el mundo físico gracias a sensores.

Su formación también se basará en datos de vídeo. Según LeCun, el resultado es un “modelo del mundo” que muestra el impacto de las acciones. Luego, cualquier cambio potencial se actualiza en la memoria del sistema. ¿Cuál será la diferencia, por ejemplo, si se empuja una silla hacia la izquierda o hacia la derecha de una habitación? Al aprender de la experiencia, los estados finales comienzan a volverse predecibles. Por lo tanto, las máquinas pueden planificar los pasos necesarios para realizar diversas tareas. LeCun confía en los resultados que podría producir este nuevo enfoque de la IA.

Las máquinas acabarán superando la inteligencia humana, pero llevará tiempo. “No es para mañana, y ciertamente no para el año que viene, como dijo nuestro amigo Elon”, dijo LeCun. El jefe de IA de Meta se mostró particularmente discreto y escéptico sobre las predicciones de AGI. LeCun no propone un calendario para la llegada de la AGI, pero invita a los actores del sector a adoptar un nuevo enfoque en la búsqueda de la AGI y refuta algunas predicciones que considera demasiado optimistas y, a veces, alejadas de la realidad. Por supuesto, sus ideas no son unánimes en la comunidad.

Y usted ?

¿Cuál es tu opinión sobre el tema?

¿Qué opinas de las críticas de Yann LeCun a las predicciones de Elon Musk?

¿Qué opinas de la afirmación de LeCun de que “la inteligencia humana no es general”?

¿Qué pasa con el enfoque que propone para lograr una IA a nivel humano: una IA guiada por objetivos?

Ver también

Los LLM actuales no conducirán a AGI, dice un grupo de investigadores de IA, pero los robots de IA que crecen en el mundo 3D podrían

Los directores ejecutivos apuestan hasta 10 millones de dólares contra la reciente predicción de Elon Musk sobre la IA Elon Musk predice que la IA superará la inteligencia humana a finales de 2025

El director ejecutivo de Nvidia, Jensen Huang, dice que los juegos totalmente generados por IA surgirán dentro de 5 a 10 años, lo que sugiere que la IA podría reemplazar a los desarrolladores de juegos en el futuro.

-

NEXT Los 7 consejos de Apple para cargar correctamente tu iPhone