Imagina un pequeño asistente siempre a tu lado. Una especie de Pepito Grillo del futuro, que responde a tus preguntas, te da consejos y, sobre todo, actúa en tu lugar. Accede a tu calendario, a tus conversaciones, a tus aplicaciones favoritas… ¿Un email sin respuesta? Él escribe y envía. ¿A su hijo menor no le han revisado los dientes en un año? Él programa una cita. ¿Tu par de zapatos encontró comprador en una aplicación? Valida el asunto. Práctico, aunque un poco angustioso.
Más fuertes que los chatbots como ChatGPT y sus 200 millones de usuarios activos al mes, aquí están los “agentes”. Su promesa: no producir simplemente contenido a partir de una simple instrucción, sino actuar de forma autónoma. “Estamos regresando de la ilusión de que los grandes modelos de lenguaje, estas IA entrenadas con enormes cantidades de texto para producir respuestas cercanas a las humanas, tienen conocimiento del mundo”, cconfirma Pierre-Carl Langlais, investigador y cofundador de la startup Pleias, que desarrolla modelos de lenguaje de código abierto y, por tanto, de libre acceso. Gracias a los “agentes” somos impulsados hacia una nueva era. El de una IA proactiva, capaz de pensar y organizarse.
Con sus “agentes”, Salesforce afirma ser la empresa que rentabilizará la IA
Nuevas interacciones
Desde Google hasta OpenAI y Meta, todos los actores de la industria están mirando esta nueva generación de inteligencia artificial. Pero por el momento, todo el mundo está intentando descubrir cómo es este Pepito Grillo. OpenAI y Meta, en particular, quieren crear sistemas generales y multitarea. Para otros, como los franceses LightOn y H o el gigante estadounidense del software Salesforce, es mejor «agentes» hiperespecializados en tareas específicas. Menos omnipotente, pero más fácil de implementar.
La dificultad también es encontrar cómo abordarlos. En las últimas semanas es un formato de audio que ha destacado. La herramienta es de Google y se llama NoteBookLM. Su reciente función “Audio Overview”, que sintetiza documentos con unos pocos clics y los transforma en un podcast de diez minutos, ha asombrado a la comunidad de IA. Los dos presentadores virtuales, siempre con un tono cálido y entusiasta, hablan de cualquier cosa: un informe de 250 páginas sobre el medio ambiente, un artículo científico muy profundo, un vídeo de YouTube de dos horas de duración… Pero también de todo lo más trivial. documento como un perfil de LinkedIn, intercambios de mensajes de texto o incluso un extracto bancario [sic]. Los experimentos de algunos internautas se han vuelto virales y se han compartido millones de veces.
Con sus “agentes”, Salesforce afirma ser la empresa que rentabilizará la IA
Si NoteBookLM no es un agente, su éxito atestigua el creciente interés por nuevas interacciones con la máquina, más allá del texto y la escritura. Este era también el objetivo del pequeño equipo de Google Lab. Raiza Martín, responsable de producto de este proyecto experimental que ahora Google se plantea comercializar, así lo confirma a La tribuna. “Nuestro objetivo era ayudar a los usuarios a interactuar con las fuentes. El audio fue un buen vector, pero un resumen leído por una voz sintética no es suficiente. Queríamos crear algo divertido, útil y nuevo”.
Las empresas de tecnología también están interesadas en cómo agregar capacidades de razonamiento y planificación a la IA generativa. Habilidades imprescindibles para poder crear estos famosos “agentes”. En septiembre, OpenAI presentó su nueva familia de modelos de IA, a la que llama “o1” porque “pone los contadores a cero”. Es capaz de razonar mejor que la IA actual organizando “cadenas de pensamientos” antes de responder, es decir, dividiendo en etapas su respuesta al problema planteado.
o1 es un primer paso hacia la autonomía de la IA prometida por la industria. Mark Zuckerberg, fundador y director de Meta, habla de un futuro en el que cada creador de contenidos en Instagram podría tener su propio “agente”, capaz de gestionar por él sus interacciones con su comunidad. Anthropic, el outsider estadounidense creado por dos ex empleados de OpenAI, recientemente impresionó con su demostración de una IA capaz de usar una computadora de forma autónoma. Para el público en general, el vídeo parece nada más que clics erráticos del mouse. Pero para los especialistas, esta funcionalidad denominada “Uso del ordenador” es un paso imprescindible. “Este proceso iterativo de prueba y error, posible gracias a la interacción con la computadora, permite a la IA aprender de sus propias experiencias”. señala Edouard Grave, investigador y cofundador del laboratorio francés Kyutai.
Si el sector busca un nuevo impulso es en parte porque “en este momento sopla un viento de desilusión”, admite Sylvain Duranton, director de BCG X, la entidad tecnológica de la consultora. Especialmente entre las empresas, que creían mucho en los superpoderes de los grandes modelos lingüísticos para mejorar su rendimiento y al final quedaron decepcionadas. Según diversos estudios realizados por la consultora, dos tercios de las empresas no ven resultados tras invertir en inteligencia artificial generativa.
IA generativa en los negocios, instrucciones de uso.
“Las empresas no estaban preparadas y subestimaron el trabajo de preparación”, afirma Sylvain Duranton. Para explotar verdaderamente la tecnología, hay que cambiar la forma de trabajar, no es magia. Necesitamos revisar completamente ciertos procesos y limpiar los datos de la empresa”juzga. Las pocas empresas que han hecho este esfuerzo están logrando sacar provecho de él, en parte en servicios de ventas, marketing y gestión de la cadena de suministro. [voir plus bas, Ndlr]. Algunos incluso ganarían “decenas de millones de euros de margen”, según BCG X.
Un futuro colega virtual
Emilie Sidiqian, directora general de Salesforce Francia (leer la entrevista en la página V) También confirma este período de desencanto en el mundo profesional. Para ella, los chatbots actuales son “decepcionantes” porque en su mayoría solo escriben correos electrónicos e informan sobre reuniones. Por el contrario, el «agentes» Promete convertirse en un colega casi virtual que pueda responder a un cliente, guiarlo, establecer objetivos e implementarlos. Pero Sylvain Duranton advierte: el despliegue de “agentes” no se realizará sin enfrentamientos. “El hecho de que la tecnología mejore no significa que las empresas estarán más preparadas”. él alerta.
Para algunos observadores, los límites no son sólo organizativos, sino también tecnológicos y ambientales. “Se está volviendo complicado avanzar en modelos lingüísticos sin superar los límites de nuestro consumo de energía”. señala Édouard Grave. El investigador también menciona otro techo de cristal: el de los datos accesibles. Si ChatGPT y sus amigos se desempeñan tan bien en ciertas tareas es porque pudieron absorber todos los datos textuales de la Web. Pero esto no es suficiente para ir más allá, en particular hacia un conocimiento más fino y experto. “Tener datos de alta calidad es un proceso largo y costoso porque requiere anotaciones humanas, comenta Édouard Grave. Para crear una IA experta en matemáticas, por ejemplo, “Habría que pedir a los académicos que crearan un gran número de problemas y soluciones para someterlos a los modelos”, él especifica.
Además, los modelos lingüísticos carecen de contacto con el mundo exterior para volverse verdaderamente autónomos. “Sus límites son sus errores, sus absurdos, en definitiva su falta de alineación con el mundo físico”. estima Pierre-Yves Oudeyer, director de investigación del Inria. Según él, una de las claves es anclarlos en un entorno externo. Conectándolos a una computadora como lo hizo Anthropic, pero también al mundo físico a través de un robot. En su laboratorio, el investigador y sus colegas intentan incluso inculcar cierta curiosidad hacia las máquinas. “La idea es que la IA se fije objetivos interesantes”una motivación intrínseca que les empujaría a interesarse por su entorno.
Para ello, su equipo se interesa por el funcionamiento del cerebro humano. “Las investigaciones muestran que aprendemos mejor cuando un tema comienza siendo complejo pero eventualmente progresa. Si el tema es demasiado fácil o demasiado difícil, perdemos interés. » Este mecanismo aplicado a las máquinas podría permitirles volverse más autónomas.
“El uso de la IA es una cuestión de vida o muerte para una empresa” (Emilie Sidiqian, directora de Salesforce en Francia)
Los “agentes” capaces de razonar prefiguran el advenimiento más incierto de las superinteligencias, o incluso de la “inteligencia general artificial”. Estos conceptos, lejos de ser unánimes en el mundo científico pero favorecidos por las empresas, designan IA que superan a los humanos en todas sus capacidades. Antes de lograrlo, Edouard Grave cree que habrá que superar muchos obstáculos tecnológicos. Como otros, el investigador duda de que la IA generativa sea suficiente para crear superinteligencia. “Pero es imposible predecir nada con confianza, advierte. Si hace dos años me hubieran advertido sobre los avances de los modelos lingüísticos y la carrera por la potencia informática que esto ha provocado, me habría costado creerlo.
Este Grial también se topa con un techo al que ya se enfrenta la inteligencia artificial: los límites planetarios. (ver página VI). La cuestión también es saber si realmente este es el proyecto social que queremos. ¿Hasta qué punto estamos dispuestos a delegar nuestro trabajo, incluso nuestra vida diaria, a estos agentes?