Hasta ahora, los sistemas de IA han generado contenidos como texto, imágenes y vídeos. Ahora Google quiere dar un paso más con una nueva generación de su sistema Gemini: en el futuro, la IA podrá realizar determinadas tareas de forma independiente como asistente.
Google anunció esto el miércoles en el aniversario del primer estreno de Gemini en Mountain View. Es posible que el “agente de IA” pueda, por ejemplo, encontrar los componentes para un proyecto de hobby en tiendas online y colocarlos de forma independiente en el carrito de la compra. Sin embargo, el usuario seguirá realizando el proceso de pedido real.
“La IA debería ser más útil”
El director ejecutivo de Google, Sundar Pichai, dijo que la primera generación de Gemini 1.0 trataba de organizar y comprender la información. “Gemini 2.0 pretende ser mucho más útil”.
Los nuevos asistentes de IA forman parte del “Proyecto Mariner”, que se implementó con la nueva generación de IA. Gemini 2.0 fue desarrollado para la era de los agentes, dijo el gerente de Google, Tulsee Doshi.
El sistema es capaz de utilizar herramientas inteligentes y puede acceder directamente a productos de Google, como la búsqueda. Incluso puede ejecutar código de programa. “Estas capacidades dan como resultado agentes que pueden pensar, recordar, planificar e incluso actuar en nombre de los usuarios”.
Haciendo clic como un humano
Por lo tanto, “Mariner” se comporta exactamente igual que los usuarios humanos en un navegador, destacó Doshi. “Puede hacer clic, escribir y desplazarse, tal como usted como usuario”. Sin embargo, el sistema también identifica una serie de tareas que el agente no debe realizar en nombre de un usuario.
“Un buen ejemplo de ello es que Mariner no completa una compra sin antes preguntar al usuario si realmente quiere hacerlo”. “Mariner” se probará primero con sujetos de prueba confiables antes de ponerlo a disposición del público en general.
Nuevas gafas de IA
En el “Proyecto Astra”, Google está impulsando un proyecto de investigación basado en Gemini 2.0 para explorar el medio ambiente, que se presentó por primera vez en la conferencia de desarrolladores Google I/O la primavera pasada.
En el futuro, los usuarios no sólo recibirán información útil en un teléfono inteligente, sino también en unas gafas inteligentes. Son similares a las gafas Ray-Ban del grupo Meta de Facebook, que pueden reconocer edificios u obras de arte, por ejemplo, o ayudar a cocinar.
Para los desarrolladores de software que ofrecen sus propias soluciones basadas en la IA de Google, la variante del sistema Gemini Flash es especialmente relevante. Puede ejecutarse no sólo en computadoras grandes en centros de datos, sino también localmente en computadoras personales o ciertos modelos de teléfonos inteligentes. Google presentó el miércoles Gemini Flash 2.0 que, según la compañía, ofrece un rendimiento mejorado con tiempos de respuesta igualmente rápidos.
Related News :