Amazon entra en escena con Olympus, su primer LLM multimodal

Amazon entra en escena con Olympus, su primer LLM multimodal
Amazon entra en escena con Olympus, su primer LLM multimodal
-

Nombre en clave: Olimpo. Proyecto: un modelo multimodal capaz de procesar imágenes, vídeos y texto al mismo tiempo. Objetivo: ganar independencia. He aquí, en pocas palabras, las líneas generales del plan de Amazon en materia de inteligencia artificial.

El gigante de la nube y el comercio electrónico realmente quiere tener su propio LLM, como se informó La Información. Si por el momento se sabe poco sobre este modelo, es seguro que la firma arrojará luz sobre el tema la próxima semana durante su evento anual AWS re:Invent en Las Vegas.

Un modelo con 2000 mil millones de parámetros

El modelo, entre otras cosas, comprendería escenas en imágenes y vídeos y ayudaría a los clientes a buscar escenas específicas, como el tiro ganador del partido de baloncesto, utilizando comandos de texto simples. Con 2 billones de parámetros, superaría así al GPT-4, el modelo OpenAI que cuenta con 1 billón de parámetros y se convertiría de hecho en el modelo “más grande” existente. También estaría disponible en Bedrock, el servicio de IA generativa dedicado de AWS.

El año pasado, durante la última edición de su conferencia anual, AWS presentó una vista previa del modelo Amazon Titan Image Generator para Bedrock. Este último “puede usarse para generar e iterar imágenes rápidamente a bajo costo, puede comprender mensajes complejos y generar imágenes relevantes con una composición de objetos precisa y distorsiones limitadas”, especifica el proveedor de la nube. La empresa ya contaba con varios modelos de IA generativa en su cartera, incluidos Titan Text Lite y Titan Text Express.

Deshazte poco a poco de los LLM desarrollados por terceros

Al ofrecer su propio modelo multimodal, Amazon busca reducir su dependencia de la familia de modelos Claude desarrollada por la start-up Anthropic. Las dos empresas ahora se conocen bien, como lo demuestra el segundo impulso financiero que recibió la startup. Esta financiación aportada por Amazon, que asciende a 4.000 millones de dólares, debería ayudar a la joven empresa a avanzar en el desarrollo de sus productos y modelos de IA.

A cambio, el rival de OpenAI hace una importante concesión y adopta chips de AWS para el entrenamiento y la inferencia de sus modelos. Otra consideración: Anthropic ofrece a los clientes de AWS acceso a sus modelos (incluida la familia de modelos Claude 3), en particular a través de Amazon Bedrock.

Al mismo tiempo, Amazon planea confiar en Claude para la próxima versión de su asistente Alexa, con el fin de que este sea capaz de responder a solicitudes complejas. Evidentemente, el gigante pretende monetizar esta oferta. Sin embargo, no está claro si Amazon tendrá que pagarle adicionalmente a Anthropic por el uso de Claude en Alexa. Y todavía es posible que todo cambie con la llegada del Olimpo. Continuará.

Seleccionado para ti

-

NEXT En Migros en Delémont, informe de los voluntarios de las cajas del corazón