Con LLama 3, Meta redefine los estándares de IA de código abierto

Con LLama 3, Meta redefine los estándares de IA de código abierto
Descriptive text here
-

Los grandes modelos LLM propietarios de OpenAI, Google y Anthropic ven el surgimiento de un serio competidor de código abierto. Meta lanza LLama 3 en código abierto y revoluciona el mundo de los LLM. Pero su IA conversacional “Meta AI” sigue siendo inaccesible para los europeos.

FLAIR, el laboratorio de I+D de Meta, es uno de los grandes pioneros y exploradores de la IA generativa. Si algunas innovaciones están destinadas exclusivamente a fines experimentales o a los servicios del grupo (Facebook, Instagram, WhatsApp, Threads, etc.), otras se publican, por el contrario, como código abierto. Entre ellos, dos se han convertido en componentes esenciales del ecosistema de IA: el marco PyTorch y el LLM LLama 2.

PyTorch es el marco de aprendizaje automático más utilizado en el que confían jugadores como NVidia, Intel, AMD, OpenAI, Tesla, Midjourney, Uber, etc.

En cuanto a LLama 2, el LLM se ha consolidado desde hace 10 meses como el LLM de referencia que sirve de comparación en todos los puntos de referencia del mercado. Disponible como código abierto e implementado por todos los actores de la nube (Google VectrexAI, AWS BedRock, Azure ML, Hugging Face, IBM Watsonx, etc.), Llama 2 debe su éxito no sólo a su excelente rendimiento sino también a la multitud de herramientas disponibles para optimízalo, personalízalo y ajústalo.

Meta anunció su sucesor a finales de la semana pasada: LLama 3. Prometiendo un futuro tan glorioso como su predecesor, LLama 3 promete una calidad de resultados similar a Claude 3 y Google Gemini Pro 1.5, capacidades multimodales y alucinaciones menos frecuentes.

Por ahora se han revelado dos variantes del modelo: LLama 3 8B (8 mil millones de parámetros) y LLama 3 70B. “ Con mayor escalabilidad y rendimiento, Llama 3 puede manejar sin esfuerzo tareas de varios pasos. Además, los procesos refinados posteriores al entrenamiento reducen significativamente las tasas de falso rechazo, mejoran la alineación de las respuestas y aumentan la diversidad de respuestas del modelo. Además, LLama 3 mejora significativamente capacidades como el razonamiento, la generación de código y el seguimiento de instrucciones. » explica Meta.

Para la editorial, Meta define nuevos estándares de eficiencia y calidad en el mundo de los LLM, ya sean de código abierto o no. Por lo tanto, Lama 3 8B obtiene mejores resultados que los modelos Mistral AI o Gemma en el campo de los LLM compactos. En cuanto al LLama 3 70B, supera al Gemini Pro 1.5, Mixtral 8x22B y Claude 3 Sonnet en muchos puntos de referencia y, al mismo tiempo, resulta mucho más compacto que este último.

Y esto no ha terminado. Meta está trabajando en otras versiones de LLama 3, incluida una versión “400B” que debería comunicarse en más de 30 idiomas y presentar funcionalidades multimodales avanzadas, que pronto tendrá un modelo de código abierto capaz de competir con GPT-4 Turbo Vision y Gemini. Ultra.

LLama 3 ya impulsa el asistente “Meta AI”, una IA conversacional como Google Gemini, ChatGPT, Microsoft Copilot o Mistral Le Chat. Lamentablemente, este asistente, actualmente limitado a interacciones en inglés, no es accesible desde países de la Unión Europea. Una restricción que se está volviendo más clásica ya que Gemini Advanced y Claude AI también están prohibidas para los usuarios de Internet europeos, ya que estas IA no son actualmente compatibles con las regulaciones europeas GDPR y DMA.

Las empresas que quieran experimentar con Llama 3 pueden hacerlo hoy en sus infraestructuras recuperando los códigos fuente y modelos de inferencia del sitio web de Meta o de Meta Llama 3 GitHub.

Para aquellos que no quieran molestarse en implementar un modelo de este tipo en sus servidores, LLama 3 estará disponible en los próximos días en las nubes de Google (Vertex AI), AWS (Bedrock API), Azure (ML Studio), pero también en las plataformas de Hugging Face, IBM (WatsonX), NVidia (NIM), Databricks y Snowflake.

Lea también:

Meta implementa dos clústeres de 24.000 GPU y apunta a 350.000 GPU para finales de 2024

Meta avanza un poco más hacia AMI con su modelo V-JEPA

Next’24: Gemini Pro 1.5 se vuelve accesible para los desarrolladores

Cigref desmitifica los metaversos y los caminos concretos para domesticarlos

¡Enhorabuena, te has suscrito a nuestra newsletter!

-

PREV Relojes “Made in Japan”, entre artesanía, complejidad y alta tecnología
NEXT La barra de sonido Samsung más popular está a la venta al precio más bajo