Con Gemma 2, Google eclipsa a Llama 3

-

En su conferencia anual Google I/O en mayo pasado, el gigante hizo una gran cantidad de anuncios sobre IA generativa. En particular, la firma presentó Gemma 2, la segunda generación de su familia de grandes modelos con lenguaje Gemma. A continuación, Google demostró las prestaciones de su modelo, disponible en una única versión con 27 mil millones de parámetros.

Hoy parece que se ha desarrollado una segunda versión, ya que el gigante acaba de poner a disposición de investigadores y desarrolladores los Gemma 2 9B y Gemma 2 27B. Y lo menos que podemos decir es que la firma no oculta su orgullo: “Gemma 2 es más eficiente y eficaz en inferencia que la primera generación, con avances significativos en seguridad”.

Dos versiones capaces de competir con las de Llama 3

La versión con 27 mil millones de parámetros se describe como“Alternativa competitiva a modelos más del doble de grande”, un guiño a la versión Llama 3 70B de Meta. Google atribuye esto a la capacidad de ejecutar estos modelos con una única GPU H100 Tensor Core, un A100 de 80 GB o un host Google Cloud TPU, lo que reduce significativamente los costos de implementación. En comparación con Llama 3 70B, la versión 27B obtiene una puntuación del 75,2% en la prueba MMLU (evalúa tanto el conocimiento del mundo como la capacidad para resolver problemas) en comparación con el 79,5% de la versión Meta. En la prueba de razonamiento BBH, Gemma 2 27B obtiene una puntuación del 74,9% mientras que Llama 3 70B obtiene una puntuación del 81,3%.

Por su parte, el modelo 9B Gemma 2 también ofrece las mejores prestaciones de su categoría, asegura Google, superando al Llama 3 8B y otros modelos abiertos en su categoría de tamaño. La tabla resumen de las pruebas realizadas muestra que la versión 9B es mejor que Llama 3 8B en el benchmark MMLU y GSM8K (prueba de resolución de problemas matemáticos). Ambos modelos obtienen aproximadamente la misma puntuación en la prueba HellaSwag (evalúa la comprensión avanzada del lenguaje natural y el razonamiento de sentido común en modelos de IA).

Impresionantes capacidades de inferencia

Google promete tal calidad de inferencia con Gemma 2 que el modelo puede ejecutarse en una variedad de hardware, desde computadoras portátiles para juegos hasta computadoras de escritorio de alta gama y configuraciones basadas en la nube. La firma pone como ejemplo ordenadores equipados con una tarjeta gráfica Nvidia RTX o una GeForce RTX a través de Hugging Face Transformers.

Al igual que los modelos Gemma de primera generación, Gemma 2 está disponible bajo la licencia comercial Gemma para que desarrolladores e investigadores puedan compartir y comercializar sus producciones. Tenga en cuenta que a partir del próximo mes, los clientes de Google Cloud podrán implementar y administrar Gemma 2 en Vertex AI.

Un modelo compacto por venir

La firma pretende continuar el desarrollo de esta familia de modelos e indica que un “Próximo modelo Gemma 2 con 2.600 millones de parámetros, diseñado para cerrar la brecha entre la asequibilidad de un peso ligero y un rendimiento potente” pronto verá la luz del día. Esta versión se entrenó en 2 billones de tokens, detalla la empresa en un informe técnico específico. En comparación, las versiones Gemma 2 27B y 9B se entrenaron con 13 billones de tokens, en su mayoría datos en inglés, y 8 billones de tokens, respectivamente.

Aclaración importante: estos tokens provienen de diversas fuentes de datos, incluidos documentos web, códigos y artículos científicos. Estos no son modelos multimodales y no están específicamente capacitados para capacidades multilingües de última generación.

Seleccionado para usted


-

PREV Con todas estas rebajas, el Samsung Galaxy S24 Ultra se va a un precio de locura esta semana
NEXT 31 nuevos idiomas africanos, incluidos fon y baoulé, en Google Translate