Esta empresa china tiene lo necesario para competir con ChatGPT

Esta empresa china tiene lo necesario para competir con ChatGPT
Esta empresa china tiene lo necesario para competir con ChatGPT
-

La empresa china DeepSeek ofrece hoy una solución de aprendizaje para IA mucho menos costosa que su competidor estadounidense OpenAI.

Fuente: Frandroide

yointeligencia artificial Es un tema amplio, que abarca diferentes temas, que van desde aplicaciones prácticas hasta aspectos teóricos, incluido el aprendizaje de datos de estas IA a través de lo que llamamos LLM (modelos de lenguaje). Hoy en día, las empresas detrás de muchos sistemas de IA están atrayendo preocupaciones en cuanto a los costes económicos y medioambientales que generan. búsqueda profunda ofrece una solución a este problema, al menos desde el punto de vista económico.

Más rápido y más barato

Al progresar y volverse cada vez más eficiente, la inteligencia artificial aumenta los parámetros de sus modelos de lenguaje para mantente relevante y comprender consultas cada vez más complejas. Una mejora que tiene un coste. Como ejemplo, versión 3 de ChatGPTque contaría 175 mil millones de parámetros de acuerdo a El bordeSu desarrollo costó varios cientos de millones de dólares. OpenAI, su empresa matriz, también es regularmente señalada por las sumas astronómicas que le permiten mantenerse a flote.

Según Jim Fan, científico investigador de NVIDIADeepSeek, con sede en Hangzhou, China, se considera “el mayor outsider” de 2025 en el campo de los grandes LLM de código abierto, informan los medios chinos Poste matutino del sur de China.

En comparación con ChatGPT, Búsqueda profunda V3que tiene 671 mil millones de parámetros, fue entrenado en solo dos meses a un costo de 5,58 millones de dólares americanos.

Un modelo de código abierto

Por su parte, además de económico, DeepSeek se posiciona como modelo fuente abierta lo que parece demostrarse entre los profesionales. “DeepSeek V3 parece ser un modelo más potente, con sólo 2,8 millones de horas de GPU”dijo Andrej Karpathy, exjefe de IA de Tesla y miembro fundador del equipo OpenAI, en una publicación en X (Twitter). A modo de comparación, Llama 3.1la IA del grupo Meta, requirió 30,8 millones de horas de entrenamiento de GPU, según Poste matutino del sur de China.

“Sigo a DeepSeek desde hace mucho tiempo. El año pasado tuvieron uno de los mejores modelos de codificación abierta »dice Fan. Continúa diciendo que estos modelos de código abierto ejercerán una enorme presión sobre el sector, lo que conducirá a una rápida evolución.

Para los más curiosos, la versión DeepSeek está accesible en Hugging Face y va acompañada de su documentación en GitHub.


Únase a nosotros cada dos miércoles en Twitch, de 5 p. m. a 7 p. m., para seguir en vivo. el espectáculo SURVOLTÉS producido por Frandroid. Coche eléctrico, bicicleta eléctrica, consejos de expertos, juegos o testimonios, ¡hay algo para todos los gustos!

-

PREV Cómo la Vendée Globe avanza en el conocimiento meteorológico
NEXT Se espera a Charlie Dalin a las 8 h, sigue la meta en Les Sables-d’Olonne