DayFR Spanish

Nvidia dice que la evolución de sus chips ha superado con creces la ley de Moore

-

Existe un fenómeno curioso en el mundo de la alta tecnología. Cada dos años, el número de transistores de un microprocesador se duplica, a coste constante. Independientemente de los avances tecnológicos, el ritmo se ha mantenido y así ha sido durante más de sesenta años. este fenómeno puertapuerta el nombre de “Ley de Moore”, por la predicción hecha por Gordon E. Moore en 1965.

Sin embargo, para Jensen Huang, presidente de Nvidia, la ley de Moore ya no se aplicaría a los chips diseñados por la empresa para la inteligencia artificial, que evolucionarían a un ritmo mucho más rápido. Durante su discurso de apertura en Salón de electrónica de consumo en Las vegasvegas (CES 2025), el hombre dijo: “ Nuestros sistemas están progresando mucho más rápido que la Ley de Moore. » La última bala para centros de datoscentros de datos porque el funcionamiento de grandes modelos de lenguaje sería 30 veces más rápido que la generación anterior.

Siga la presentación completa de Jensen Huang en CES 2025. (En inglés, habilite la traducción automática de los subtítulos). © Nvidia

Un aumento del rendimiento de la inteligencia artificial

« Podemos construir la arquitectura, el chip, el sistema, las bibliotecas y los algoritmos al mismo tiempo.añadió Jensen Huang. Si hace eso, podrá avanzar más rápido que la Ley de Moore, porque puede innovar en toda la cadena de producción. » Ya había sugerido, entre otras cosas, un “ La hiperley de Moore “, donde la inferencia, es decir el funcionamiento diario de la IA frente a su entrenamiento, sufriría una evolución similar. Un aumento en el rendimiento reducirá el costo de la inferencia.

El nuevo chip de Nvidia es el GB200 NVL72, anunciado inicialmente en marzo de 2024. Está basado en la arquitectura Blackwell, la misma que se utiliza para el nuevo tarjetas graficastarjetas graficas Serie RTX 50 y reemplaza los chips H100 y H200 basados ​​en la arquitectura Hopper. El GB200 NVL72 sería entre 30 y 40 veces más rápido para tareas de inferencia y 1.000 veces más rápido que los chips fabricados por el fabricante hace una década.

Para Jensen Huang, esta aceleración, mucho más rápida de lo que predice la ley de Moore, reducirá los costes operativos de la IA, en particular para modelos más sofisticados, como el o3 de OpenAI, que requieren mucha potencia informática durante la fase de inferencia.

Related News :