DayFR Spanish

La primera tarjeta gráfica “real” cumple 25 años y fue una revolución

-

El 11 de octubre de 1999, el pequeño mundo de las tarjetas gráficas experimentó una revolución: la Nvidia GeForce 256. El comienzo de una revolución para la industria informática de consumo, pero no sólo eso. Entre videojuegos, criptomonedas y configuraciones Potente retrospectiva sobre el punto de partida de una serie icónica: la GeForce.

El 11 de octubre de 1999 se lanzó la Nvidia GeForce 256, considerada la primera tarjeta gráfica de consumo (GPU) del mundo. Hoy se cumple el aniversario de su lanzamiento, hace veinticinco años. Una tarjeta que ya cumple un cuarto de siglo y que ya está a años luz de lo mejor que hay actualmente. Dentro de unos meses, debería ser el turno de la Nvidia GeForce 50XX.

PC y juego de azarque rima con nvidia

En 1993, Jensen Huang, Chris Malachowsky y Curtis Priem fundaron Nvidia con una visión: la computadora, la Ordenador personal (PC), será una pieza imprescindible para jugar a videojuegos. Hay más en la vida que solo consolas domésticas (o portátiles). Además, los videojuegos experimentarán una aceleración en la calidad de los gráficos. Es cierto: el equipo debe poder “ seguir » para jugar correctamente y beneficiarse de los avances técnicos. El 31 de agosto de 1999 presentaron su primera gama de tarjetas gráficas que abrirían la gama GeForce.

>
Jen-hsuen Huan con una tarjeta gráfica GeForce RTX. // Fuente: Youtube/ NVidia GeForce

Ya en aquel momento, los archivos multimedia muestran el interés de los medios por esta GeForce 256: Hardware.fr (desde inactivo) le dedicó varios artículos. “ La GeForce 256 es, como su nombre indica, completamente de 256 bits, y es una novedad en el campo de los chips de consumo. », pudimos leer. Y el nombre GeForce proviene de la expresión Fuerza de geometríaya que fue la primera tarjeta gráfica en calcular la geometría de transformación e iluminación. Antes, dependía del procesador encargarse de esto.

Esta transición fue precisamente la filosofía de Nvidia con sus GPU (Unidad de procesamiento de gráficos): descargar los procesadores gestionando la visualización de vídeo y 3D, para tener un mejor rendimiento. Es por eso que generalmente consideramos la GeForce 256 como la ” la primera tarjeta gráfica del mundo ”, porque fue el punto de partida de la GPU para el público en general.

La Nvidia GeForce 256 no es realmente la primera tarjeta gráfica del mundo

La historia ha hecho que casi sólo recordemos a Nvidia. Sin embargo, la GeForce 256 no es la primera tarjeta gráfica real estrictamente hablando. Existieron tarjetas gráficas antes que la marca, en el sentido de componentes que se conectaban a un PC de sobremesa de mediados de los años 80. Pero, en aquel momento, sólo podían mostrar caracteres de 8 bits, en monocromo y, obviamente, en 2D.

Poco a poco, los procesadores van abandonando las tareas gráficas en favor de estas tarjetas. Luego, en la década de 1990, las GPU comenzaron a gestionar 3D, como las tarjetas 3DX o 3dfx Voodoo. Las primeras en poder procesar tanto 2D como 3D en un mismo circuito integrado fueron las tarjetas ATI y la Verite de Rendition que apareció en 1996.

>
El Voodoo 5500 de 3dfx. Otra vez. // Fuente: Wikipedia

También podemos hablar de Nvidia RIVA 128 y RIVA TNT2, que son las predecesoras de la GeForce 256. Esta última introdujo mejoras de hardware para aumentar el rendimiento de los juegos 3D en PC: también fue la primera en tener un acelerador 3D totalmente compatible con Direct3D. . Entonces, si a menudo recordamos la GeForce 256 como la ” la primera tarjeta gráfica del mundo “, también se debe a que Nvidia lo vendió como tal, como escribió cnn en 1999 cuando se lanzó la tarjeta. En 25 años, Nvidia se ha convertido líder del mercado, y también se ha consolidado en la historia.

Una ficha técnica ridícula en comparación con las GPU actuales

Su ficha técnica es evidentemente ridícula en comparación con las fichas técnicas de las GPU más baratas de la actualidad: grabado con una finura de 220 nanómetros y una frecuencia de reloj de 120 MHz.

Hoy ya no hablamos en cientos (¡hablábamos incluso de micrómetros!), ni en decenas de nanómetros, ni tampoco en MHz. Hablamos de grabados que se acercan a los 2 y 3 nanómetros, y frecuencias que se expresan en GHz.

Nvidia afirmó hace un cuarto de siglo que era capaz de procesar hasta 10 millones de polígonos por segundo: ahora son miles de millones. 32 MB de VRAM en su momento, frente a los 24 GB de los modelos actuales más avanzados. Día y noche.

>
Una placa VisionTek GeForce 256 DDR. // Fuente: Wikipedia

La GeForce 256 se vendía por 1.890 francos a finales de los años 1990, o unos 300 euros, según los cálculos de Contador de hardware. Debido a la inflación, esto representaría unos 423 euros en 2023. Hoy en día, los precios se han disparado: a veces hay que pagar 1000 euros o más por una tarjeta gráfica grande, o tienes suerte. Las tarjetas gráficas antes eran mejores en precio.

GeForce 256: sinónimo de revolución hardware

Ya en agosto de 1999, Marc Prieur de Hardware.fr dicho: ” Una cosa es segura: se está gestando una revolución en el pequeño mundo del 3D en PC. » Desde entonces, ha llegado la competencia, principalmente de AMD: “ Siempre más, siempre mejor, eso es lo que los fabricantes de chips gráficos parecen prometernos con esta nueva tecnología. »

>
La Nvidia GeForce 256. // Fuente: Wikipedia

Mientras que a finales de los años 90 un Pentium III 600 costaba 6.000 francos, la tarjeta gráfica de Nvidia parecía una solución más barata y eficaz (podía calcular cuatro veces más polígonos por segundo). Para Marc Prieur, era seguro: Nvidia tenía “ claramente un paso por delante de la competencia », escribió hace veinticinco años. Lo que esto aportó a los jugadores de todo el mundo (primero con las tarjetas del fabricante, luego con AMD) fueron texturas más precisas, una iluminación dinámica más suave y más fotogramas por segundo.

Sin esta revolución, no habría deportes electrónicos ni videojuegos en Twitch/YouTube (o casi ninguno). Ni bitcoins ni minería tan rápida (pero esto quizás también habría evitado la escasez de existencias que experimentamos hace unos años). Quizás no habría habido usos tan avanzados de la inteligencia artificial, en particular de la IA generativa.


Related News :