¿Podemos seguir aumentando el rendimiento de la inteligencia artificial sin amenazar nuestro planeta? En las últimas semanas las señales de alerta se han multiplicado. OpenAI, el creador de ChatGPT, advirtió recientemente a la Casa Blanca que cada uno de sus futuros centros de datos probablemente requeriría “ más energía de la que se utiliza para alimentar una ciudad entera”.
El mismo mes, la compañía energética Constellation Energy y Microsoft firmaron un acuerdo de 20 años para la reapertura de la central nuclear de Three Mile Island en Pensilvania, lugar del accidente radiológico más grave que jamás haya experimentado Estados Unidos. Por su parte, Google admitió que estaba luchando por alcanzar sus objetivos de neutralidad de carbono.
“El uso de la IA es una cuestión de vida o muerte para una empresa” (Emilie Sidiqian, directora de Salesforce en Francia)
La tendencia se está generalizando en Estados Unidos, donde se desarrollan la mayoría de los principales modelos de IA generativa. Tanto es así que un informe de BloombergNEF advierte de una desaceleración del progreso del país en materia de descarbonización. Las emisiones sólo se reducirían un 34% para 2030 en comparación con sus niveles de 2005, muy lejos del objetivo del 50 al 52%. La causa según este informe: la bulimia de la IA en lo que respecta a la energía.
Una marcha forzada de la democratización
“Todos los gigantes de la web invierten en infraestructura, priorizando el rendimiento del modelo y descuidando los costos de energía”. resume Tristan Nitot, director asociado de OCTO Technology, especialista en digital sostenible. Hace unas semanas, Eric Schmidt, exjefe de Google y gran inversor en IA, dejó de lado el tema durante una conferencia. “No lograremos los objetivos pase lo que pase porque no estamos organizados para hacerlo. Los requisitos energéticos de la IA serán problemáticos, pero prefiero apostar a que la IA resuelva la crisis ambiental que forzarla y tener el problema pase lo que pase. »
Pero, ¿es defendible este tecnosolucionismo dada la rápida democratización de la inteligencia artificial y, por tanto, su creciente coste energético? La IA generativa se está integrando ahora en productos muy convencionales. Piense en la nueva versión de iOS, dotada de “Apple Intelligence” que resume rápidamente sus notificaciones y mensajes en una frase, o en AI Overviews de Google, que ofrece a los internautas de cien países un resumen elaborado por la IA de los resultados de su investigación… A partir de ahora, el uso de ChatGPT y otros plantea preguntas. Según la Agencia Internacional de Energía (AIE), una solicitud al chatbot OpenAI consumiría casi diez veces más electricidad que una simple consulta en Google.
A este impacto se suma el impacto más conocido de la formación. Esta es la etapa en la que los modelos de IA “leen” una gran cantidad de datos y luego practican respondiendo consultas. Este trabajo requiere varios días, incluso semanas, de cálculos y una masa colosal de datos. Para empeorar las cosas, la infraestructura necesaria se encuentra principalmente en países donde la energía sigue siendo intensiva en carbono, como Estados Unidos, Irlanda, pero también Alemania.
Cómo utiliza Theremia la IA para optimizar la eficacia de los medicamentos
Pero como señala Tristan Nitot, “No es sólo una cuestión de electricidad”. El consumo de agua también es un tema central. Para enfriar los centros de datos sobrecalentados, las grandes tecnológicas utilizan torres de refrigeración que consumen oro azul. Así, el consumo de agua de Microsoft aumentó un tercio respecto a 2021, y un 21% para Google. “También debemos pensar en todo el ciclo de vida de la IA, añade. Comienza con la extracción de metales y luego su transporte a las fábricas que fabrican los procesadores necesarios para su desarrollo, en Taiwán en particular”. Y el consumo de procesadores se está disparando, impulsado por la renovación del hardware informático para hacerlo compatible con las funcionalidades de la IA.
Ante esta mortal observación, la industria tecnológica no permanece de brazos cruzados. Nvidia se enorgullece de mejorar constantemente la eficiencia energética de sus GPU, estos chips son esenciales para entrenar la mejor IA. Los centros de datos están adoptando nuevas tecnologías de refrigeración denominadas “enfriamiento directo”, que consisten en infiltrar directamente un líquido a temperatura ambiente en los servidores. Una técnica que consume menos agua y electricidad.
El miedo al efecto rebote
“Estamos viendo mejoras impresionantes, pero nunca habíamos consumido tanto carbón en la historia de la humanidad. No veo por qué la IA escaparía a la paradoja de Jevons”. Sin embargo, opina Gaël Varoquaux, investigador del Inria. Esta paradoja, también llamada “efecto rebote”, establece que a medida que las mejoras tecnológicas aumentan la eficiencia con la que se emplea un recurso, el consumo total de ese recurso aumenta en lugar de disminuir.
En el lado del software, el progreso también es visible. La tendencia es desarrollar modelos pequeños, igual de eficaces para determinados casos de uso, pero que requieren hasta diez veces menos potencia informática. Estas pequeñas IA también tienen la ventaja de poder ejecutarse en hardware informático tradicional, como un teléfono inteligente o una computadora.
Más allá de estos avances técnicos, será necesario “disciplinate” en palabras de Gilles Babinet, presidente del Consejo Nacional Digital. “Debemos dejar de actualizar constantemente los modelos, porque el coste energético de entrenarlos sigue siendo el principal problema, favorecer una IA más específica y discriminar ciertos usos estúpidos o inútiles”. él dice.
Inteligencia artificial: el enfado de los artistas
Pero si bien los gigantes digitales querían vendernos IA generativa en todas partes, estos usos menos útiles ya son parte de la vida diaria de algunos. Pierre-Yves Oudeyer, director de investigación de Inria, particularmente interesado en el uso de la IA generativa entre los jóvenes, observa que esta tecnología a veces les sirve como“interfaz universal”. Le piden información como el resultado de un partido de baloncesto, la capital de un país, que una simple consulta en Google habría proporcionado fácilmente. “Es como usar una topadora para aplastar una mosca”. él resume. Para él, educar a los usuarios sobre cuestiones medioambientales es fundamental para racionalizar los usos. Después de la vergüenza de volar, ¿nos sentiremos culpables por cada solicitud de ChatGPT?
Related News :