En su último informe anual, la Comisión del Congreso estadounidense para la Evaluación de las Relaciones Económicas y Estratégicas entre Estados Unidos y China recomienda el lanzamiento y financiación de un “proyecto similar al Proyecto Manhattan, dedicado al desarrollo y adquisición de inteligencia artificial general ( AGI)”.
La analogía con la bomba nuclear no es trivial. La bomba atómica alteró el equilibrio geopolítico. Del mismo modo, el AGI podría conferir poder hegemónico a quienes lo dominen, pero esta vez yendo mucho más allá del marco militar.
Lea también:
Los 100 que fabrican IA en Europa
Si “el conocimiento es poder”, como dijo Francis Bacon, y el conocimiento proviene de la inteligencia, entonces la inteligencia artificial general es poder elevado a una nueva escala. Por tanto, no queremos ser los últimos en desarrollarlo: sí, necesitamos un proyecto de IA en Manhattan.
Visión simplista. Pero la analogía con la bomba nuclear también tiene sus límites. A diferencia de todas las tecnologías anteriores, la IA es la primera en tener una forma de autonomía en sus decisiones. Ella no sólo cumple órdenes; interpreta los objetivos fijados y elige los medios para alcanzarlos, a menudo de forma impredecible. Pensar que la AGI sería una herramienta “neutral” que simplemente debe ponerse en manos de “buenos” gobiernos para maximizar los beneficios para la humanidad es una visión simplista.
Regular las acciones de la IA resulta más complejo de lo que parece. Las IA ya demuestran una autonomía increíble en los medios que utilizan para lograr los objetivos que se les asignan. CICERO, por ejemplo, una IA entrenada en el juego Diplomacy, se ha involucrado en mentiras descaradas, ruptura de acuerdos y engaños deliberados, a pesar de los esfuerzos de los desarrolladores para evitar que recurra a tales prácticas.
Lea también:
Cuando las IA se conforman
Como explica Yuval Noah Harari en su último libro Nexo“cuando fijamos un objetivo específico para las computadoras […]movilizan todo su poder e ingenio para lograr este objetivo. Dado que funcionan de manera muy diferente a los humanos, es muy probable que recurran a métodos que los humanos no habrían previsto.
Así es como los algoritmos de las redes sociales resaltan los contenidos de odio: para maximizar el tiempo de permanencia en la plataforma (objetivo fijado por los humanos), los algoritmos deciden propagar la violencia y el extremismo (interpretación por la máquina). Este problema de “alineación” entre los métodos de la IA y las intenciones humanas puede conducir a desastres como el ataque terrorista de Christchurch que dejó 51 muertos, cuyo autor describió en su manifiesto cómo se radicalizó en parte gracias al contenido encontrado en YouTube. ¿Quién sabe cómo interpretará una futura AGI las solicitudes humanas? El poder no es conciencia.
Riesgo final. El riesgo final es que algún día la IA defina sus propios fines, más allá del control humano. Este escenario puede parecer distópico, pero los inicios de este problema ya son perceptibles. Auto-GPT, por ejemplo, una IA basada en GPT-4 encargada de rastrear a los asesores fiscales que comercializaban esquemas abusivos de evasión fiscal, fue más allá de su misión inicial al alertar espontáneamente a las autoridades después de completar su tarea.
Lea también:
IA, robots: China está revolucionando el ferrocarril del futuro
No necesitamos un Proyecto AI Manhattan, sino un IPCC AI. La cuestión es de civilización: la historia la escriben cada vez más máquinas, y ya no hombres, por lo que lo que está en juego es nuestra capacidad de controlar nuestro destino.
Licenciado por Sciences Po Grenoble y máster en filosofía, política y economía, Guillaume Moukala Same es economista consultor en Asterès.
Related News :