La proliferación de robots asesinos en los conflictos de Ucrania y Oriente Medio – rts.ch

-

En los campos de batalla de Oriente Medio y Ucrania, el uso de la inteligencia artificial se ha convertido en algo habitual, provocando miles de bajas adicionales, incluso entre civiles. ¿Podemos todavía frenar esta carrera para automatizar las masacres? Intento de respuesta con el profesor de geopolítica Maurizio Simoncelli.

A veces se les llama “sistemas de armas autónomos letales (LAWS)”. Estos son los robots asesinos. Lejos de imágenes de cyborgs tipo Terminator, se trata más bien de armamento moderno mejorado gracias a la inteligencia artificial (IA): drones, aviones o barcos autónomos, torretas, dispositivos de vigilancia y análisis, sistemas de protección antimisiles o incluso municiones “inteligentes”. . Un mercado de 12 mil millones de dólares para el sector militar, con proyecciones de 30 mil millones de dólares dentro de 4 a 5 años.

Una estatua del personaje de la película Terminator, hecha con piezas de transmisión de automóviles, colocada cerca de un puesto de control en Kiev, Ucrania, el viernes 25 de marzo de 2022. [Keystone – Vadim Ghirda]

Aunque estos robots asesinos tienen cierta “autonomía” técnica (como localizar y adquirir objetivos, evaluar su relevancia y ajustar la puntería), la decisión de disparar permanece, en la mayoría de los casos, bajo control humano.

En Oriente Medio y Ucrania, sin embargo, miles de víctimas, incluidos civiles, ya son atribuibles a estas armas optimizadas, que permiten masacrar con una eficacia cada vez mayor.

Una multiplicación de objetivos por 10, incluso 100

Una capacidad de exterminio que cada día es más aterradora y que, por tanto, requiere intervenciones urgentes de control. Esta es la posición defendida en una entrevista para RSI por Maurizio Simoncelli, vicepresidente y cofundador del Instituto de Investigación Internacional sobre Archivos del Desarme (IRIAD) y profesor de la Universidad Lateranense de Roma.

El profesor informa que el ejército israelí desplegó el sistema de inteligencia artificial Lavender en la Franja de Gaza, que identificó hasta 37.000 palestinos como “militantes”, un término vago que deja lugar a interpretaciones amplias. Además, las FDI utilizan el sistema Gospel para identificar y apuntar a estructuras para atacar, mientras que la Cúpula de Hierro, un sistema antimisiles autónomo, defiende a Israel contra los proyectiles enemigos.

El sistema de defensa aérea israelí Cúpula de Hierro dispara para interceptar un ataque del Líbano sobre la región de Galilea, visto desde los Altos del Golán anexados por Israel, el 4 de agosto de 2024. [KEYSTONE – LEO CORREA]

Gracias a estas herramientas, el ejército israelí consigue “atacar mucho más rápidamente”, señala Maurizio Simoncelli. “Antes había una proporción de 10 objetivos por día, ahora tenemos 100 o 1000, porque estas IA son capaces de procesar datos de una manera increíble”, señala.

Identificación sistemática y “daños colaterales” digitalizados

Maurizio Simoncelli está particularmente preocupado por esto, insistiendo en que el sistema Lavender “identifica (incluso en tiempos de paz) objetivos y prepara listas que pueden ser entregadas a las fuerzas armadas para atacarlos”. Para él, “es notable la falta de supervisión de los principios mediante los cuales se crean estas listas de objetivos humanos”.

También expresa su preocupación por la gestión digital de los “daños colaterales”, es decir, objetivos no militares. “El objetivo puede estar dentro de un edificio habitado por otras veinte familias. Cuando las FDI alcanzan sus objetivos, todo el edificio es demolido, a pesar de que alberga a otras personas completamente inocentes”.

Una muñeca yace entre restos de plástico y ropa tras un ataque aéreo israelí en el campamento de Muwassi cerca de Khan Younes, en el sur de la Franja de Gaza, el jueves 5 de diciembre de 2024. [KEYSTONE - ABDEL KAREEM HANA]
Una muñeca yace entre restos de plástico y ropa tras un ataque aéreo israelí en el campamento de Muwassi cerca de Khan Younes, en el sur de la Franja de Gaza, el jueves 5 de diciembre de 2024. [KEYSTONE – ABDEL KAREEM HANA]

“Aprendimos de fuentes israelíes […] que incluso existe una tabla con un cierto número de bajas colaterales tolerables según el tipo de nivel de objetivo: para un militante básico, son 10 daños colaterales, para un comandante de nivel medio o superior, hasta 100 o 200”.

En el terreno, los soldados israelíes se acostumbran a depender de estos sistemas. “Hoy ya no obedecen al comandante, obedecen a Lavander o a Gospel”, concluye Maurizio Simoncelli.

Una evolución preocupante

Para el profesor, los posibles abusos de estas tecnologías son numerosos y van más allá de las prácticas actuales israelíes, rusas o ucranianas. El desarrollo de herramientas de IA para uso militar está llevando a los distintos ejércitos de todo el mundo hacia una carrera armamentista inteligente. Una espiral inevitable para los soldados que desean seguir con vida.

Como explica Maurizio Simoncelli, hoy tenemos “misiles que se mueven muy rápido, a baja altura, y sólo son detectables cuando están muy cerca del objetivo. Los tiempos de reacción humana son mucho más lentos. Por lo tanto, debemos confiar cada vez más en las máquinas, más y más sobre IA, para identificar un misil, un posible ataque y reaccionar con un contraataque.

El problema central en esta carrera hacia la “guerra autónoma” es que la IA “no puede tener en cuenta cuestiones éticas”, explica el profesor. “Si el oponente está herido, un soldado puede decidir detenerse y no golpearlo. […] ¿Puede la IA entender esto? ¿Puede entender que en este edificio hay otras 10 familias con niños inocentes? Debemos actuar respetando los derechos y prerrogativas que respetan la vida de los civiles. Y la IA no puede garantizarnos eso”, afirma.

También le preocupa el posible uso indebido de la IA con fines autoritarios y de seguridad, como las prácticas de vigilancia masiva de la población civil observadas bajo el régimen comunista chino. Sobre todo, le preocupan las implicaciones del encuentro entre las tecnologías de inteligencia artificial y el actual arsenal nuclear.

La posibilidad de una guerra atómica autónoma

Lo que más asusta a Maurizio Simoncelli es este experimento mental: imaginar una IA en una situación similar a la de Stanislav Petrov. El 26 de septiembre de 1983, poco después de medianoche, en el centro de Rusia, este oficial de la defensa antiaérea soviética observó el disparo de cinco misiles balísticos intercontinentales estadounidenses en dirección a la URSS.

Tal maniobra debería haber desencadenado el procedimiento de respuesta de Moscú, que podría haber llevado a los dos bloques a una guerra nuclear global. Pero el ejército ruso dudó con razón de la veracidad de la ofensiva estadounidense y no contraatacó a la fuerza de ataque rusa.

“Tomó esta decisión porque pensó: ¡nos están atacando con 5 misiles! Es imposible que nos ataquen sólo con 5 misiles, cuando tienen 20.000 o 30.000”. Y asumió la responsabilidad de no haber respondido al ataque, afirma Maurizio Simoncelli. “Este ser humano razonó y se dio cuenta de que podía iniciar una guerra nuclear global”, señala.

Por tanto, el profesor se pregunta si el algoritmo detrás de una IA podría hacer la misma evaluación. “Cuando hay que decidir si responder o no en minutos o segundos, ¿cómo reaccionará la IA? No lo sabemos. Los expertos nos dicen que a veces los algoritmos producen resultados diferentes a los imaginados por sus diseñadores. Por lo tanto, podríamos encontrarnos en una guerra nuclear global provocada por una IA.

La regulación aún es débil

El 5 de noviembre, la ONU adoptó una resolución sobre sistemas de armas autónomos. Pide que la autonomía no sea total. Debe haber una intervención humana sistemática. En la misma dirección va la campaña internacional “Stop Killer Robots”, que reúne a 70 países y 160 organizaciones.

Los científicos también se han opuesto al uso de la IA en la guerra, argumentando que los humanos siempre deben mantener el control. Para Maurizio Simoncelli, este punto es fundamental. “Siempre debe ser el ser humano, en el último momento, quien interviene, quien decide, quien asume la responsabilidad política, militar y moral de un ataque. No podemos decir: no es culpa mía, fue el dispositivo”.

Contenido externo

Este contenido externo no se puede mostrar porque puede recopilar datos personales. Para ver este contenido debes autorizar la categoría. Niveles de servicios.

Aceptar Más información

Contenido externo

Este contenido externo no se puede mostrar porque puede recopilar datos personales. Para ver este contenido debes autorizar la categoría. Niveles de servicios.

Aceptar Más información

Artículo original: Massimiliano Angeli (RSI)

Adaptación francesa: Julien Furrer (RTS)

-

NEXT “Un verdadero milagro”: un niño sobrevive 5 días en un parque nacional con leones en Zimbabue