DayFR Spanish

Guerra robótica: ¿qué cerebro controlar el uso de la fuerza? ¿Humano o artificial?

-

Mareado ! Cuando pensamos en la inteligencia artificial aplicada a la guerra, en los drones, en los misiles, en los sistemas de análisis y de decisión, es toda nuestra concepción del mundo, del derecho, de la organización social, del Estado, de la ciudadanía, del lugar del hombre en general que se va al carajo. En el centro de la reflexión de la especialista Laure de Roucy-Rochegonde (Ifri, Ceri, Sciences Po/CNRS), en su libro “La guerra en la era de la inteligencia artificial”, se encuentran las “SALA”.

¿SALA? Acostúmbrese rápidamente al acrónimo: se trata de “armas letales autónomas” que hoy abundan en todas sus formas: desde baterías antimisiles hasta drones voladores o submarinos, pasando por misiles, Shadow Riders, vehículos sin piloto… El subtítulo de su obra es explícito : “Cuando las máquinas toman las armas”.

Cicerón: “Las leyes callan en medio de las armas”

Recordemos primero, con Roucy-Rochegonde, que cita a los mejores expertos en armas y en inteligencia artificial, pero también a Kant, Camus y el gran jurista Alain Supiot, que la etimología de autonomía es “aquello que se rige por sus propias leyes”. Y que la naturaleza de las guerras es precisamente liberarse de la Ley: “Las leyes callan en medio de las armas”, ya decía Cicerón, quien recordaba al mismo tiempo que “Somos esclavos de las leyes para ser libres. »

Leer tambiénLa IA transformará la naturaleza de la guerra

Pregunta: ¿Qué sucede cuando en uno o más aspectos de la misión de un dron semiautónomo – su trayectoria, su objetivo, la oportunidad de disparar – la autoridad militar “delega” en el SALA toda o parte de la decisión? ¿Con qué criterios arbitra la IA? ¿Sobre qué sistema de valores? Cómo integrar los principios fundamentales del Derecho de la Guerra en los algoritmos de la máquina: los de precaución, responsabilidad, proporcionalidad o distinción entre civiles y militares.

En 1139, el Concilio de Letrán prohibió el uso de la ballesta por considerarla demasiado mortífera.

Ya era muy difícil restringir –un poco– las armas químicas o las minas antipersonal, ¿cómo podemos esperar poder “regular la IA” y, en última instancia, garantizar siempre el “control de la fuerza” a los hombres? Esto es lo que desearía ardientemente Antonio Guterres, secretario general de la ONU, que reunió por primera vez un Consejo de Seguridad sobre el tema el 18 de julio de 2023. Podemos soñar. Incluso debemos soñar si no queremos ser, algún día, los idiotas útiles de nuestras propias criaturas robóticas.

Leer tambiénSupercomputadora de IA para ejércitos: Lecornu quiere arrojar luz sobre las ofertas de HP-Orange y Atos

Roucy-Rochegonde también tiene razón al recordar que en 1139, el Concilio de Letrán había prohibido el uso de la ballesta considerada demasiado mortífera. En cualquier caso, el autor confiesa cierto escepticismo sobre la necesaria supervisión del SALA, y con mayor razón su prohibición, dada la evolución de los arsenales movilizados en los campos de batalla de Ucrania o de Oriente Medio. “SALA”, explica, “socava el principio mismo del control humano de la fuerza. »

Tres ejemplos para entender la cuestión del traspaso del uso de la fuerza a las máquinas:

1. Identificación del enemigo: ¿Estamos seguros de que Lavender, el sistema de detección estadounidense utilizado por las FDI para identificar y localizar a los militantes de Hamás (37.000 personas) es completamente confiable? Por un lado, podemos argumentar que este uso masivo de todos los datos -existen otros sistemas automatizados como “Gospel” o “¿Dónde está papá?” » — permite discernir aquello de lo que un ejército en el campo no sería capaz. Por otra parte, observa Roucy-Rochegonde, “el personal militar se contenta la mayor parte del tiempo con aprobar las elecciones de la máquina/…/ sabiendo que la máquina comete errores en alrededor del 10% de los casos…” C He aquí toda la dificultad , porque de repente Lavender se convierte en mucho más que una simple herramienta de inteligencia. La máquina no sólo investiga la acusación, sino que pasa de facto del estatus de súper detective al rango de tribunal especial.

2. ¿Un algoritmo de compasión? El libro también cuenta la historia de una pequeña niña afgana que, durante la guerra, transmitió a los talibanes las posiciones de un grupo de rangers estadounidenses. En principio, la pequeña debería haber sido neutralizada por “participación directa en las hostilidades”. Sin embargo, los guardabosques sintieron vergüenza o lástima y prefirieron cambiar de campamento antes que abrir fuego. ¿Podría la IA siquiera imaginar este estallido de compasión?

3. ¿En quién puedes confiar cuando el apocalipsis está en juego? La historia es conocida. El 27 de octubre de 1962, en plena Crisis de los Misiles entre la URSS y Estados Unidos, un submarino ruso diseñado para las gélidas aguas del Polo se sobrecalentó en aguas del Caribe. Avanza demasiado rápido contra los submarinos americanos y da la impresión de atacar. Un submarino americano responde con algunos disparos de advertencia. Como resultado, los comandantes de la flota rusa pueden pensar que este es el comienzo de una ofensiva general. Dos de cada tres comandantes de la flota de submarinos están convencidos de ello. Y, siguiendo instrucciones, decidieron utilizar misiles nucleares sin consultar al Kremlin.

Leer tambiénDe Ucrania a Gaza, ¿cómo son las nuevas guerras?

Fue el propio Kremlin quien detuvo este procedimiento automatizado en caso de agresión existencial. Para desencadenar el fuego atómico todavía se necesita el acuerdo del tercer comandante de la flota. Y tiene una duda. Una mezcla de intuición y análisis de la configuración de la flota americana que le llevó a rechazar los disparos. Su nombre es Arjipov. Los estadounidenses declararían más tarde que había “salvado al mundo” de un holocausto nuclear. Esto es indiscutible.

Terminator, la película de culto de ciencia ficción sobre inteligencia artificial y guerra de Jameds Cameron Crédito: Cameron

Los fabricantes de armas apuestan por la autonomía de las funciones

Pregunta: ¿La IA habría sido capaz de realizar un análisis de contexto similar al de Arkhipov? ¿O habría aplicado la instrucción de respuesta inmediata prescrita por el Kremlin? ¿Y no deberíamos aplicar hoy el procedimiento que exige la unanimidad colegiada antes de actuar sobre las propias máquinas? ¡Requiriendo luz verde de tres máquinas de IA y no solo de una!

Ciertamente, Laure de Roucy-Rochegonde recuerda al menos seis o siete veces en su libro que un Robot Terminator tal como lo imagina James Cameron (1984), es decir totalmente independiente de los hombres desde el diseño hasta la producción de sus intervenciones, no existe y no debería existir en el corto plazo.

Esto podría ser tranquilizador si Rochegonde no subrayara inmediatamente: “La tendencia hacia una integración cada vez más marcada de funcionalidades autónomas en los sistemas de armas. » “Para satisfacer las demandas del Estado”, añade, “los industriales tienden a autonomizar cada vez más funciones y dicen fácilmente: “La autonomía está en todas partes”. »

“El combate sin hombres está emergiendo gradualmente como el futuro de la guerra”

Agregue esta declaración de Wang Weizing, Dr. Investigador Militar del Ejército Popular de Liberación de China, para medir el cambio acelerado en los datos militares: “El combate sin hombres está emergiendo gradualmente como el futuro de la guerra. »

Durante un discurso pronunciado el 28 de agosto de 2023, la Secretaria de Defensa de los Estados Unidos, Kathleen Hicks, dio a conocer el “Proyecto Replicador”: un “ejército de robots asesinos autónomos” controlados por IA para 2025. La misma agenda son los chinos, y los rusos, al parecer, adelante… A priori, una buena noticia para los países democráticos, siempre muy vulnerables a las emociones de la opinión pública ante las pérdidas humanas de los soldados, reclutados o no.

Leer tambiénHelsing, la start-up que sueña con convertirse en el Palantir de la inteligencia artificial militar

Sobre todo porque el considerable coste de entrenar y mantener a los soldados armados se ve agravado por el durísimo seguimiento psicológico de los veteranos que regresan a la vida civil. Sí, es absolutamente cierto que los Estados democráticos se beneficiarían prima facie si sustituyeran a los ciudadanos soldados por robots.

Debate democrático

Pero hay que tener cuidado: los gobiernos o los estados mayores corren entonces el riesgo de liberarse del control de los parlamentarios y de los votantes que se han vuelto indiferentes a las cuestiones relativas a la guerra y la paz, ya que la guerra ya no mataría o mataría a pocos.

A partir de entonces, es el pacto democrático, el basado en la sangre, el que se debilitaría, como resume el filósofo Grégoire Chamayou: “Es porque la soberanía guerrera expone la vida de sus súbditos y son ciudadanos vivos que un derecho de vida. Se les abre un control sobre este poder que puede herirlos o causarles la muerte. »

Otra dificultad: un ejército predominantemente robótico sería sin duda capaz de imponerse en un conflicto con un ejército tradicional, pero ¿podría reunir poblaciones, corazones y mentes para garantizar una paz duradera? Todas las intervenciones estadounidenses en Vietnam, Somalia, Afganistán e Irak, que se beneficiaron de tecnología de punta, no lograron movilizar a las poblaciones. ¿Deberíamos pensar en construir robots pacificadores? ¿Mediadores? No parece que esté en proyecto todavía, pero ¿quién sabe?

Leer tambiénAI: Google está dividido por la cuestión militar

Por último, es todo el concepto jerárquico del ejército, que envía datos y análisis al Estado Mayor, el que se ve afectado en cuanto se multiplican las delegaciones de fuerzas en el campo de batalla. En primer lugar, para recopilar e interpretar las gigantescas masas de datos que ya alimentan los algoritmos de los sistemas de baterías antimisiles y antidrones que pueden e incluso deben disparar en el segundo, en cuanto se detecta un ataque con misiles.

“Encadena al Titán para evitar que se desate el caos”

La autonomía es a veces muy amplia: es el caso del robot centinela surcoreano SGR-AI instalado en la zona desmilitarizada que separa las dos Coreas. SGR-AI monitorea, localiza sus objetivos si es necesario y decide abrir fuego a tal velocidad que el enemigo no pueda reaccionar. Y eso es bueno, porque cada segundo cuenta.

Pero eso es una lástima para el control humano, que luego ratifica en lugar de dirigir.

En resumen, salimos nerviosos del libro de Roucy-Rochegonde. Entendemos que debemos garantizar humanidad, control… Pero lo que ya es difícil de prever para los Estados clásicos lo será aún más para las organizaciones terroristas o los Estados canallas que el autor no menciona.

Una cosa es segura: la regulación es una necesidad imperativa si queremos evitar amplificar los riesgos de epidemias “autónomas” de conflictos importantes.

Escuchemos la conclusión de Roucy-Rochegonde que devasta nuestras pobres neuronas humanas como un fluido helado: “Debemos encadenar al Titán para evitar que se desate el caos. » ¡Que tengas un buen fin de semana de todos modos!

Portada del libro “La guerra en la era de la inteligencia artificial” Crédito: Ediciones PUF

Related News :