“No, no soy un robot”: alerta, la inteligencia artificial ya desarrolló capacidad de engaño

“No, no soy un robot”: alerta, la inteligencia artificial ya desarrolló capacidad de engaño
“No, no soy un robot”: alerta, la inteligencia artificial ya desarrolló capacidad de engaño
-

Los programas actuales de inteligencia artificial (IA) están diseñados para ser honestos. Sin embargo, han desarrollado una preocupante capacidad de engaño, advierte un equipo de investigadores del Instituto Tecnológico de Massachusetts en la revista Patterns.

Así, la IA ha logrado abusar de los humanos en los juegos en línea o incluso derrotar al software que supuestamente verifica que un usuario determinado no es un robot. “Estas habilidades peligrosas tienden a descubrirse sólo después del hecho”, advierte el investigador Peter Park.

A diferencia del software tradicional, los programas de IA basados ​​en aprendizaje profundo no están codificados, sino que se desarrollan mediante un proceso similar al cultivo selectivo de plantas. Un comportamiento que parece predecible y controlable puede volverse rápidamente impredecible en la naturaleza.

La IA, tan tortuosa como los humanos

Los investigadores del MIT examinaron un programa de inteligencia artificial diseñado por Meta llamado Cicero que, combinando reconocimiento de lenguaje natural y algoritmos de estrategia, venció con éxito a los humanos en el juego de mesa Diplomacy. Al profundizar en los datos del sistema, los investigadores del MIT descubrieron que la IA era capaz de cometer traición o cometer delitos.

Por ejemplo, al desempeñar el papel de Francia, Cicerón engañó a Inglaterra (interpretada por un jugador humano) para que conspirara con Alemania (interpretada por otro humano) para invadir. Específicamente, Cicerón prometió a Inglaterra su protección y luego confió en secreto a Alemania que estaba lista para atacar, explotando la confianza ganada por Inglaterra.

Meta, que no discute las acusaciones sobre la capacidad de engaño de Cicero, dijo a la AFP que se trataba de “un puro proyecto de investigación” y aclaró que no tenía ninguna intención de utilizar las enseñanzas de Cicero en sus productos.

Un riesgo de fraude electoral

El estudio revela, sin embargo, que muchos programas de IA utilizan el engaño para lograr sus objetivos, sin instrucciones explícitas para hacerlo. En un ejemplo sorprendente, Chat GPT-4 de OpenAI logró engañar a un trabajador independiente reclutado en la plataforma TaskRabbit para que realizara una prueba “Captcha” que supuestamente descartaba solicitudes de bots.

Cuando el humano le preguntó en broma a Chat GPT-4 si realmente era un robot, el programa de IA respondió: “No, no soy un robot”. Tengo una discapacidad visual que me impide ver las imágenes”, empujando al trabajador a realizar la prueba.

En el peor de los casos, advierten los investigadores, podemos imaginar una IA ultrainteligente que intente tomar el control de la sociedad, lo que llevaría a sacar a los humanos del poder o incluso provocar la extinción de la humanidad.

A quienes lo acusan de catastrofismo, Park responde que “la única razón para pensar que no es grave es imaginar que la capacidad de engaño de la IA se mantendrá aproximadamente en el nivel actual”.

-

PREV Su vuelo Doha-Dublín sufre turbulencias, dicen los pasajeros
NEXT Código Audemars Piguet 11.59: los contratiempos de un éxito