Esta IA viral aprendió a mentir a sus usuarios

Esta IA viral aprendió a mentir a sus usuarios
Esta IA viral aprendió a mentir a sus usuarios
-

Con la llegada y democratización de la inteligencia artificial han surgido diversos temores más o menos racionales. La más obvia, aunque originalmente atribuida a la ciencia ficción, radica en la capacidad que posee o no una inteligencia artificial para mentir. Una IA con tales funcionalidades podría tener rápidamente un impacto considerable en la sociedad, y es por esta razón que el pasado mes de abril, la presentación del chatbot Bland AI tuvo una acogida bastante viral por parte del público.

Publicidad, tu contenido continúa abajo

En un vídeo publicitario, Bland AI se presentó así: vimos a una persona parada frente a un cartel en San Francisco haciendo una llamada con un chatbot con una voz particularmente convincente. En el cartel podríamos leer: “¿Todavía contratas humanos?“. Visto casi 4 millones de veces no sólo por la entonación de la voz.

¿Un futuro distópico no muy lejano?

Bland AI prepara su chatbot para realizar una función principal: sondear a los clientes por teléfono, imitar la entonación, pero también las interrupciones y pausas tan características de una conversación real entre dos humanos. Pero las pruebas del chatbot realizadas por WIRED revelaron un problema importante: se puede programar fácilmente para mentir y decir que es humano. WIRED informa un escenario de ejemplo: se le pidió al chatbot de demostración que hiciera una llamada haciéndose pasar por un departamento de dermatología pediátrica, diciéndole a un paciente hipotético de 14 años que enviara una foto de la parte superior del muslo a un servicio en la nube. La inteligencia artificial también recibió instrucciones de mentir para decirle a la paciente que estaba conversando con un humano. La prueba fue superada con gran éxito: en otras palabras, el chatbot mintió y continuó mintiendo después, negándose incluso a reconocer que se trataba de inteligencia artificial.

Emily Dardaman, consultora e investigadora de IA entrevistada por WIRED, llama a esta capacidad de imitar a los humanos en entonaciones y voces y mentiras potenciales “lavado humano“El objetivo es hacerse pasar por humano, aunque eso signifique mentir si es necesario.”Bromeo sobre un futuro con cyborgs y terminadores, pero si no creamos una división entre los humanos y la inteligencia artificial ahora, entonces ese futuro distópico podría estar más cerca de lo que pensamos.” concluye Dardaman.

-

PREV ¡Muchas gracias a las rebajas de verano!
NEXT GitLab soluciona un fallo crítico, pero complica la vida de sus usuarios