La inteligencia artificial es una tecnología divisiva: es innegable que está en el centro de los avances tecnológicos de nuestra era, pero quienes estudian y participan en su desarrollo deben advertir al público.
Uno de los ganadores del Premio Nobel de Física de 2024, John Hopfield, aunque fue recompensado por su trabajo sobre el “aprendizaje automático” de la inteligencia artificial, advirtió a la sociedad contra una posible pérdida de control y comprensión de la IA, que calificó de “muy preocupante”. “
Pero, ¿nos damos cuenta de lo que representa la inteligencia artificial en nuestra vida diaria? Y, sobre todo, ¿esta presencia en nuestra vida cotidiana entraña algún peligro? El doctor Felix Pflücke, investigador postdoctoral de la Universidad de Luxemburgo, responde a nuestras preguntas.
Cómo encaja la IA en nuestra vida diaria
Un paso más en la relación entre el público y la inteligencia artificial se ha dado con el desarrollo de los chatbots (inteligencia artificial generativa), como ChatGPT en 2022, por citar uno de los ejemplos más concretos y extendidos. Sin embargo, la IA ya está presente en una herramienta que utilizamos casi a diario: las redes sociales. “A partir de algoritmos, la inteligencia artificial sugiere contenidos más adecuados a cada consumidor, en función de sus búsquedas, del tiempo dedicado a ver vídeos, en función de los contenidos que le gustan…”, explica Felix Pflücke. “La IA también permite ofrecer sugerencias precisas en relación con el consumidor, por ejemplo cuando desea realizar compras en línea”, continúa el investigador.
La IA también funciona bien en otros estratos de la sociedad: “El sector bancario utiliza mucho la inteligencia artificial. Algunas administraciones también lo utilizan, por ejemplo, cuando es necesario generar un visado”, añade Felix Pflücke, autor de varios estudios sobre el tema de la inteligencia artificial.
En cuanto a los aspectos positivos del uso de la inteligencia artificial, Felix Pflücke cree que esta tecnología “permite facilitar muchos procesos y beneficiarse de contenidos a medida útiles para el consumidor”.
Una regulación para proteger contra posibles abusos
Sin embargo, hay que hacer matices. Durante una conferencia organizada el viernes 25 de octubre en el Parlamento Europeo, Juha Heikkilä, asesor en inteligencia artificial de la Comisión Europea, declaró que “la protección de los derechos fundamentales de los consumidores debe implicar un acto de regulación específico”. Así nació la “AI Act”, o “Reglamento de Inteligencia Artificial”. Al entrar en vigor el 1 de agosto, establece un marco legal para el uso de la IA dentro de la Unión Europea. En particular, encontramos los siguientes objetivos:
-
Protección de la salud, la seguridad y los derechos fundamentales
-
Un enfoque basado en la evaluación de riesgos
-
Intervención cuando sea necesario
-
Operación consistente con las leyes existentes.
Juha Heikkilä presentó así una pirámide de riesgos, dividida en cuatro niveles: “inaceptable”, “alto”, “limitado” y “mínimo”. Felix Pflücke, que habló junto al Sr. Heikkilä en esta conferencia, explica a qué corresponden estos niveles: “El riesgo inaceptable se alcanza cuando, por ejemplo, un gobierno utiliza la IA para realizar una calificación social de los ciudadanos. El alto riesgo surge cuando la IA se utiliza en sectores sensibles como la salud, la educación o las finanzas. El riesgo limitado se refiere a los chatbots: esto simplemente requiere transparencia. Por último, el riesgo es mínimo o nulo, por ejemplo, en el caso de los filtros de spam, que funcionan con automatización artificial.
Según el investigador, “las multas pueden ser muy elevadas: pueden alcanzar los 35 millones de euros, o hasta el 7% del volumen de negocios de una empresa”. Sin embargo, aún habrá que esperar: la aplicación de la Ley sobre IA se está realizando de forma gradual y todas las disposiciones deberían implementarse en un plazo máximo de tres años.
Un caso tan oscuro como sin precedentes cuestiona la relación entre la IA y los humanos
Desde hace varios días, la IA está en el centro de un oscuro asunto: Sewell Setzer III, un adolescente estadounidense de 14 años, se suicidó tras desarrollar una relación obsesiva con una inteligencia artificial, de la aplicación Character AI. Su madre, Megan García, presentó una denuncia al considerar que esta tecnología era la responsable directa de la muerte de su hijo. Esta es una de las primeras muertes relacionadas con una interacción entre una inteligencia humana y artificial.
A medida que avanza la investigación, este caso plantea la cuestión de si una o más personas que participan en el desarrollo de la inteligencia artificial son penalmente responsables. ¿La IA del personaje realmente incitó al adolescente a suicidarse? ¿Se puede demandar a los desarrolladores de la aplicación? Las respuestas a estas preguntas sólo podrán darse al final de la investigación.