Empleados actuales y anteriores de OpenAI y Google DeepMind advierten sobre los riesgos de la IA – 04/06/2024 a las 17:10 horas

-

((Traducción automática de Reuters, consulte el descargo de responsabilidad https://bit.ly/rtrsauto))

Un grupo de empleados y ex empleados de empresas de inteligencia artificial (IA), incluida OpenAI MSFT.O, respaldada por Microsoft, y Google DeepMind GOOGL.O, respaldada por Alphabet, compartieron sus preocupaciones sobre los riesgos que plantea la tecnología emergente.

Una carta abierta escrita por un grupo de 11 empleados actuales y anteriores de OpenAI y un empleado actual y otro anterior de Google DeepMind decía que las motivaciones financieras de las empresas de IA impedían una supervisión efectiva.

“No creemos que las estructuras de gobierno corporativo adaptadas sean suficientes para cambiar esto”, añade la carta.

La carta también advierte sobre los riesgos de la IA no regulada, que van desde la difusión de información errónea hasta la pérdida de sistemas de IA independientes y el empeoramiento de las desigualdades existentes, lo que podría conducir a “la extinción de la humanidad”.

Los investigadores han encontrado ejemplos de generadores de imágenes de empresas como OpenAI y Microsoft que producen fotografías con información errónea relacionada con la votación, a pesar de las políticas que prohíben este tipo de contenido.

Las empresas de IA tienen “obligaciones débiles” de compartir información con los gobiernos sobre las capacidades y limitaciones de sus sistemas, decía la carta, añadiendo que no se puede contar con que estas empresas compartan esta información voluntariamente.

La carta abierta es la última en plantear cuestiones de seguridad sobre las tecnologías de IA generativa, que pueden producir de forma rápida y económica textos, imágenes y sonidos similares a los humanos.

El grupo instó a las empresas de inteligencia artificial a facilitar el establecimiento de un proceso para que los empleados actuales y anteriores planteen preocupaciones sobre riesgos y no apliquen acuerdos de confidencialidad que prohíban las críticas.

Además, la empresa dirigida por Sam Altman afirmó el jueves que había desbaratado cinco operaciones encubiertas de influencia destinadas a utilizar sus modelos de inteligencia artificial para “actividades engañosas” en Internet.

-

NEXT OpenAI lanza GPT crítico para reparar GPT-4