Los empleados de Open AI advierten sobre la “pérdida de control de los sistemas autónomos de IA”

Los empleados de Open AI advierten sobre la “pérdida de control de los sistemas autónomos de IA”
Los empleados de Open AI advierten sobre la “pérdida de control de los sistemas autónomos de IA”
-

La inteligencia artificial (IA) suscita reservas, incluso entre quienes crean estos modelos. 13 personas -incluidos cuatro empleados y siete exempleados de OpenAI, la startup detrás de ChatGPT- publicaron este martes una carta abierta en la que expresan sus preocupaciones sobre los avances en IA. Entre los riesgos citados: “el refuerzo de las desigualdades, la manipulación, la desinformación, llegando incluso a la pérdida de control de los sistemas autónomos de IA, lo que podría conducir a la extinción de la humanidad”.

Si creen que estos riesgos pueden limitarse “con la asistencia de la comunidad científica, las autoridades y el público”, “Las empresas de IA tienen incentivos financieros para escapar de una supervisión eficaz”, estiman, bajo condición de anonimato.

Inteligencia artificial: las grandes dudas de los economistas sobre el empleo y el crecimiento

Poder hablar en público

Por tanto, los autores de la carta piden a las empresas emblemáticas de IA que “apoyar una cultura de crítica abierta al permitir que los empleados actuales y anteriores planteen públicamente inquietudes relacionadas con sus tecnologías”. También fomentan la creación de canales de denuncia anónimos a nivel interno para advertir de determinados riesgos.

Los firmantes lamentan estar actualmente algo amordazados. En efecto, “Cláusulas de confidencialidad exhaustivas les impiden expresar (sus) inquietudes” públicamente, denuncian. Y en la medida en que los problemas que estos programadores quieran plantear no estén relacionados con actividades ilegales, no pueden beneficiarse del estatuto de denunciantes, subrayan.

“Algunos de nosotros tememos represalias (si nos comunicamos abiertamente), dados los precedentes que existen en la industria”, escriben.

Recientemente, los dos líderes del equipo responsable de la seguridad de una potencial superinteligencia artificial abandonaron OpenAI. Uno de ellos, Ilya Sutskever, cofundador de la startup, tenía dudas especiales sobre el rumbo que estaba tomando la empresa. Este equipo también se disolvió a mediados de mayo y sus miembros se integraron en otros grupos de investigación de la empresa.

Preguntado por la AFP, Open AI afirmó ” orgulloso ” poseer lo que él considera sistemas de inteligencia artificial “el más potente y seguro”. “Compartimos la idea de que un debate riguroso es crucial dado el alcance de esta tecnología y continuaremos intercambiando con gobiernos, la sociedad civil y otras entidades de todo el mundo”. añadió un portavoz de OpenAI.

OpenAI (ChatGPT) disuelve el equipo dedicado a los riesgos futuros vinculados a la “súper IA”

Los jugadores de IA quieren lucirse

La seguridad en torno a la IA ha sido un tema candente desde el gran éxito de ChatGPT poco después de su lanzamiento en 2022, lo que provocó una avalancha en el campo de la IA generativa. Sus partidarios lo presentan como un gran avance que mejorará las vidas de ciudadanos y empresas de todo el mundo. Pero los defensores de los derechos humanos y los gobiernos también temen su uso indebido en una amplia gama de situaciones, incluso para manipular a los votantes mediante noticias falsas o fotografías y vídeos “deepfake” de líderes políticos.

En este contexto, muchos exigen que se establezcan estándares internacionales para regir el desarrollo y uso de la IA. Los 27 países miembros de la Unión Europea aprobaron definitivamente a finales de mayo una legislación sin precedentes a nivel mundial para regular los sistemas de IA, con el fin de promover la innovación en Europa limitando al mismo tiempo posibles abusos. Se creará así una oficina de IA formada por expertos, encargada de implementarla. Esta nueva legislación debería aplicarse a partir de 2026.

Lo que en realidad puede resultar muy lejano. Mientras tanto, los actores de la IA se comprometen a garantizar el desarrollo seguro de esta ciencia. Dieciséis de las principales empresas de inteligencia artificial del mundo firmaron un acuerdo a tal efecto el 21 de mayo. Incluyendo OpenAI, Google DeepMind, Anthropic, Microsoft, Amazon, IBM, Meta, Mistral AI e incluso Zhipu.ai.

(Con AFP)

-

NEXT OpenAI lanza GPT crítico para reparar GPT-4