Los gigantes de la IA deben aceptar que sus empleados expresen dudas (empleados de OpenAI)

Los gigantes de la IA deben aceptar que sus empleados expresen dudas (empleados de OpenAI)
Los gigantes de la IA deben aceptar que sus empleados expresen dudas (empleados de OpenAI)
-

Los empleados de OpenAI quieren hacer críticas públicas

Publicado hoy a las 02:14 Actualizado hace 3 horas

Suscríbete ahora y disfruta de la función de reproducción de audio.

BotTalk

Las empresas más avanzadas en el campo de la inteligencia artificial (IA) deben aceptar que sus empleados analicen públicamente sus actividades y los riesgos relacionados con la IA, exigieron varios empleados de OpenAI bajo condición de anonimato, así como antiguos alumnos de la startup. .

“En la medida en que estas empresas no están sujetas a la supervisión de las autoridades, los empleados actuales o anteriores se encuentran entre las pocas personas que pueden exigirles responsabilidades”, explican los 13 firmantes de la carta abierta, publicada el martes. Entre ellos se encuentran cuatro empleados de OpenAI y siete ex alumnos.

Estos firmantes lamentan que “las cláusulas de confidencialidad exhaustivas les impidan expresar (sus) preocupaciones” públicamente. En la medida en que los problemas que estos programadores quieran plantear no estén relacionados con actividades ilegales, no pueden beneficiarse del estatuto de denunciantes, subrayan. “Algunos de nosotros tememos represalias (en caso de que nos comuniquemos abiertamente), dados los precedentes que existen en la industria”, según la carta.

Entre los riesgos citados, “el refuerzo de las desigualdades, la manipulación, la desinformación, llegando incluso a la pérdida de control de los sistemas autónomos de IA, lo que podría conducir a la extinción de la humanidad”.

“Cultura de la crítica abierta”

Si creen que estos riesgos pueden limitarse “con la ayuda de la comunidad científica, las autoridades y el público”, “las empresas de IA tienen un incentivo financiero para escapar de una supervisión eficaz”.

Por lo tanto, los autores de la carta piden a las principales empresas de inteligencia artificial que “apoyen una cultura de crítica abierta permitiendo a sus empleados actuales y anteriores plantear públicamente inquietudes relacionadas con sus tecnologías”. También fomentan la creación de canales de denuncia anónimos a nivel interno para advertir de determinados riesgos.

Consultada por la AFP, Open AI se declaró “orgullosa” de disponer de los que considera los sistemas de inteligencia artificial “más potentes y seguros”. “Compartimos la idea de que un debate riguroso es crucial dado el alcance de esta tecnología y continuaremos intercambiando con gobiernos, la sociedad civil y otras entidades de todo el mundo”, añadió un portavoz de ‘OpenAI.

Boletin informativo

“Últimas noticias”

¿Quieres estar al tanto de las noticias? “24 Heures” te ofrece dos citas al día, directamente en tu casilla de correo electrónico. Para que no te pierdas nada de lo que sucede en tu cantón, en Suiza o en el mundo.Conectarse

AFP

¿Encontró un error? Por favor infórmenos.

0 comentarios

-

PREV Carlos Alcaraz continúa su balada sin nota en falso
NEXT Rail Pass: lo que necesita saber para viajar sin límites en los trenes SNCF