La cara oculta de OpenAI, envuelta en múltiples polémicas

La cara oculta de OpenAI, envuelta en múltiples polémicas
La cara oculta de OpenAI, envuelta en múltiples polémicas
-

Hace seis meses, al formalizar el abrupto e inesperado despido de Sam Altman, reintegrado en su cargo apenas cinco días después, la junta directiva de OpenAI criticó al directivo por no haber sido “siempre honesto”. Sus críticos más fervientes lo acusaron entonces de ser “manipuladora y engañosa”, según comentarios reportados por el Neoyorquino. Y también de no hacer lo suficiente, a pesar de la fachada, para tratar de comprender y limitar los riesgos vinculados al progreso exponencial de la inteligencia artificial. Ahora la historia parece darles la razón. En las últimas semanas, varias polémicas han arrojado luz sobre el lado oculto del diseñador de ChatGPT y su carismático jefe, ahora libre de cualquier voz discordante en la cúpula de la startup.

Equipo disuelto – En particular, se ha ido Ilya Sutskever, el director científico que encarnó un enfoque más cauteloso en el desarrollo de la IA. Dimitió a mediados de mayo, apenas unos días después de la presentación de un nuevo modelo, denominado GPT-4o, con mayores funcionalidades. En el proceso, OpenAI desmanteló el equipo de “súper alineación”, que él codirigió. Se lanzó en el verano de 2023 para garantizar que la tecnología permaneciera bajo control, con la promesa de poder utilizar el 20% de la potencia informática de la startup. Una promesa que no se cumplió. “Cada vez era más difícil llevar a cabo nuestra investigación”, Así lo asegura Jan Leike, segundo jefe del equipo, que también ha dimitido. Y para afirmar que “La seguridad ha quedado relegada a un segundo plano en favor de nuevos productos”.

“No menosprecio” – Al menos otros tres agentes de seguridad han abandonado la empresa. Ante esta ola de salidas, Sam Altman prometió hacer más en el campo. Un doble discurso que recuerda al de la regulación. En su búsqueda de una IA generalizada, capaz de aprender y realizar cualquier tarea, el jefe de OpenAI ya no parece querer molestarse con discursos de protesta. Un deseo también ilustrado por la información del sitio. voz, que reveló que la empresa hizo firmar a sus exempleados cláusulas de “no menosprecio”, prohibiéndoles cualquier crítica bajo pena de perder o no poder revender las acciones gratuitas que formaban parte de su remuneración. Una práctica inusual que Sam Altman afirma haber descubierto e inmediatamente cancelada.

¿Voz imitada? – Otra polémica: la voz utilizada en la presentación de GPT-4o. La actriz Scarlett Johansson cree que sí lo es “extrañamente similar” al de ella. Ahora amenaza con llevar a la empresa emergente a los tribunales, indicando que se había negado a prestar su voz para hacer hablar a la modelo. OpenAI niega haber intentado imitarlo y afirma haber contratado a una actriz varios meses antes de contactar con la estrella. Un argumento desvirtuado por el mensaje “su” publicado por Sam Altman, en referencia a la película del mismo nombre en la que Scarlett Johansson interpreta a una IA. Los precedentes de la start-up no hablan a su favor. Supuestamente utilizó dos bases de datos, ya eliminadas, que contenían cientos de miles de libros para entrenar su modelo GPT. O incluso vídeos de YouTube para su herramienta de creación de vídeos Sora.

Para ir más lejos:
– OpenAI abandona el desarrollo de su último modelo de lenguaje
– El doble discurso de OpenAI sobre la regulación de la IA


-

NEXT Valady. Jean Couet-Guichot y Gaya Wisniewski, dos artistas residentes en la región