Nueva aventura para Ilya Sutskever con el lanzamiento de “Safe Superintelligence Inc”

Nueva aventura para Ilya Sutskever con el lanzamiento de “Safe Superintelligence Inc”
Nueva aventura para Ilya Sutskever con el lanzamiento de “Safe Superintelligence Inc”
-

Fue en X donde Ilya Sutskever, uno de los cofundadores de OpenAI, anunció el lanzamiento de “Safe Superintelligence Inc” tal como lo hizo para anunciar su salida de OpenAI hace un mes. Se dijo a sí mismo “Estoy muy entusiasmado con lo que viene a continuación: un proyecto que es muy significativo para mí y del que compartiré detalles a su debido tiempo”. Por lo tanto, este proyecto consistía en crear una startup dedicada al desarrollo de un AGI seguro, lo que acaba de hacer con Daniel Gross y Daniel Levy.

Ilya Sutskever se desempeñó como científico jefe en OpenAI y codirigió con Jan Leike el equipo de superalineación establecido por la startup en julio de 2023 para minimizar los riesgos potenciales de que la IA supere la inteligencia humana.

Ambos creen que la inteligencia artificial general podría desarrollarse a finales de esta década, pero advirtieron:

“La superinteligencia será la tecnología de mayor impacto que la humanidad haya inventado jamás y podría ayudarnos a resolver muchos de los problemas más importantes del mundo. Pero el vasto poder de la superinteligencia también podría ser muy peligroso y conducir a la pérdida de poder de la humanidad o incluso a su extinción.

Ilya Sutskever fue uno de los cuatro miembros de la junta directiva que destituyeron a Sam Altman como director ejecutivo en noviembre pasado. Aunque ambos fueron políticamente correctos en sus comentarios sobre la renuncia de Ilya Sutskever, estaba claro que los dos hombres ya no tenían la misma visión para el futuro de OpenAI. Jan Leike, que abandonó inmediatamente la startup, nos da su opinión:

“Construir máquinas más inteligentes que los humanos es un negocio intrínsecamente peligroso… Pero en los últimos años, la cultura y los procesos de seguridad han pasado a un segundo plano frente a los productos brillantes”.

OpenAI también disolvió el equipo de superalineación tras la salida de los dos codirectores.

Desarrollar inteligencia artificial general segura

OpenAI, cuyo objetivo es desarrollar una IA que sea capaz de adaptarse y sobresalir en una amplia gama de campos, de manera similar o incluso superior a la inteligencia humana, es decir, una AGI, se encuentra hoy frente a un serio competidor. : Safe Superintelligence Inc o SSI.

Los tres cofundadores declaran en su comunicado de prensa sobre X:

“La superinteligencia está a nuestro alcance. La construcción de superinteligencia segura (SSI) es el problema técnico más importante de nuestro tiempo. Lanzamos el primer laboratorio SSI del mundo, con un objetivo y un producto: superinteligencia segura. Se llama Safe Superintelligence Inc. SSI es nuestra misión, nuestro nombre y toda nuestra hoja de ruta de producto, porque es nuestro único propósito. Nuestro equipo, nuestros inversores y nuestro modelo de negocio están todos alineados para lograr SSI”.

Añadiendo:

“Planeamos mejorar las capacidades lo más rápido posible y al mismo tiempo garantizar que nuestra seguridad siga siendo siempre una prioridad”.

La start-up americana SSI tiene oficinas en Palo Alto y Tel Aviv, “donde tenemos un arraigo profundo y la capacidad de reclutar el mejor talento técnico”, especifica el equipo fundador. Además de Ilya Sutskever, lo forman Daniel Levy, investigador e ingeniero en IA que también trabajó en OpenAI y Daniel Gross, emprendedor e inversor de origen israelí, cofundador de Cue, empresa adquirida por Apple, donde Luego trabajó en proyectos relacionados con la IA y ex socio de la aceleradora de startups Y Combinator.

SSI está contratando:

“Estamos reuniendo un equipo pequeño y experto de los mejores ingenieros e investigadores del mundo dedicados a centrarse en SSI y nada más”.

-

PREV ¿Qué es este descubrimiento inesperado que permitirá comprender mejor el ciclo del agua en Marte?
NEXT Assassin’s Creed Shadows revela su jugabilidad en vídeo: ¿la combinación perfecta entre acción e infiltración?