DayFR Spanish

los padres de la IA se reúnen urgentemente

-

¡Es pánico! Un grupo de especialistas, formado por los dos padres fundadores de la inteligencia artificial, se reunieron de emergencia para hablar sobre los riesgos catastróficos de la IA.

No es la primera vez que escuchamos a los especialistas hablar de los peligros de la inteligencia artificial. Pero esta vez son los padres de la inteligencia artificial los que están preocupados por los “riesgos catastróficos” de esta tecnología. Para evitar que la IA escape al control humano, estos científicos proponen un marco regulatorio, dotado de modelos inscritos en un registro.

¿Los padres de la IA piensan que la IA podría superar la inteligencia humana?

Los especialistas en el campo de la inteligencia artificial han opiniones diferentes sobre los riesgos inherentes a esta tecnología. Mientras que algunos piensan que la IA es sólo una herramienta relativamente inofensiva, cuya única misión es ayudar a los humanos, otros temen que pueda quedar más allá del control humano.

Entre quienes están preocupados por las consecuencias negativas de esta tecnología se encuentran: Geoffrey Hinton y Yoshua Bengio. Estos dos especialistas son considerados Padres fundadores de la inteligencia artificial.

Recuerda que tienen recibió el Premio Turing en 2018 por sus acciones sobre aprendizaje profundo, con el francés Yann LeCun. No hace mucho, estos dos hombres participó en el tercer encuentro del Idais (Diálogos internacionales sobre seguridad de la IA) que tuvo lugar en Venecia. Cabe destacar que este es uno de los grandes eventos que reúne a diferentes especialistas del sector.

Este grupo de especialistas publicó un comunicado de prensa que habla principalmente de la rRiesgos relacionados con la llegada de una IA capaz de superar la inteligencia humana.. Esto podría suceder inmediatamente o, a más tardar, dentro de unas pocas décadas.

Un marco regulatorio que ofrece tres soluciones

El comunicado de prensa, firmado también por Zhang Ya-Qin, ex presidente del gigante chino Baidu, y Stuart Russell, propone tres propuestas que permiten evitar escenarios catastróficos.

Para empezar, Estos expertos en IA sugieren grabar modelos de IA. La comunidad internacional debería establecer acuerdos e instituciones para registrar estos modelos y reportar cualquier incidente.

A continuación, todos los desarrolladores de IA deben poder demostrar la seguridad de sus modelos si sus habilidades alguna vez exceden ciertos umbrales. Finalmente será necesario emprender un investigación global independiente sobre la seguridad de la IA. Este estudio debería permitir examinar la validez de las afirmaciones de seguridad realizadas por los desarrolladores.

Tenga en cuenta, sin embargo, que el comunicado de prensa no especifica qué podría constituir un riesgo o qué umbrales deberían establecerse.

Recuerde que esta no es la primera vez que Geoffrey Hinton habla sobre este tema. En 2003, él renunció a google poder compartir libremente sus temores sobre el desarrollo de la inteligencia artificial.

Y tú, ¿cuál es tu opinión? ¿Crees que la IA realmente podría superar la inteligencia humana? No dudes en escribir en los comentarios.

Comparte el artículo:


Facebook


LinkedIn

Nuestro blog está impulsado por lectores. Cuando compra a través de enlaces en nuestro sitio, podemos ganar una comisión de afiliado.

Related News :