Las predicciones de la IA están todas equivocadas (especialmente la tuya)

Las predicciones de la IA están todas equivocadas (especialmente la tuya)
Las predicciones de la IA están todas equivocadas (especialmente la tuya)
-

Es la próxima bomba nuclear. Ella nos robará nuestros trabajos. Amenaza la democracia y la privacidad. Esto colapsará las finanzas. O: nos hará sobrehumanos. Curará el cáncer. Hará a todos más ricos. Todas estas predicciones se han hecho sobre la inteligencia artificial. ¿Quién dice la verdad?


Publicado a la 1:45 am

Actualizado a las 8:00 am

Probablemente nadie. Como la mayoría de las exclamaciones entusiastas o catastróficas sobre una nueva tecnología. La energía nuclear no dio origen a la sociedad del hidrógeno ni provocó la destrucción mutua y segura de las superpotencias planetarias. Las criptomonedas no han derribado el sistema bancario global ni han arruinado a todos sus más fervientes seguidores.

Estos escenarios extremos son problemáticos cuando distorsionan nuestra percepción de la realidad. Por ejemplo: incluso sabiendo que tienen tres veces menos probabilidades de sufrir un accidente en un coche autónomo, cuatro veces menos probabilidades de resultar heridos y veinte veces menos probabilidades de ser la causa de un accidente, dos tercios de la población se negarían a abordar un taxi autónomo si se presentaba la oportunidad.

Para qué ? Tememos el peor de los casos. Los coches autónomos, una forma de inteligencia artificial (IA), no son perfectos. Pero hace que los accidentes sean menos probables.

¿Cómo predecir el futuro?

A menudo nos equivocamos al anticipar escenarios extremos. Expertos también. Quizás más que los demás.

“¿Cómo predecir el futuro? Muchos expertos lo intentan, pero con el tiempo ves que no son mejores que otros. Para qué ? Tienden a exagerar los extremos, tanto los riesgos como los beneficios. »

Es Hugo Larochelle quien lo dice. No cae de las nubes. Es uno de los mayores especialistas en IA de Canadá.1. Es profesor asociado en la Universidad de Montreal y ocupa una cátedra de IA en el Instituto Canadiense de Investigación Avanzada (CIFAR). También es investigador de Google DeepMind y está asociado con Mila, el instituto de investigación de IA de Montreal.

Además de los números y los algoritmos, a Hugo Larochelle también le gusta la lectura. Toma prestada su afirmación sobre los expertos que hacen predicciones incorrectas de Philip E. Tetlock y Dan Gardner. Los dos autores publicaron un libro en 2015 titulado Superforecaster: El arte y la ciencia de la predicciónque informa sobre un proyecto de investigación creado en 2011 por tres profesores de la Universidad de Pensilvania, incluido el propio Philip E. Tetlock, llamado Good Judgment Project.

Este proyecto, por así decirlo, ha demostrado mediante herramientas científicas que “la sabiduría de las multitudes” suele ser superior a la de los expertos. O al menos, que un grupo de personas que no necesariamente son expertos en un tema muy concreto podrían la mayoría de las veces hacer mejores predicciones que los expertos en el tema en cuestión.

type="image/webp"> type="image/jpeg">>>

FOTO ALAIN ROBERGE, ARCHIVOS DE LA PRESSE

El experto en IA Hugo Larochelle

Esto se parece un poco a lo que estamos viendo actualmente en la inteligencia artificial. Los expertos tienen puntos de vista extremadamente opuestos y, como son expertos, les resulta difícil cambiar de opinión y estar de acuerdo entre sí.

Hugo Larochelle, experto en IA

¿Panacea o apocalipsis?

Hace un año y medio, se publicó una carta abierta pidiendo una pausa en el desarrollo de ciertas formas de inteligencia artificial por parte de los gigantes tecnológicos.2. Esta carta fue firmada por más de mil expertos en tecnología de todos los ámbitos de la vida, incluido el gran jefe de Tesla, Elon Musk, y el investigador de Montreal, Yoshua Bengio.

La rápida, repentina y “fuera de control” aparición de tecnologías como la IA generativa que impulsa ChatGPT de OpenAI “representa un profundo riesgo para la sociedad y la humanidad”, advirtieron. Compararon el riesgo de la IA con el de la energía nuclear o una pandemia, y temieron su impacto en todos los niveles. En el contexto de la campaña presidencial en Estados Unidos, algunos esperaban ver una avalancha de vídeos falsos y falsedades generadas por esta IA en beneficio de los estados opuestos al Tío Sam.

Al mismo tiempo, la empresa financiera Goldman Sachs anunció que, según ella, 300 millones de puestos de trabajo y un porcentaje significativo del PIB mundial estaban amenazados por la IA.

Un año y medio después, los escenarios de desastre no se han producido. Todavía no hemos curado el cáncer. Pero la IA está impulsando cambios en la vida cotidiana de millones de trabajadores en los sectores de la salud, las finanzas y otros sectores.

En las redes sociales circulan fotografías falsas de Donald Trump y Kamala Harris. Hay que tomarlo en serio, pero no es la masacre prevista.

Vista en su conjunto, la IA parece ser una entidad enorme con mecanismos muy opacos que derribarán todo a su paso. La realidad es que quizás sea más pequeño que eso, dice Hugo Larochelle. “Es más fácil entender la IA si la vemos como un paquete de nuevas herramientas”, ilustra. Por ejemplo, las IA generativas no son entidades inteligentes, sino que crean contenido simulado. »

Al obligar a estas IA a “firmar” sus creaciones, sabremos qué vídeos y qué fotos son falsos, explica Larochelle. “Y ya tenemos leyes y normas para muchas otras aplicaciones de IA, para protegernos de los riesgos. »

En otras palabras, al tomarlo una cucharada a la vez, la montaña de repente parece más pequeña… y las predicciones extremistas de repente parecen más locas que cualquier otra cosa.

1. Lea “Entrevista a Hugo Larochelle de Google DeepMind: Más inteligencia para más soluciones”

2. Lea “Inteligencia artificial: Musk, Bengio y mil expertos piden un descanso de seis meses”

-

PREV esto es lo que cambia en tu factura de luz
NEXT El Consejo de Estado quiere ayudar a TransN