Desde redes neuronales artificiales hasta grandes modelos de lenguaje, la computadora del futuro aprenderá “con el ejemplo”

Desde redes neuronales artificiales hasta grandes modelos de lenguaje, la computadora del futuro aprenderá “con el ejemplo”
Desde redes neuronales artificiales hasta grandes modelos de lenguaje, la computadora del futuro aprenderá “con el ejemplo”
-

Reconocimiento facial, traducción automática, búsqueda de tumores: tantos avances posibles gracias a las redes de aprendizaje artificial, por las que John Hopfield y Geoffrey Hinton recibieron a principios de octubre el Premio Nobel de Física 2024. Gracias a su trabajo pionero, el ordenador ya no existe. simplemente aplica una serie de instrucciones,

aprende “con el ejemplo”.

La memoria asociativa de Hopfield.

El principio del “aprendizaje automático” se inspira en el funcionamiento del cerebro humano y, más concretamente, en las redes neuronales. En los humanos, el aprendizaje fortalece las conexiones entre algunas neuronas y debilita las de otras. Que, por ejemplo, dibuja una especie de mapa de conexiones para una imagen determinada. El físico John Hopfield transfirió esta operación en 1982 a una red artificial que lleva su nombre.

En este sentido, la red opera “con un comportamiento que tiende naturalmente hacia el mínimo de energía”, explica Damien Querlioz, investigador del CNRS especializado en sistemas de procesamiento de información en el Centro de Nanociencias y Nanotecnologías.

Hopfield comparó el almacenamiento de un patrón en la memoria de la red con el camino más eficiente desde el punto de vista energético de una canica rodando a través de un paisaje de picos y valles. Cuando la red procese un patrón cercano al patrón guardado, el recorrido de la bola se realizará con un gasto de energía del mismo orden, llevándola al mismo lugar.

“Utilizando técnicas de física estadística, demostró cómo un algoritmo simple podía almacenar ciertos patrones en la memoria, que podían ser encontrados más tarde”, explica Francis Bach, director del laboratorio de aprendizaje estadístico SIERRA de la Escuela Superior Normal de París.

El aprendizaje profundo de Hinton

Geoffrey Hinton construyó su obra sobre los cimientos sentados por Hopfield. “Demostró que podemos aprender de forma eficaz si disponemos de redes neuronales con varias capas”, explica Francis Bach. En otras palabras: “Cuantas más capas haya, más complejo puede ser el comportamiento, y cuanto más complejo pueda ser el comportamiento, más fácil será aprender efectivamente el comportamiento deseado. »

Desde los años 80, el investigador no ha dejado de “proponer nuevos algoritmos de aprendizaje para aprender comportamientos cada vez más complejos”, añade. A partir de finales de los años 1980, investigadores como el francés Yann Le Cun trabajarán “en el reconocimiento de caracteres, más sencillo que las imágenes naturales”, afirma.

Datos y potencia informática

Luego, la disciplina experimentó un relativo desinterés, hasta que en la década de 2010 para que sus descubrimientos funcionaran se necesitaba potencia informática, con ordenadores mucho más potentes y, sobre todo, enormes cantidades de datos, que son “ingredientes indispensables para las redes neuronales”, explica. Señor Querlioz.

Las máquinas sólo pueden aprender bien ingiriendo tantos “ejemplos de inteligencia como queramos”.

El comité del Nobel recuerda que, en su artículo publicado en 1982, Hopfield utilizó una red muy simple con “menos de 500 parámetros a controlar”, mientras que los gigantescos modelos lingüísticos actuales contienen “un billón”.

¿Para qué es?

La gran ola de aprendizaje profundo de la década de 2010 ha “revolucionado todo lo que implica el procesamiento de imágenes y el procesamiento del lenguaje natural”, señala Francis Bach.

Damien Querlioz cita “asistentes de voz, reconocimiento facial” o software de creación de imágenes como DALL-E.

Pero estos avances van mucho más allá de lo que percibe el público en general. “Lo que te permite distinguir a tus hijos en el software de tu teléfono también te permite reconocer un tumor”, señala Francis Bach.

También permite analizar y clasificar cantidades fenomenales de datos registrados en institutos de investigación de física fundamental o clasificar las imágenes y espectros recopilados en la observación de estrellas.

Pierre CELERIER y

Benito KING/AFP

Reconocimiento facial, traducción automática, búsqueda de tumores: tantos avances posibles gracias a las redes de aprendizaje artificial, por las que John Hopfield y Geoffrey Hinton recibieron a principios de octubre el Premio Nobel de Física 2024. Gracias a su trabajo pionero, el ordenador ya no existe. solo aplica una serie de instrucciones, aprende…

-

PREV El Pentágono multiplica por diez la demanda de telecomunicaciones desde órbita baja
NEXT El favorito de los internautas para estos 3 smartphones por menos de 300 euros