¿Es la IA capaz de interpretar lo que se le pide?

¿Es la IA capaz de interpretar lo que se le pide?
¿Es la IA capaz de interpretar lo que se le pide?
-

La noción de interpretación está cada vez más presente en el mundo de la inteligencia artificial. Para los humanos, implica interpretar algoritmos que son difíciles de explicar matemáticamente. Para la máquina, el desafío es interpretar los datos para sacar conclusiones. Y, recientemente, tiene que interpretar una breve instrucción en lenguaje natural: este es el principio de funcionamiento de ChatGPT y de la última innovación de OpenAI, su modelo GPT-4o que interactúa por voz con una fluidez inquietante. Podemos hablar así de un verdadero punto de inflexión interpretativo en la IA.

Sin embargo, el arte de la interpretación se conoce desde hace siglos con el nombre de hermenéutica. Se aplicó por primera vez a la lectura de poetas o textos sagrados antes de evolucionar hacia un movimiento filosófico para significar que la interpretación es la base de la comprensión, incluso que representa la actividad necesaria del ser. De hecho, nuestro acceso al mundo siempre está influenciado por ciertos tonos que no son neutrales, sino que están imbuidos de una carga cultural. Sin embargo, ¿la semejanza se limita al simple uso del término interpretación? En otras palabras, ¿la IA hace hermenéutica? ¿Tenemos que hacerlo para entenderlo? ¿O son ambas cosas al mismo tiempo?

Dialogar directamente con la máquina en nuestro idioma.

El acontecimiento que completará el punto de inflexión interpretativo en la IA es sin duda la puesta en línea de ChatGPT, en noviembre de 2022. La innovación esencial de los grandes modelos de lenguaje, como el suyo, es que se exige a la máquina que interprete las instrucciones humanas más que nunca. antes. El internauta ingresa un “mensaje” para preguntar qué quiere, luego el sistema le brinda una respuesta, ya sea un texto, una imagen o algo dicho en voz alta. Ya no nos dirigimos a la máquina en lenguaje informático, en código, sino en lenguaje natural o en los llamados datos no estructurados.

Por supuesto, las “alucinaciones” (errores de las máquinas en forma de declaraciones verosímiles pero delirantes) son innumerables y los resultados aún pueden mejorarse, pero algo está sucediendo. La interpretación, esta actividad que durante mucho tiempo creímos reservada a los humanos, hoy está asumida por las herramientas digitales.

En verdad, hace mucho tiempo que la informática se convirtió en objeto de interpretación, desde que la ciencia empezó a utilizar cada vez más instrumentos y técnicas de imagen digitales (médicas, nanométricas, espectroscópicas, etc.). El filósofo americano Don Ihde, fallecido este año, lo advirtió muy pronto, por primera vez en su obra. La tecnología y el mundo de la vida (1990).

Desafortunadamente, fue justo después de su muerte cuando su relevancia pareció saltar a la vista. “Toda imaginería requiere interpretación”, escribió en 2021. Continúa explicando que la imaginería es “tecnológica en su incorporación” porque requiere el uso de una herramienta sofisticada para producirla, hacer aparecer la imagen y por tanto el objeto estudiado. Habla así de un “cambio del siglo XX”.mi–XXImi siglos hacia las técnicas de imagen […] quienes transformaron las prácticas científicas y la producción de evidencia […] Estas tecnologías han ayudado a reforzar la necesidad de interpretación”.

Para Ihde, lo que caracteriza esta necesidad es ya no estar en relación directa con las cosas. Debemos utilizar instrumentos o imágenes, pero de tal forma que construyamos el objeto a través del medio que nos da acceso a él, como la fotografía o el instrumento de medición científico. Nuestra comprensión del objeto es entonces inseparable del medio sin el cual no podríamos conocerlo. La famosa fotografía de un agujero negro (2019), que en realidad no es una fotografía, sino una construcción basada en datos de ocho radiotelescopios diferentes, ofrece una de las mejores ilustraciones.

El regreso de la ambigüedad

Según Ihde, el giro interpretativo que ha emprendido la ciencia tiende a cerrar la brecha entre “explicación” y “comprensión”. Una cosa es explicar cómo se construyó un castillo, con qué materiales o con qué técnicas. Otra es comprender el motivo de su existencia, por qué sus constructores decidieron erigirlo en un lugar determinado en un momento determinado. En este último caso (el de la comprensión), procede apelar a la interpretación, respecto de elementos históricos. Sin embargo, la ciencia se inclina cada vez más hacia la interpretación para no limitarse a explicar los objetos que estudia. Esto marca un acercamiento entre las ciencias y las humanidades (literatura, filosofía, historia, etc.).

La IA acentúa aún más esta conexión. Ya porque se pide a la máquina que interprete lo que le damos, pero también porque los humanos debemos interpretar cada vez más los resultados de la máquina. La ambigüedad está ocupando un lugar cada vez mayor en el mundo de la informática que, heredera de las matemáticas, se creía protegida de ella. Y la ambigüedad también significa interpretación. Los sistemas de inteligencia artificial más populares de la actualidad, en particular el análisis de imágenes o la generación de texto, se basan en redes neuronales artificiales. Sin embargo, esta técnica de aprendizaje denominada “profunda” no es fácil de comprender, ni siquiera para los expertos. Lo cual es muy perjudicial cuando mucho tiempo después nos damos cuenta de que la máquina está reproduciendo un sesgo discriminatorio.

Sin embargo, la AI Act, un reglamento sobre IA adoptado recientemente por la Unión Europea, prevé que los sistemas llamados de “alto riesgo” estén sujetos a análisis en profundidad (análisis cuya naturaleza aún está por definir). Pero es imposible determinar exactamente cuáles son las razones por las que el software da tal o cual resultado, sólo podemos “interpretar” su funcionamiento. Si hoy existen técnicas de “explicabilidad” para estimar el peso de cada variable, es sin embargo el término “interpretabilidad” el que debería preferirse, porque sólo nos ofrecen estimaciones, pero no una explicación clara y distinta, la que las matemáticas requieren para eliminar. cualquier ambigüedad.

La IA incluso nos invita a ir más allá de las interpretaciones cuantitativas, ya que es importante comprender a la luz de la historia cómo los modelos de IA construyen sus interpretaciones, a veces sesgadas o discriminatorias: “Incluso si alguien lograra convencernos de que a veces los algoritmos simplemente escupen tonterías, la estructura de estas tonterías tenderán vagamente a la estructura de prejuicios históricos”, subraya el investigador y figura de la ética de la IA Timnit Gebru. Si las técnicas de interpretabilidad serán útiles, también será necesario analizar las producciones de la IA de manera más sensible, considerando que también son fruto de una historia y una sociedad determinadas.

Interpretar para encontrar significado

Si la IA es realmente capaz de interpretar nuestras palabras hasta cierto punto para respondernos, la comprensión es un fenómeno que parece ir más allá. Comprender algo requiere cierta cantidad de imaginación para imaginar el objeto de nuestro conocimiento en sus múltiples y nuevas configuraciones, para aprehenderlo de una manera que rara vez es formal, pero que implica sentimiento. Algunos alumnos recitan admirablemente su lección sin entender nada, porque les falta el sentimiento necesario para exclamar: “¡Entendí!”. » Un sentimiento casi imposible de describir, pero ¿alguna vez te has maravillado de haber comprendido de repente algo que se te resistía? Entonces, sabéis bien qué es este sentimiento, este acontecimiento sensible de comprensión.

Y este sentimiento es fértil, porque puede producir interpretación: se nos presentan nuevos vínculos, nuevas configuraciones, nuevos horizontes que llaman a nuestra imaginación. A veces decimos: “eso tiene sentido” y no es casualidad. Esto tiene sentido, literalmente, ya que creo que esta interpretación es correcta. Este es entonces un aspecto de la interpretación que separa nuestra comprensión de la de la máquina, ya que los sistemas informáticos son insensibles. La imaginación necesaria para este arte nunca será más que una “e-maginación” para ellos, como escribe el filósofo Alberto Romele (Hermenéutica Digital2020).

La interpretación producida por la IA generativa difiere así de la nuestra en que es incapaz de comprender nada. Sin embargo, representa un aspecto decisivo del giro interpretativo que se está desarrollando de diferentes maneras en el mundo de la ciencia. La máquina interpreta nuestras peticiones en lenguaje natural, y nosotros interpretamos sus resultados o su funcionamiento. La IA actualiza la hermenéutica hasta el punto de que ya no deberíamos hablar de inteligencia artificial, sino de interpretación artificial.


Para ir más lejos : La Inteligencia Artificial, sus sesgos y los nuestros de Rémy Demichelis, éditions du Faubourg, que se publicará el 12 de junio de 2024.

-

PREV Primer duelo televisado entre Joe Biden y Donald Trump
NEXT Normativa de Quebec sobre señalización comercial | “Somos francófonos y tenemos que demostrarlo”