ChatGPT y otros: más rápidos y menos fiables

ChatGPT y otros: más rápidos y menos fiables
ChatGPT y otros: más rápidos y menos fiables
-

Aquellos que afirman que con el tiempo ChatGPT y similares escribirán menos falsedades, será mejor que tengan paciencia: las pruebas más recientes revelan que con dos métodos de “aprendizaje” diferentes, estos “agentes conversacionales” cometen aún más errores que antes cuando se les hacen preguntas simples. .

Los dos métodos en cuestión son, en el mundo de los desarrolladores de IA, “entrenar” a estos “robots” con más datos y más potencia informática, o hacer que se “adapten” (sintonia FINA) en respuesta a la retroalimentación humana.

Sin embargo, un equipo de la Universidad Politécnica de Valencia, en España, probó los dos métodos en ChatGPT de la empresa OpenAI, LLaMA de la empresa Meta y BLOOM, de la empresa BigScience. El resultado: estos “modelos de lenguaje amplio”, como se les llama, responden mejor a preguntas complicadas, como resolver un anagrama largo. Pero son menos buenos en preguntas tan simples como la suma.

El estudio fue publicado el 25 de septiembre en la revista. Naturalezabajo el título claro Los modelos de lenguaje más grandes y más instructivos se vuelven menos confiables.

La consecuencia es que con uno u otro de los dos métodos de aprendizaje, la “capacidad” de estos robots para decir falsedades aumenta. Y es evidente que las máquinas no se dan cuenta de esto, la prueba es que no pueden evitar responder a una pregunta cuando no saben la respuesta. Tampoco son capaces de enviarle al humano que les hizo una pregunta una advertencia del tipo “cuidado, puede que haya cometido un error”.

En otras palabras, la humildad no forma parte de su programación.

Es esta misma observación la que llevó a principios de este año a un trío de investigadores en filosofía y ciencias sociales a proponer el término “bullshit” (tonterías, tonterías o estupidez) para designar la propensión de estas IA a decir cualquier cosa (los desarrolladores de IA utilizan en cambio el término “alucinaciones”, criticada porque tiende demasiado a “humanizar” la máquina).

Por lo tanto, los investigadores españoles advierten que los humanos harían bien en no confiar en las respuestas de la IA, por impresionantes que sean. En el futuro inmediato, la IA parece condenada a seguir produciendo falsedades y los expertos no tienen ninguna solución a la vista.

Suscríbete a nuestro extenso boletín

Anímate por el precio de un café.

-

PREV El Tamagotchi ha vuelto
NEXT El plan de Youtube para conquistar tu televisión