Por qué deberías dejar de buscar online con IA

Por qué deberías dejar de buscar online con IA
Por qué deberías dejar de buscar online con IA
-

¿Podemos confiar ciegamente en la inteligencia artificial? Cuando se trata de recuperación de información, parece que no. En cualquier caso, esta es la lección que podemos aprender tras el escándalo mediático ocurrido en Estados Unidos hace unos días.

Todo empezó en la CNN que intentó sentar precedentes históricos de indultos presidenciales familiares (en referencia a Joe Biden que perdonó a su hijo aunque había asegurado que nunca lo haría). Ana Navarro Cárdenas, reconocida figura del canal, habló con confianza del indulto otorgado por el presidente Woodrow Wilson a su presunto cuñado, un tal Hunter deButts. Esta información, retomada por varios medios de comunicación, rápidamente se difundió en las redes sociales.

Ante preguntas sobre sus fuentes, la comentarista respondió tajante: “Hazte cargo de ChatGPT”. Una respuesta que desató una investigación en profundidad, revelando no sólo que Hunter deButts nunca existió, sino también que Otros “hechos históricos” ampliamente difundidos eran igualmente ficticios. Entre ellos, el supuesto indulto de George HW Bush a su hijo Neil, o el de Jimmy Carter a su hermano Billy.

No creas en la IA

Este caso es sólo la punta del iceberg. Las investigaciones muestran que las herramientas de inteligencia artificial generativa como ChatGPT cometen errores más de las tres cuartas partes de las veces cuando se trata de citar fuentes precisas. Una observación alarmante cuando sabemos que estas herramientas son cada vez más utilizadas por periodistas, investigadores y estudiantes.

Particularmente revelador es el caso de Jeff Hancock, fundador del Stanford Social Media Lab y reconocido experto en desinformación. Él mismo fue engañado para que usara GPT-4 para generar una lista de referencias bibliográficas, y terminó con citas inexistentes en un documento oficial. Si incluso los expertos pueden caer en la trampa, ¿qué pasa con el público en general?

Un problema sistémico que amenaza la información

La diferencia fundamental entre los motores de búsqueda tradicionales y los “motores de respuesta” basados ​​en IA radica en su enfoque. Búsqueda de Google enlaces clásicos a fuentes primarias que el usuario puede consultar y verificar. Por el contrario, las IA generativas producen respuestas que parecen coherentes pero que a menudo son imposibles de verificar.

Esta nueva realidad plantea un problema importante: la facilidad de uso de estas herramientas fomenta la pereza intelectual. ¿Por qué perder tiempo comprobando fuentes cuando una IA nos da una respuesta inmediata y aparentemente creíble? Esta tendencia contribuye al deterioro general de nuestro entorno informativo, ya socavado por la desinformación en las redes sociales.

Las consecuencias se sienten mucho más allá del mundo académico. Desde errores aparentemente inofensivos, como la IA de Google que afirma que los zorros machos son monógamos, hasta graves malentendidos de los acontecimientos actuales, toda nuestra capacidad para distinguir la realidad de la ficción está amenazada. Entonces, mientras espera que ChatGPT mejore, es mejor confiar en el viejo Google y en su capacidad para hacer referencias cruzadas de información.

  • Una cascada de información errónea sobre los indultos presidenciales de Estados Unidos ha expuesto los peligros de depender de la IA generativa para la recuperación de información.
  • Herramientas como ChatGPT se equivocan en más del 75% de los casos a la hora de citar fuentes, incluso los expertos son víctimas.
  • A diferencia de los motores de búsqueda tradicionales, las IA generativas no pueden volver a fuentes primarias, lo que sienta un precedente peligroso para nuestra capacidad de verificar información.

???? Para no perderte ninguna novedad de Presse-citron, síguenos en Google News y WhatsApp.

-

PREV Sharge presenta un nuevo banco de energía de carga rápida de 100 W con cable integrado
NEXT ¡El Final Fantasy para presentar a los nuevos jugadores es este!