Un estudio muestra los límites del motor de búsqueda ChatGPT Search lanzado hace unas semanas por OpenAI.
“Imprevisible”, “incorrecto”… estos son los términos que designan los resultados del motor de búsqueda recientemente integrado en ChatGPT. En su estudio, el Tow Center for Digital Journalism de la Universidad Americana de Columbia señala los fallos de la herramienta cuando se utiliza para informarse sobre temas de actualidad.
1 149,99€
1 349,99€
una acción
Comprar en Fnac.com
Certezas que no lo son
ChatGPT Search, o SearchGPT, es una especie de respuesta de OpenAI a Google. Cada vez más usuarios de Internet utilizan la inteligencia artificial para obtener respuestas a sus preguntas. Por lo tanto, la IA ahora se propone navegar por la web para ellos y brindarles en bandeja las respuestas que buscan.
El problema, señala la Universidad de Columbia, es la seguridad con la que SearchGPT muestra sus resultados. Cuando se trata de temas de actualidad, ChatGPT lógicamente va desplazador en la Web buscando artículos de prensa que aborden el tema. Sin embargo, algunos medios no permiten que OpenAI sea utilizado en sus datos… lo que no impide que ChatGPT entre por la ventana.
Los investigadores pidieron a SearchGPT que atribuyera correctamente 200 citas de artículos de noticias a sus respectivos autores. Cuarenta de ellos procedían de sitios que bloquean el acceso a ChatGPT. Sin embargo, la herramienta cumplió con el ejercicio y afirmó que determinadas citas estaban firmadas por tal o cual autor, propagando información falsa en el proceso.
la duda no existe
Básicamente, el problema es que la inteligencia artificial, y en este caso la OpenAI, parece especialmente incómoda al admitir que no está segura o que existen dudas sobre la veracidad de la información compartida.
“En total, ChatGPT dio respuestas parcial o completamente incorrectas en 153 ocasiones, aunque sólo reconoció su incapacidad para responder con precisión una consulta en siete ocasiones. Sólo en estos siete casos el chatbot utilizó palabras o expresiones de reserva como “parece”, “es posible” o “podría ser capaz”o declaraciones como “No pude localizar el artículo exacto”. »
Revista de periodismo de Columbia
Lo que debes recordar es que SearchGPT no es un periodista y su función es responder a tu pregunta, cueste lo que cueste.
La perspectiva, el cruce de fuentes y las dudas son fundamentos de la profesión que la IA no posee y que corren el riesgo de dañar aún más la imagen del periodismo. Un periodismo que, en estos tiempos en los que la posverdad está por todas partes, necesita más que nunca ser apoyado.