La ciencia falsa generada por IA invade Google Scholar, advierten investigadores

La ciencia falsa generada por IA invade Google Scholar, advierten investigadores
La ciencia falsa generada por IA invade Google Scholar, advierten investigadores
-

Crédito: Universidad de Borås

La investigación generada por la inteligencia artificial representa una amenaza para el conocimiento social y la confianza del público en la ciencia. Esta es la conclusión de un estudio realizado por investigadores de la Escuela Sueca de Bibliotecología y Ciencias de la Información de la Universidad de Borås, que recientemente identificaron más de cien artículos sospechosos generados por IA en el motor de búsqueda Google Scholar.

Su informe destaca que los artículos científicos falsificados por IA están inundando Google Scholar. Estos hallazgos sobre la ciencia creada con IA resaltan que actores maliciosos pueden poner a disposición investigaciones falsas y difundirlas a gran escala, a menudo a un costo reducido. Este estudio fue publicado en la revista Revisión de información errónea de la Escuela Kennedy de Harvard.

Jutta Haider y Björn Ekström, investigadores asociados de la Escuela Sueca de Bibliotecología y Ciencias de la Información, así como Kristofer Söderström de la Universidad de Lund y Malte Rödl de la Universidad Sueca de Ciencias Agrícolas, destacan los peligros que esto representa tanto a nivel social como para la comunidad científica.

Mayor riesgo de manipulación de pruebas.

Una de las principales preocupaciones relacionadas con la investigación generada por IA es el riesgo de manipulación estratégica de la evidencia, lo que se conoce como “piratería de evidencia”.

“Los riesgos de un fenómeno que llamamos “piratería de pruebas” aumentan significativamente con la difusión de las búsquedas generadas por IA en los motores de búsqueda. Esto puede tener consecuencias reales, ya que los resultados erróneos pueden permear a la sociedad y a diversos campos”, afirmó Ekström, doctor en biblioteconomía y ciencias de la información.

Los investigadores ya han observado que estos artículos problemáticos se han extendido a otras partes de la infraestructura de investigación en línea, incluidos varios archivos y redes sociales. La difusión es rápida y Google Scholar hace visibles estos artículos problemáticos. Incluso si estos artículos se eliminan, sigue existiendo el riesgo de que ya hayan tenido tiempo de difundirse y seguir circulando.

Además, la investigación realizada con IA complica aún más un sistema de revisión por pares que ya está tenso.

Exige una mejor cultura de la información

La distribución de búsquedas generadas por IA en las bases de datos de los motores de búsqueda impone mayores exigencias a los usuarios de esta información en línea.

“Si no podemos confiar en las investigaciones que vemos, corremos el riesgo de tomar decisiones basadas en información incorrecta. Pero no se trata sólo de malas prácticas científicas, sino también de los medios y la cultura de la información”, añadió Haider, profesor de Bibliotecología y Ciencias de la Información.

Destaca que Google Scholar no es una base de datos académica. Aunque el motor de búsqueda es fácil de usar y rápido, carece de procedimientos de control de calidad. Esto ya es un problema en los resultados de búsqueda estándar de Google, pero se vuelve aún más crítico para la accesibilidad de la ciencia.

“La capacidad de las personas para determinar qué revistas y editoriales publican principalmente investigaciones revisadas por pares es fundamental para identificar qué constituye una investigación confiable, lo cual es esencial para la toma de decisiones y la formación de opinión”, concluyó Haider.

Más información:
Jutta Haider et al., Artículos científicos elaborados por GPT en Google Scholar: características clave, difusión e implicaciones para prevenir la manipulación de evidencia, Revisión de información errónea de la Escuela Kennedy de Harvard (2024). DOI: 10.37016/mr-2020-156

Publicado por
Universidad de Boras

En resumen, la proliferación de artículos científicos generados por IA plantea cuestiones fundamentales sobre la confianza en la investigación. ¿Cómo podemos fortalecer los mecanismos para diferenciar la ciencia auténtica del contenido generado automáticamente? Esta cuestión merece estar en el centro de futuros debates para preservar la integridad científica.

-

PREV En Concarneau, la asociación Ce qui nous porte quiere liberar a la gente para hablar sobre la enfermedad de Alzheimer
NEXT Plouarzel. Feria del disco, CD, DVD, BD, domingo