La investigación científica generada por la IA amenaza tanto el conocimiento de la sociedad en general como también la confianza del público en la ciencia: esta es la conclusión de investigadores de la Universidad de Boras, Suecia, que recientemente identificaron más de cien artículos probablemente generados por inteligencia artificial en el Motor de búsqueda Google Académico.
Según los autores de este estudio, por tanto, la ciencia falsa fabricada por robots conversacionales y otros sistemas de IA está disponible y puede difundirse fácilmente, todo ello a bajo coste, lo que beneficia a las personas con malas intenciones.
La investigación se publica en Revisión de información errónea de la Escuela Kennedy de Harvard.
Para Jutta Haider y Björn Ekström, dos de los autores del trabajo, esta proliferación de artículos científicos de mala calidad, producidos por sistemas conocidos por “inventar” información, representa un peligro para la sociedad y la comunidad científica.
Manipulación mediante pruebas falsas
Según los expertos, uno de los principales temores respecto de la investigación generada por la IA es el mayor riesgo de apropiación indebida de evidencia, es decir, el hecho de que se puedan utilizar estudios falsos para llevar a cabo manipulaciones estratégicas.
“Este riesgo aumenta significativamente cuando los estudios generados por IA se publican en los motores de búsqueda. Esto puede tener consecuencias tangibles, ya que los resultados erróneos pueden extenderse a toda la sociedad y posiblemente a otros ámbitos”, afirma el Dr. Ekström.
Además, según los autores del estudio, estos artículos problemáticos ya se han extendido a otros sectores de la infraestructura de investigación en línea, en diversas bases de datos y archivos, pero también en las redes sociales, etc. , existe el riesgo de que ya hayan tenido tiempo de propagarse y seguirán haciéndolo.
Peor aún, estos artículos científicos generados por IA aumentan la presión sobre el sistema de revisión por pares, el método para verificar si la investigación es legítima y viable, un sistema que ya está bajo presión por la cantidad de estudios publicados en el campo.
Una necesidad de saber mejor
A los ojos de los autores de este nuevo estudio, el hecho de que las investigaciones generadas por la IA se estén difundiendo en los motores de búsqueda y en las bases de datos significa que es necesario conocerlas aún mejor, cuando se trata de investigaciones científicas en línea.
“Si no podemos confiar en las investigaciones que leemos en la web, corremos el riesgo de tomar decisiones basadas en información incorrecta. Pero si esta cuestión representa un problema en términos de mala conducta científica, también lo es en términos de alfabetización mediática y científica”, sostiene el Dr. Haider.
Esto evoca así el hecho de que Google Scholar no es una base de datos académica. Este motor de búsqueda es fácil de usar, pero no tiene garantías para garantizar una determinada calidad del contenido. Se argumenta que esto ya es un problema con los resultados de búsqueda habituales de Google, pero lo es aún más cuando se trata de hacer accesible la ciencia.
“La capacidad de determinar qué revistas científicas publican estudios de calidad revisados por pares es esencial, y determinar qué constituye una investigación confiable es de gran importancia para la toma de decisiones y la capacidad de formarse opiniones sobre diversos temas”, concluyó el Dr. Haider.
Suscríbete a nuestro extenso boletín
Anímate por el precio de un café.
Related News :