DayFR Spanish

La inteligencia artificial, una nueva amenaza a la integridad de Wikipedia – rts.ch

-

La enciclopedia colaborativa en línea se enfrenta a una proliferación de artículos creados artificialmente por robots conversacionales. Ante esta amenaza a la confiabilidad de la información, los equipos de moderación de Wikipedia están desarrollando nuevas estrategias para detectar y verificar contenido sospechoso.

Es una batalla silenciosa que se desarrolla detrás de escena de la enciclopedia colaborativa en línea más grande. El auge de la inteligencia artificial generativa (GAI) Wikipedia enfrentando un gran desafío. A partir de ahora, el sitio deberá enfrentarse a una proliferación de artículos creados íntegramente o parcialmente modificados por robots conversacionales como ChatGPT. Lo que está en juego es la fiabilidad de la información.

En la única versión inglesa de Wikipedia, el ritmo es vertiginoso: cada minuto se crea una nueva página. En este flujo continuo de contribuciones, los equipos de la enciclopedia detectan cada día decenas de textos y fotografías generados artificialmente. Una situación que empujó a los contribuyentes a crear brigadas especializadas, como la “WikiProject AI Cleanup”, encargadas de rastrear este contenido sospechoso.

El asunto Amberlisihar: cuando la IA inventa una fortaleza fantasma

El asunto de la Fortaleza Amberlisihar ilustra perfectamente la magnitud del problema. Durante casi un año, los lectores de Wikipedia pudieron descubrir la historia detallada de esta fortaleza otomana de 600 años de antigüedad. El artículo, escrito en más de 2.000 palabras, describe con precisión sus batallas históricas y sus múltiples renovaciones, todo ello apoyado en referencias aparentemente sólidas.

La inteligencia artificial inventa periódicamente referencias que no existen, lo que hace que la verificación sea especialmente compleja

Ilyas Lebleu, cofundador del proyecto WikiProject AI Cleanup

Impresionante documentación, salvo un detalle: la fortaleza nunca existió. Todo había sido generado por una inteligencia artificial, que había mezclado hábilmente ficción y personajes históricos reales para darle a su historia una apariencia de verdad.

“El verdadero problema de ChatGPT radica en su relación con las fuentes”, analiza Ilyas Lebleu, uno de los fundadores del proyecto de limpieza. Limpieza de IA de WikiProject. “La inteligencia artificial inventa regularmente referencias que no existen, lo que hace que la verificación sea particularmente compleja. ¿Cómo podemos diferenciar una obra antigua auténtica pero rara de una fuente totalmente inventada?” Una cuestión tanto más crucial cuanto que las contribuciones problemáticas no se limitan a la creación de artículos ficticios.

La experiencia de los voluntarios frente a los marcadores de la IA

Los equipos de moderación han descubierto así numerosos casos de enriquecimiento aproximado de artículos existentes. Ilyas Lebleu cita el revelador ejemplo de un pueblo iraní: “ChatGPT había añadido una descripción bucólica de un pintoresco pueblo agrícola. Sin embargo, la realidad geográfica era bien diferente: la localidad está situada en el corazón de una zona montañosa desértica”. Esta tendencia de la IA a generar descripciones estandarizadas, sin tener en cuenta el contexto real, plantea un gran desafío para la enciclopedia.

Ante esta amenaza, los equipos de voluntarios de Wikipedia han desarrollado conocimientos lingüísticos avanzados. En particular, identificaron marcadores estilísticos característicos de los textos generados por IA. “Ciertas expresiones, como ‘rico patrimonio cultural’, demasiado subjetivas para una enciclopedia, se repiten recurrentemente en las producciones artificiales”, explica Ilyas Lebleu.

Por supuesto, hay creadores voluntarios de desinformación, pero también usuarios de buena fe. “A menudo se trata de personas que no están muy informadas sobre el funcionamiento de Wikipedia y que, al ver algo que genera contenidos, se dicen que es perfecto para ampliar la enciclopedia”, explica Ilyas Lebleu, destacando el lado negativo de la medalla. “Con ChatGPT podemos generar diez artículos en diez minutos, pero en estos artículos probablemente habrá decenas, cientos de errores, aproximaciones y citas falsas que habrá que limpiar”.

Una comunidad dividida sobre el uso de AGI

En Wikipedia, el debate hace estragos en torno a la inteligencia artificial. La comunidad de enciclopedias en línea está dividida sobre el uso de texto creado por robots. Tres posiciones compiten. Por un lado, los puristas piden una prohibición total. Por otro lado, los moderados simplemente sugieren informar sobre el contenido generado por IA. Algunos autores dudan de que realmente podamos controlar estos textos artificiales.

La inteligencia artificial no hace más que amplificar un problema preexistente: la circulación masiva y descontrolada de información no verificada en Internet

Thomas Huchon, periodista especializado en el estudio de la desinformación

A la espera de llegar a un acuerdo, Wikipedia rechaza la gran mayoría de los textos creados por IA. La razón es sencilla: estos contenidos no permiten verificar sus fuentes, regla de oro de la enciclopedia.

La cuestión crucial de verificar las fuentes

Este fenómeno revela un problema más amplio. La falta de una regulación efectiva de la información en línea. “La inteligencia artificial no hace más que amplificar un problema preexistente: la circulación masiva y descontrolada de información no verificada en Internet”, subraya Thomas Huchon, periodista especializado en el estudio de la desinformación.

Mientras se espera la regulación de la IA generativa, los expertos recomiendan que los lectores estén más atentos. Esto incluye comprobar sistemáticamente las fuentes citadas al final de la página. Una gran cantidad de fuentes verificadas generalmente indica información más confiable.

Pascal Wassmer

Related News :