ChatGPT indica en árabe que el número de víctimas del conflicto en Oriente Medio es, de media, un tercio mayor que en hebreo. En cuanto a los ataques aéreos israelíes en Gaza, el chatbot menciona el doble de víctimas civiles y seis veces más niños asesinados.
Dos investigadores de las universidades de Zurich (UZH) y Konstanz (D) Le hizo a ChatGPT las mismas preguntas sobre conflictos armados, como el de Medio Oriente, de forma repetida y automática, en diferentes idiomas.
En árabe y hebreo, preguntaron cuántas víctimas se habían registrado en 50 ataques aéreos elegidos al azar, como el ataque aéreo israelí de 2014 contra el campo de refugiados de Nuseirat.
Diferencias respecto a mujeres y niños
En general, ChatGPT muestra un mayor número de víctimas cuando las búsquedas se realizan en el idioma del grupo atacado. ChatGPT además tiende a informar sobre más niños y mujeres asesinados en el idioma del grupo atacado y a describir los ataques aéreos como bastante indiscriminados y arbitrarios.
“Nuestros resultados muestran al mismo tiempo que es más probable que los ataques aéreos sean cuestionados en el lenguaje del agresor por ChatGPT”, explica Christoph Steinert, investigador del Instituto de Ciencias Políticas de la UZH, citado en un comunicado de prensa.
El mismo patrón que en el conflicto de Medio Oriente ocurrió cuando los científicos hicieron preguntas sobre los ataques aéreos del gobierno turco en regiones kurdas, tanto en turco como en kurdo, dijo UZH.
Distorsiones difíciles de percibir
Por lo tanto, las personas con diferentes habilidades lingüísticas reciben información diferente a través de estas tecnologías, lo que tiene una influencia central en su percepción del mundo, destaca el estudio.
Según los investigadores, esto puede llevar a las personas que viven en Israel a estimar, basándose en la información que reciben de ChatGPT, que los ataques aéreos en Gaza han sido menos mortíferos, en comparación con la población de habla árabe.
Los medios de comunicación tradicionales ciertamente también pueden distorsionar las noticias. Pero las distorsiones sistemáticas como las observadas en el caso de ChatGPT son difíciles de percibir para la mayoría de los usuarios, señala UZH.
Los autores advierten que existe el riesgo de que la implementación de estos instrumentos en los motores de búsqueda refuerce percepciones divergentes, sesgos y burbujas de información a lo largo de las fronteras lingüísticas. Esto podría contribuir en el futuro a alimentar conflictos armados como el de Oriente Medio, según este trabajo publicado en el Journal of Peace Research.
respuesta
Business
Related News :