menu-control
The Jerusalem Post

ChatGPT y la distorsión de información: el impacto del lenguaje de los usuarios

 
  (photo credit: REUTERS)
(photo credit: REUTERS)

El lenguaje utilizado por los usuarios en ChatGPT puede alterar la veracidad de las respuestas, según un estudio. Descubra cómo la exageración juega un papel.

¿Importa si la misma pregunta se le hace a ChatGPT - el chatbot de inteligencia artificial desarrollado por OpenAI y lanzado hace dos años - en inglés o hebreo, árabe o alemán? Israel tiene suficientes problemas con la enciclopedia en línea gratuita Wikipedia, que se sabe que presenta "hechos" anti-Israel cuando la gente la busca.

El sitio web de ChatGPT, que puede generar respuestas conversacionales humanas y permite a los usuarios refinar y dirigir una conversación hacia una longitud deseada, formato, estilo, nivel de detalle e idioma, se encuentra entre los 10 sitios web más visitados del mundo.

Expertos de la Universidad de Zurich en Suiza y la Universidad de Konstanz en Alemania querían saber si las respuestas dadas por ChatGPT y servicios de IA similares están influenciadas por el idioma en el que se les pregunta. Christoph Steinert, un investigador postdoctoral del departamento de ciencias políticas de la institución suiza, y Daniel Kazenwadel del departamento de física de la universidad alemana investigaron el asunto.

Publicaron sus hallazgos en el Journal of Peace Research bajo el título "El idioma del usuario distorsiona la información de ChatGPT sobre conflictos armados".

Advertisement

Los investigadores han reconocido durante mucho tiempo que las discrepancias de información juegan un papel profundo en los conflictos armados. Las discrepancias en la información han afectado a los conflictos armados a lo largo de la historia, pero lo que distingue a los conflictos actuales es la disponibilidad de una cantidad sin precedentes de fuentes de información.

  (credit: SHUTTERSTOCK)
(credit: SHUTTERSTOCK)

Hoy en día, las personas pueden acceder a abundante información en línea sobre eventos relacionados con conflictos e incluso utilizar la inteligencia artificial para obtener respuestas específicas a preguntas concretas. En la medida en que estas nuevas fuentes de información reduzcan las discrepancias de información y contribuyan a una convergencia de creencias, pueden tener un efecto pacificador en las regiones propensas a la guerra.

Exploraron el problema en el contexto conflictivo de los conflictos israelí-palestino y turco-kurdo, utilizando un procedimiento de consulta automatizado para preguntar a ChatGPT las mismas preguntas en diferentes idiomas.

Por ejemplo, los investigadores incitaron repetidamente a ChatGPT en hebreo y árabe sobre el número de personas muertas en 50 ataques aéreos elegidos al azar, incluido el ataque israelí al campamento de refugiados de Nuseirat el 21 de agosto de 2014.

"Encontramos que ChatGPT sistemáticamente proporcionaba números de fatalidades más altos cuando se le preguntaba en árabe en comparación con preguntas en hebreo. En promedio, las estimaciones de fatalidades eran un 34% más altas", reveló Steinert.

Cuando se le preguntaba sobre los ataques aéreos israelíes en Gaza, ChatGPT mencionaba las bajas civiles más del doble de veces y mencionaba la muerte de niños seis veces más a menudo en la versión en árabe. "Si las personas que hablan diferentes idiomas obtienen información diferente a través de estas tecnologías, esto tiene una influencia crucial en su percepción del mundo", dijo Steinert.

Advertisement

"Estos sesgos lingüísticos podrían llevar a las personas en Israel a percibir que los ataques aéreos en Gaza causan menos bajas basándose en la información proporcionada por los LLMs, en comparación con los hablantes de árabe", escribieron.

El mismo patrón surgió cuando los investigadores consultaron al chatbot sobre los ataques aéreos turcos contra objetivos kurdos y realizaron las mismas preguntas en turco y kurdo.

La primera víctima de la guerra

LA FRASE "La primera víctima cuando llega la guerra es la verdad" se atribuye a menudo al senador de EE. UU. Hiram Johnson (1866-1945). A lo largo de la historia, las políticas de información selectiva, la propaganda y la desinformación han influido en numerosos conflictos armados. Lo que distingue a los conflictos actuales es la disponibilidad de un número sin precedentes de fuentes de información, incluido ChatGPT.

Los resultados muestran que ChatGPT ofrece cifras de fatalidades más altas cuando se le pregunta en el idioma del grupo atacado. Además, ChatGPT es más propenso a informar sobre niños y mujeres asesinados en el idioma del grupo atacado y a representar los ataques aéreos como indiscriminados.

"Nuestros resultados también muestran que ChatGPT es más propenso a negar la existencia de tales ataques aéreos en el idioma del atacante", agregó Steinert.

Sugirieron que los dos conflictos que estudiaron podrían representar "casos más probables" para encontrar dicho sesgo lingüístico, ya que la división lingüística es clara en estos conflictos entre dos países, mientras que es menos pronunciada en otros conflictos como la guerra de agresión de Rusia en Ucrania.

También es posible que los ataques aéreos representen un tipo de violencia relacionada con el conflicto especialmente afectada por este sesgo lingüístico, ya que los números de fatalidades son particularmente difíciles de verificar y la cobertura mediática es más extensa en comparación con otros tipos de ataques más pequeños.

"Conscientes de estas condiciones de alcance, creemos que nuestro análisis proporciona un punto de partida útil para futuras investigaciones sobre la relación entre el idioma del usuario y la información sobre la violencia relacionada con el conflicto proporcionada por los grandes modelos de lenguaje (LLM)", escribió el equipo.

Los obstáculos físicos como las redes eléctricas dañadas, las carreteras bloqueadas y los puentes destruidos hacen la vida difícil para periodistas y organizaciones de derechos humanos, continuaron.

"La investigación de hechos necesita adaptarse constantemente a las preocupaciones locales de seguridad, ya que un número significativo de periodistas son asesinados mientras informan en sociedades en conflicto. Debido a que la información es crónicamente difícil de verificar, los informes de los medios sobre violencia relacionada con conflictos tienden a subestimar la verdadera incidencia de eventos violentos", agregaron.

Los investigadores creen que sus hallazgos tienen "profundas implicaciones sociales", ya que ChatGPT y otros LLMs juegan un papel cada vez más importante en los procesos de difusión de información. Integrados en motores de búsqueda como Google Gemini o Microsoft Bing, dan forma fundamental a la información proporcionada sobre varios temas a través de las consultas de búsqueda.

"Si las personas que hablan diferentes idiomas obtienen información diferente a través de estas tecnologías, tiene una influencia crucial en su percepción del mundo", dijo Steinert.

Tales sesgos lingüísticos podrían llevar a las personas en Israel a percibir que los ataques aéreos en Gaza causan menos bajas en base a la información proporcionada por grandes modelos de lenguaje (LLMs en modelos de aprendizaje automático) en comparación con hablantes de árabe.

Si bien los LLMs proporcionan una apariencia de objetividad, la información obtenida puede diferir entre personas que hablan diferentes idiomas. Como ejemplo destacado, el popular chatbot ChatGPT se basa en la lógica de la solicitud, lo que significa que las respuestas obtenidas son una función de la información proporcionada en la pregunta.

En contextos multilingües, es probable que las personas proporcionen solicitudes de preguntas en diferentes idiomas, lo que puede dar forma al contenido producido por el LLM.

"Existe un riesgo de que la creciente implementación de modelos LLM en motores de búsqueda refuerce diferentes percepciones, sesgos y burbujas de información a lo largo de las divisiones lingüísticas", concluyó Steinert, y teme que en el futuro, podrían alimentar conflictos armados como los del Medio Oriente.

×
Email:
×
Email: