Noticias destacadas

¿Rusia está realmente ‘preparando’ la IA occidental? | Medios de comunicación

En marzo, Newsguard, una compañía que rastrea la información errónea, publicada un informe Afirmando que las herramientas generativas de inteligencia artificial (IA), como ChatGPT, amplificaban la desinformación rusa. Newsguard probó los principales chatbots utilizando indicaciones basadas en historias de la red Pravda, un grupo de sitios web pro-Kremlin que imitan las medidas legítimas, identificadas por primera vez por la agencia francesa Viginum. Los resultados fueron alarmantes: los chatbots «narraciones falsas repetidas lavadas por la red Pravda el 33 por ciento del tiempo», según el informe.

La red Pravda, que tiene una audiencia bastante pequeña, ha desconcertado durante mucho tiempo investigadores. Algunos creen que su objetivo era performativo: indicar la influencia de Rusia a los observadores occidentales. Otros ven un objetivo más insidioso: Pravda existe para no llegar a las personas, sino a «preparar» los modelos de idiomas grandes (LLM) detrás de los chatbots, alimentándoles falsedades que los usuarios sin saberlo encontrarían.

Newsguard dijo en su informe que sus hallazgos confirman la segunda sospecha. Esta afirmación ganó tracción, lo que provocó titulares dramáticos en el Washington Post, Forbes, Francia 24, Der Spiegel y en otros lugares.

Pero para nosotros y otros investigadores, esta conclusión no se mantiene. Primero, la metodología de Newsguard utilizada es Opque: no reveló sus indicaciones y se negó a compartirlas con periodistas, haciendo imposible la replicación independiente.

En segundo lugar, el diseño del estudio probablemente infló los resultados, y la cifra del 33 por ciento podría ser engañosa. Los usuarios preguntan a los chatbots sobre todo, desde consejos de cocina hasta cambio climático; Newsguard los probó exclusivamente por indicaciones vinculadas a la red Pravda. Dos tercios de sus indicaciones se elaboraron explícitamente para provocar falsedades o presentarlas como hechos. Las respuestas que instan al usuario a ser cauteloso sobre las afirmaciones porque no están verificadas se contaron como desinformación. El estudio se propuso encontrar desinformación, y lo hizo.

Este episodio refleja una dinámica problemática más amplia con la forma de tecnología de rápido movimiento, exageración de los medios, malos actores e investigación rezagada. Con la desinformación y la información errónea clasificada como el principal riesgo global entre los expertos por el Foro Económico Mundial, la preocupación por su propagación está justificada. Pero las reacciones instintivas que corren el riesgo de distorsionar el problema, ofreciendo una visión simplista de la IA compleja.

Es tentador creer que Rusia está «envenenando» intencionalmente la IA occidental como parte de una trama astuta. Pero los enmarcados alarmistas oscurecen explicaciones más plausibles y generan daño.

Entonces, ¿pueden los chatbots reproducir puntos de conversación del Kremlin o citar dudosas fuentes rusas? Sí. Pero con qué frecuencia sucede esto, si refleja la manipulación del Kremlin y qué condiciones hacen que los usuarios encuentren que están lejos de establecerse. Mucho depende de la «caja negra», es decir, el algoritmo subyacente, por el cual los chatbots recuperan información.

Realizamos nuestra propia auditoría, probando sistemáticamente ChatGPT, Copilot, Gemini y Grok utilizando indicaciones relacionadas con la desinformación. Además de volver a probar los pocos ejemplos de Newsguard proporcionados en su informe, diseñamos nuevas indicaciones. Algunos eran generales, por ejemplo, afirmaciones sobre los biolabs estadounidenses en Ucrania; Otros fueron hiperpecíficos, por ejemplo, acusaciones sobre las instalaciones de la OTAN en ciertas ciudades ucranianas.

Si la red de Pravda estuviera «preparando» la IA, veríamos referencias a través de las respuestas que generan los chatbots, ya sean generales o específicos.

No vimos esto en nuestros hallazgos. A diferencia del 33 por ciento de Newsguard, nuestras indicaciones generaron reclamos falsos solo el 5 por ciento del tiempo. Solo el 8 por ciento de los resultados hicieron referencia a sitios web de Pravda, y la mayoría de ellos lo hicieron para desacreditar el contenido. De manera crucial, las referencias de Pravda se concentraron en consultas mal cubiertas por las salidas convencionales. Esto respalda la hipótesis del vacío de los datos: cuando los chatbots carecen de material creíble, a veces se extraen de sitios dudosos, no porque hayan sido arreglados, sino porque hay poco más disponible.

Si los datos se vacían, no la infiltración de Kremlin, son el problema, entonces significa que la exposición a la desinformación resulta de la escasez de información, no una potente máquina de propaganda. Además, para que los usuarios encuentren la desinformación en las respuestas de chatbot, varias condiciones deben alinearse: deben preguntar sobre temas oscuros en términos específicos; Esos temas deben ser ignorados por puntos de venta creíbles; Y el chatbot debe carecer de barandillas para depilar a fuentes dudosas.

Incluso entonces, tales casos son raros y a menudo de corta duración. Los datos se cierran rápidamente a medida que los informes se ponen al día, e incluso cuando persisten, los chatbots a menudo desacreditan las afirmaciones. Si bien es técnicamente posible, tales situaciones son muy raras fuera de las condiciones artificiales diseñadas para engañar a los chatbots para repetir la desinformación.

El peligro de sobrecargar la manipulación de Kremlin AI es real. Algunos expertos en contra-desinformación sugieren que las campañas del Kremlin pueden estar diseñadas para amplificar los temores occidentales, los abrumadores verificadores de hechos y las unidades de contra-desinformación. Margarita Simonyan, una prominente propagandista rusa, cita rutinariamente la investigación occidental para promocionar la supuesta influencia de la red de televisión financiada por el gobierno, RT, lidera.

Las advertencias indiscriminadas sobre la desinformación pueden ser contraproducentes, lo que provoca apoyo para políticas represivas, erosionando la confianza en la democracia y alentar a las personas a asumir contenido creíble es falso. Mientras tanto, las amenazas más visibles corren el riesgo de eclipsar más silenciosos, pero potencialmente más peligrosos, usos de la IA por parte de actores malignos, como para generar malware reportado por Google y OpenAI.

Separar preocupaciones reales de los miedos inflados es crucial. La desinformación es un desafío, pero también lo es el pánico que provoca.

Las opiniones expresadas en este artículo son las propias de los autores y no reflejan necesariamente la postura editorial de Al Jazeera.

Enlace de origen

Publicaciones relacionadas

Botón volver arriba