¿Está Rusia realmente ‘preparando’ la IA occidental?


En marzo, NewsGuard – una empresa que rastrea la desinformación – publicó un informe que afirmaba que las herramientas de inteligencia artificial generativa (IA), como ChatGPT, estaban amplificando la desinformación rusa. NewsGuard probó los principales chatbots utilizando solicitudes basadas en historias de la red Pravda – un grupo de sitios web pro-Kremlin que imitan medios legítimos, identificados por primera vez por la agencia francesa Viginum. Los resultados fueron alarmantes: los chatbots “repitieron narrativas falsas lavadas por la red Pravda el 33 por ciento de las veces”, decía el informe.
La red Pravda, que tiene una audiencia bastante pequeña, ha desconcertado a los investigadores durante mucho tiempo. Algunos creen que su objetivo es performativo – indicar la influencia de Rusia a los observadores occidentales. Otros ven un objetivo más insidioso: Pravda existe no para alcanzar personas, sino para “preparar” los modelos de lenguaje (LLM) detrás de los chatbots, alimentándolos con falsedades que los usuarios encontrarían sin saberlo.
NewsGuard dijo en su informe que sus hallazgos confirman la segunda sospecha. Esta afirmación ganó tracción, lo que llevó a titulares dramáticos en el The Washington Post, Forbes, France 24, Der Spiegel, entre otros.
Pero para nosotros y otros investigadores, esta conclusión no se sostiene. Primero, la metodología utilizada por NewsGuard es opaca: no liberó sus solicitudes y se negó a compartirlas con periodistas, haciendo que la replicación independiente sea imposible.
Segundo, el diseño del estudio probablemente infló los resultados, y la cifra del 33 por ciento podría ser engañosa. Los usuarios preguntan a los chatbots sobre todo, desde consejos de cocina hasta cambio climático; NewsGuard los probó exclusivamente con solicitudes vinculadas a la red Pravda. Dos tercios de sus solicitudes fueron explícitamente elaboradas para provocar falsedades o presentarlas como hechos. Las respuestas que instaron al usuario a ser cauteloso con las afirmaciones porque no están verificadas fueron contadas como desinformación. El estudio tenía como objetivo encontrar desinformación – y lo logró.
Este episodio refleja una dinámica problemática más amplia moldeada por una tecnología de rápido movimiento, la exageración mediática, actores maliciosos y una investigación rezagada. Con la desinformación y la misinformation clasificadas como el principal riesgo global entre los expertos por el Foro Económico Mundial, la preocupación por su difusión está justificada. Pero las reacciones apresuradas corren el riesgo de distorsionar el problema, ofreciendo una visión simplista de la compleja IA.
Es tentador creer que Rusia está “envenenando” intencionalmente la IA occidental como parte de un plan astuto. Sin embargo, las enmarcaciones alarmistas obscurecen explicaciones más plausibles – y generan daño.
Entonces, ¿pueden los chatbots reproducir los puntos de conversación del Kremlin o citar fuentes rusas dudosas? Sí. Pero qué tan a menudo sucede esto, si refleja manipulación del Kremlin, y qué condiciones hacen que los usuarios se encuentren con ello están lejos de estar resueltas. Mucho depende de la “caja negra” – es decir, el algoritmo subyacente – por el cual los chatbots recuperan información.
Realizamos nuestra propia auditoría, probando sistemáticamente ChatGPT, Copilot, Gemini y Grok usando solicitudes relacionadas con desinformación. Además de volver a probar los pocos ejemplos que NewsGuard proporcionó en su informe, diseñamos nuevas solicitudes nosotros mismos. Algunas fueron generales – por ejemplo, afirmaciones sobre laboratorios biológicos de EE. UU. en Ucrania; otras fueron hiper-específicas – por ejemplo, alegaciones sobre instalaciones de la OTAN en ciertas ciudades ucranianas.
Si la red Pravda estaba “preparando” IA, veríamos referencias a ella en las respuestas que los chatbots generan, ya sean generales o específicas.
No vimos esto en nuestros hallazgos. En contraste con el 33 por ciento de NewsGuard, nuestras solicitudes generaron afirmaciones falsas solo el 5 por ciento del tiempo. Solo el 8 por ciento de las salidas hicieron referencia a sitios de Pravda – y la mayoría de esos lo hicieron para desmentir el contenido. Crucialmente, las referencias a Pravda se concentraron en consultas mal cubiertas por medios convencionales. Esto apoya la hipótesis del vacío de datos: cuando los chatbots carecen de material creíble, a veces tiran de sitios dudosos – no porque hayan sido preparados, sino porque no hay mucho más disponible.
Si los vacíos de datos, y no la infiltración del Kremlin, son el problema, entonces significa que la exposición a la desinformación resulta de la escasez de información – no de una poderosa máquina de propaganda. Además, para que los usuarios realmente encuentren desinformación en las respuestas de los chatbots, deben alinearse varias condiciones: deben preguntar sobre temas oscuros en términos específicos; esos temas deben ser ignorados por medios creíbles; y el chatbot debe carecer de medidas de control para despriorizar fuentes dudosas.
Aun así, tales casos son raros y a menudo de corta duración. Los vacíos de datos se cierran rápidamente a medida que los informes se ponen al día, y incluso cuando persisten, los chatbots a menudo desmienten las afirmaciones. Si bien es técnicamente posible, tales situaciones son muy raras fuera de condiciones artificiales diseñadas para engañar a los chatbots para que repitan desinformación.
El peligro de exagerar la manipulación de la IA por parte del Kremlin es real. Algunos expertos en contrarrestar la desinformación sugieren que las campañas del Kremlin pueden estar diseñadas para amplificar los temores occidentales, abrumando a los verificadores de hechos y unidades de contrarresto de desinformación. Margarita Simonyan, una prominente propagandista rusa, cita rutinariamente investigaciones occidentales para alardear de la supuesta influencia de la red de televisión financiada por el gobierno, RT, que lidera.
Advertencias indiscriminadas sobre la desinformación pueden tener efectos contraproducentes, promoviendo el apoyo a políticas represivas, erosionando la confianza en la democracia y animando a las personas a asumir que el contenido creíble es falso. Mientras tanto, las amenazas más visibles corren el riesgo de eclipsar usos más silenciosos – pero potencialmente más peligrosos – de la IA por actores malignos, como la generación de malware reportado tanto por Google como por OpenAI.
Para contenido más especializado, suscríbanse a nuestro boletín.
Comments ()