La guerra de información, librada en el dominio digital y psicológico se ha convertido en un componente central de la competencia geopolítica entre estados-nación. Lejos de ser un fenómeno abstracto, estas operaciones tienen consecuencias tangibles, buscando erosionar la confianza en las instituciones democráticas, polarizar a la sociedad y promover intereses estratégicos extranjeros. Este informe presenta un análisis detallado de la operación de influencia rusa recientemente descubierta en Argentina, utilizándola como un caso de estudio representativo de las tácticas, técnicas y procedimientos empleados por actores estatales de primer mundo.
Comprender la anatomía de estas campañas es de vital importancia estratégica para la seguridad nacional y la preservación de la estabilidad democrática frente a la interferencia externa.
El perfilado del actor de amenaza responsable de la operación en Argentina revela una estrategia coordinada y alineada con los objetivos geopolíticos del Kremlin, permitiendo un desglose preciso de su modus operandi.
Las autoridades argentinas identificaron a la entidad responsable como La Compañía (The Company). La atribución de esta organización la vincula directamente con el gobierno ruso y, de manera específica, con Project Lakhta, una operación de interferencia a gran escala también conocida como la "granja de trolls". Dicho proyecto ha sido previamente asociado por el departamento del tesoro de los Estados Unidos con campañas de desinformación en Europa, Ucrania, Estados Unidos, y su supervisión se atribuyó al difunto líder del Grupo Wagner, Yevgeny Prigozhin.
El objetivo estratégico principal de La Compañía fue explícitamente definido por las autoridades. La operación buscaba formar un grupo de personas leales a los intereses de Rusia con el propósito de ejecutar campañas de desinformación dirigidas contra el estado argentino. La inteligencia argentina identificó una red de cinco ciudadanos rusos, siendo Lev Konstantinovich Andriashvili designado como líder operativo de la célula.
En respuesta a la revelación, el portavoz presidencial, Manuel Adorni, emitió una declaración contundente sobre la soberanía nacional, afirmando que "Argentina no será sometida a la influencia de ninguna otra nación", y subrayando que "la seguridad de los argentinos no es un asunto secundario".
Los objetivos estratégicos del grupo se materializaron a través de un conjunto de tácticas específicas diseñadas para penetrar y manipular el tejido social y político argentino. El análisis de las tácticas empleados por 'La Compañía' revela un modus operandi híbrido, que integra tácticas clásicas de inteligencia humana (HUMINT) con operaciones de influencia digital. Este enfoque multifacético fue diseñado para maximizar la penetración en la sociedad civil argentina y establecer una infraestructura de influencia persistente.
A continuación, se detallan las actividades específicas que componen esta célula de influencia:
La ejecución de estas tácticas dependía de una estructura de liderazgo bien definida, cuya identificación fue un paso crucial en la atribución de la operación.
La atribución es uno de los aspectos más críticos y complejos de las operaciones de inteligencia, ya que implica vincular de manera concluyente una actividad hostil a un actor específico. En este caso, el gobierno argentino identificó públicamente a los individuos presuntamente responsables, lo que provocó una reacción diplomática directa por parte de Rusia.
Las autoridades argentinas señalaron a un ciudadano ruso como los líder de la red:
• Lev Konstantinovich Andriashvili: descrito como el responsable principal de la operación, encargado de recibir la financiación y cultivar los contactos con los colaboradores locales.
Las autoridades argentinas creen que está vinculado a la agencia de inteligencia militar rusa, el GRU (Glavnoye Razvedyvatelnoye Upravlenie), una de las principales agencias de inteligencia exterior de Moscú.
La respuesta de la embajada de Rusia en Buenos Aires fue de negación y contraacusación. En un comunicado oficial, la embajada declaró que los individuos no estaban registrados en el consulado y enviaron una nota formal al ministerio de relaciones exteriores de Argentina para solicitar una clarificación de su estatus legal. Calificaron el evento como una "ola de espionaje-manía" orquestada por adversarios con el objetivo de dañar las relaciones ruso-argentinas. Esta postura es consistente con la doctrina rusa de negación plausible en operaciones encubiertas.
La identificación de la amenaza y la respuesta diplomática rusa sentaron las bases para una respuesta institucional contundente por parte del gobierno argentino. La respuesta de un estado a la interferencia extranjera es un indicador clave de su postura de seguridad nacional y su capacidad para defender su soberanía. La reacción del gobierno argentino representa un cambio estratégico significativo en su postura de contrainteligencia, directamente atribuible a la neutralización de esta operación rusa.
La principal contramedida anunciada fue la creación del nuevo departamento federal de investigaciones (DFI) dentro de la policía federal. Este departamento se ha establecido con un mandato claro y directamente relevante para la amenaza identificada:
Para asegurar su efectividad, el gobierno ha indicado que el nuevo DFI se alineará con los estándares del FBI de Estados Unidos. Esta modernización incluirá la incorporación de especialistas en áreas críticas como el derecho, la psicología social y las ciencias de la computación, con el fin de fortalecer sus capacidades de investigación y análisis frente a amenazas sofisticadas.
Mientras Argentina refuerza sus defensas contra un modelo de influencia clásico, el panorama global de la desinformación evoluciona a un ritmo acelerado, impulsado por nuevas tecnologías disruptivas.
Mientras la operación en Argentina demuestra la continua eficacia del modelo de influencia basado en HUMINT, el conflicto entre Israel e Irán de junio de 2025 sirve como un caso de estudio crítico sobre la próxima escalada en la guerra de información, la desinformación generada por IA a escala industrial. Este nuevo paradigma amenaza con reducir drásticamente los plazos de detección y respuesta y saturar el panorama informativo a un nivel inmanejable para las defensas actuales.
Durante la escalada militar, las redes pro-iraníes utilizaron masivamente la IA generativa para crear y difundir imágenes y videos falsos, pero altamente convincentes. Entre los ejemplos más virales se encontraban supuestos ataques con misiles sobre Tel Aviv y el derribo de un caza F-35 israelí. Un video de este último incidente, que acumuló millones de vistas, fue identificado como metraje de un videojuego. Este contenido sintético fue diseñado para proyectar una imagen de superioridad militar y causar pánico, acumulando en conjunto más de 100 millones de visualizaciones. Por su parte, cuentas pro-israelíes también emplearon contenido engañoso, aunque con un enfoque diferente, fabricar evidencia de inestabilidad interna en Irán, como videos generados por IA que mostraban protestas falsas en Teherán.
La consecuencia más engañosa de la proliferación de deepfakes es el fenómeno conocido como el "dividendo del mentiroso" (liar's dividend). Este concepto describe cómo la mera existencia de contenido falso convincente otorga una ventaja a los actores maliciosos, les permite desacreditar evidencia genuina simplemente alegando que es falsa. Cuando el público sabe que cualquier video o imagen puede ser una falsificación, se vuelve más fácil para los culpables negar la autenticidad de pruebas incriminatorias reales. Esta desconfianza generalizada debilita la confianza en toda la información visual y complica la rendición de cuentas. Este 'dividendo del mentiroso' representa el desafío estratégico central en la era de la desinformación por IA, un entorno donde la evidencia objetiva se vuelve vulnerable y la negación se convierte en una potente arma estatal.
La proliferación de contenido sintético ha puesto a prueba las herramientas de verificación existentes. El uso de chatbots de IA como Grok (X), ChatGPT (OpenAI) y Gemini (Google) ha demostrado ser poco fiable. Sus respuestas sobre la autenticidad de imágenes o videos son a menudo inconsistentes y categóricamente erróneas, lo que puede amplificar la confusión en lugar de disiparla.
Ante la insuficiencia de las soluciones automatizadas, los analistas deben recurrir a un conjunto de técnicas de verificación manual.
Una defensa efectiva contra las operaciones de influencia modernas requiere una combinación de capacidad estatal robusta y habilidades analíticas especializadas.
Este informe ha tenido un doble propósito, analizar una operación de influencia en el mundo real para comprender las tácticas actuales y, a su vez, proyectar las tendencias futuras que definirán el campo de batalla de la información.
El caso de Argentina subraya un modelo de operación de influencia de estado-nación que, aunque representa un playbook clásico, sigue siendo altamente efectivo. Se basa en la combinación de financiamiento encubierto, reclutamiento de una red proxy local y la manipulación de la sociedad civil para avanzar en objetivos geopolíticos. La respuesta de Argentina, centrada en el fortalecimiento institucional, refleja un reconocimiento creciente de que la interferencia extranjera es una amenaza directa a la seguridad nacional.
Este modelo clásico, sin embargo, sirve como una línea de base para comprender el salto cuántico que representa el uso de IA generativa. Estas tecnologías permiten la creación de desinformación a una escala, velocidad y sofisticación sin precedentes, superando la capacidad de las defensas actuales. El fenómeno "dividendo del mentiroso" emerge como un desafío estratégico profundo, amenazando con crear un entorno de información donde la verdad es continuamente contestada.
En este contexto, es de vital importancia que los estados y las organizaciones desarrollen un enfoque de ciberdefensa que sea preventivo, resiliente y colaborativo. La preparación continua y la capacidad de adaptarse serán cruciales para contrarrestar tanto las operaciones de influencia tradicionales, basadas en redes humanas, como las amenazas emergentes impulsadas por la inteligencia artificial.
https://www.barrons.com/news/spanish/argentina-dice-haber-detectado-espias-rusos-que-promovian-desinformacion-88fd76ce
https://t.me/EmbRusiaEnArg/2921
https://euvsdisinfo.eu/russian-journalists-fight-back-against-disinformation/
https://www.argentina.gob.ar/noticias/el-presidente-milei-presento-el-nuevo-departamento-federal-de-investigaciones-dfi-corazon