El día de la fecha, y al momento de escribir este artículo, se está llevando a cabo la elección de legisladores en la Ciudad Autónoma de Buenos Aires (CABA), Argentina . No obstante, este no es el motivo principal de este escrito, sino que el disparador del mismo es lo acontecido el día de ayer en el marco de las mismas, cuyo hecho paso a resumir, para entrar en contexto:
- Se dirimen la mayoría en la legislatura porteña 3 espacios mayoritarios, el bloque al que pertenece el presidente (La Libertad Avanza - LLA), el bloque al que pertenece el actual Intendente de la CABA (Propuesta Republicana - PRO) y el bloque opositor (Es Ahora Buenos Aires-EABA).
- Las elecciones en la Legislatura de CABA tomaron gran relevancia a nivel nacional, al punto que en la Campaña de los legisladores se están dirimiendo el "poder" el actual Presidente (LLA) y el Ex-Presidente, Mauricio Macri (PRO).
- En este contexto, el Ex-Presidente Mauricio Macri ha hecho apariciones públicas en múltiples medios, llamando a votar a la candidata de su partido, el PRO. Sin embargo, el día de ayer, apareció un video en redes sociales, en las cuales "bajaba" la candidatura de su Legisladora y llamaba a votar al candidato de LLA, para evitar la victoria del candidato del partido EABA. El mismo, fue creado por medio del uso de la Inteligencia Artificial.
- El hecho fue denunciado por el PRO ante la Justicia Electoral y la misma resolvió que la red social X elimine las publicaciones con el video de Mauricio Macri hecho con IA. Desde ese espacio político cuestionaron el hecho de que un video falso sea utilizado para influir en la elección de los votantes.
Si bien, este hecho está siendo noticia en Argentina, no es algo novedoso, sino más bien ejemplifica una tendencia cada vez más preocupante en lo que refiere al uso ético de la IA. Los videos con edición no son algo reciente, pero las tecnologías que utilizan clonación de voz, o que permiten sincronizar el movimiento de los labios, se fueron tornando cada vez más común, y aunque pueden usarse con una finalidad de recreación, también pueden ser utilizados con fines maliciosos. De esta manera, podemos encontrar antecedentes a esta situación, en lo siguiente:
- En el año 2017, investigadores de la Universidad de Washington lograron crear un video digital del expresidente de EE.UU., Barack Obama, en el que dice con su voz muchos de sus logros presidenciales. Tras analizar millones de fotogramas de vídeo de archivo, revisar las formas de la boca y los patrones de sonido, el programa pudo producir simulaciones altamente realistas.
- Desde el año 2022, en ocasión de la invasión Rusa a Ucrania, se dio una campaña de desprestigio hacia las autoridades políticas y militares ucranianas, desde Rusia. Un ejemplo de ellos, aconteció días después de iniciar la invasión; agentes pro-rusos hackearon un medio televisivo y difundieron un deepfake video del Presidente Volodomir Zelensy, en donde anunciaba su renuncia y pedía que las tropas ucranianas que se rindieran ante las tropas rusas. Este hecho fue repetido en varias ocasiones, con autoridades militares y soldados ucranianos en primera línea, con el fin de influir negativamente en la población ucraniana.
Habiendo resumido la situación, y ejemplificado con otros hechos recientes, creo que estamos en posición de comenzar a hablar sobre el tema del artículo en cuestión: "Campañas de Ciberinfluencia e IA". Para ello, desarrollaremos el término, distinguiéndolo de las Campañas de Influencia tradicionales por llevarse en el ciberespacio, profundizando en las técnicas y métodos utilizados por los perpetradores de este tipo de campañas, y analizando como la IA podría ser utilizada como un medio para modificar la opinión pública.
¿Qué es una campaña de Ciberinfluencia?
Una Campaña de Ciberinfluencia (CI), es el conjunto de acciones llevadas a cabo en el ciberespacio, con el propósito de influir en un grupo humano y en sus procesos de tomas de decisiones. Esto representa una evolución de las tradicionales operaciones de influencia al entorno digital, tomando provecho del mundo hiperconectado, la circulación irrestricta de la información, y la evolución en las técnicas para moldear opiniones y comportamientos.
Aunque los medios hayan cambiado, los objetivos de las operaciones de influencia siguen siendo los mismos de siempre: controlar narrativas, modificar percepciones y guiar comportamientos. Pero en el entorno digital, estos objetivos se vuelven más sofisticados y se adaptan a diferentes niveles:
- Construir narrativas: Se trata de reforzar una visión del mundo. Puede ser una ideología política, un relato identitario o incluso una visión favorable de un gobierno o líder. Estas narrativas se propagan a través de campañas bien diseñadas que apelan a valores culturales, emociones o símbolos colectivos.
- Disrumpir el discurso existente: En este caso, el objetivo es erosionar la confianza en las instituciones, generar confusión o polarizar el debate público. Las operaciones disruptivas suelen centrarse en temas delicados —como inmigración, seguridad o economía— para dividir a la población y paralizar la toma de decisiones colectivas.
- Distraer del problema real: A veces, el objetivo no es construir ni destruir, sino simplemente desviar la atención. Estas operaciones suelen saturar el espacio informativo con noticias irrelevantes o escandalosas para evitar que temas importantes reciban atención o escrutinio.
Estas acciones no operan en un vacío. Están cuidadosamente pensadas para afectar tanto a grandes grupos como a personas clave en momentos específicos —por ejemplo, en vísperas de elecciones o durante una crisis social.
¿Por qué es tan efectiva la ciberinfluencia?
La efectividad de la CI radica en las características del entorno digital:
- Accesibilidad: Hoy, cualquier persona con conocimientos básicos puede lanzar una campaña de influencia. Desde memes hasta bots automatizados, las herramientas están al alcance de todos —y muchas veces, gratis.
- Velocidad y alcance masivo: Las redes sociales permiten que un contenido se vuelva viral en minutos. Esta velocidad supera por mucho a los métodos tradicionales de propaganda, como los medios impresos o la televisión. No es de extrañar que, en base a esto, es que las campañas de influencia hayan migrado hacia el entorno ciberespacial.
- Targeting: Gracias a la recopilación de datos personales, los mensajes pueden ser ajustados a las características psicológicas de cada individuo, lo que permite aplicar una acción más directa y efectiva, apelando a emociones profundas como el miedo, la ira o el orgullo. Asimismo, se pueden definir objetivos, o audiencias objetivos, como mayor precisión.
- Ambigüedad y anonimato: Es difícil rastrear el origen de una campaña digital. Esto permite que actores estatales y no estatales operen sin asumir responsabilidades, disfrazando sus acciones como movimientos ciudadanos espontáneos o debates genuinos.
Por otra parte, las CI buscan exacerbar el comportamiento humano, e incrementar su difusión mediante la explotación de la tendencia natural humana de compartir información que confirma sus ideas (sesgo de confirmación). De esta forma buscan crear viralidad e incrementar su alcance.
Operaciones sociales de ciberinfluencia (CeSIOs).
Las operaciones sociales de ciberinfluencia, también conocidas como CeSIOs (Cyber-enabled Social Influence Operations), buscan manipular la información y el comportamiento de las personas, apelando a sus emociones, creencias y dinámicas sociales. Es, en esencia, una guerra cognitiva.
Para ello, los perpetradores de este tipo de campañas se valen de herramientas que ya usamos a diario:, como redes sociales, motores de búsqueda, publicidad personalizada, memes, videos y noticias virales, entre otros. De esta forma es difícil discernir entre una campaña de ciberinfluencia y el flujo corriente de información. Ese es uno de los aspectos fundamentales para comprender su eficacia.
Entre los métodos y técnicas más utilizados en las CeSIOs se encuentran:
- Microtargeting: mediante la recopilación masivas de datos personales, y de uso de tecnologías, se pueden crear perfiles psicológicos de la audiencia, para enviar mensajes adaptados a las emociones y motivaciones de cada individuo. Un ejemplo de esto, es el caso de Cambridge Analytica.
- Desinformación y fake news: se difunden intencionalmente contenidos erróneos, sacados de contexto o completamente fabricados para generar confusión, reforzar sesgos o desacreditar adversarios.
- Bots y Fake Accounts: se usan perfiles automatizados para amplificar mensajes, hacerlos tendencia o simular consenso. De esta manera, una opinión minoritaria puede parecer mayoritaria y condicionar el debate público.
- Relaciones parasociales: los influencers —reales o creados artificialmente— juegan un rol clave. Al tener seguidores que los consideran cercanos o confiables, pueden ser vehículos eficaces para insertar mensajes políticos o ideológicos sin despertar sospechas.
- Astroturfing y manipulación del consenso: se crean campañas que aparentan ser movimientos ciudadanos espontáneos cuando en realidad están coordinadas por actores con intereses ocultos. Su objetivo es dar una imagen de naturalidad y espontaneidad de los temas abordados.
- Creación de "burbujas de información": los algoritmos de plataformas como Facebook, YouTube o TikTok tienden a mostrar contenido alineado con lo que ya pensamos, lo que fortalece nuestras creencias y nos aísla de perspectivas diferentes. Esto facilita la polarización y dificulta el diálogo.
- Uso de "villages Potemkin": creación de sitios web, medios falsos, ONGs ficticias o institutos de investigación fantasmas para dar apariencia de legitimidad a una narrativa. Son fachadas cuidadosamente diseñadas para simular credibilidad.
En muchos casos, este tipos de acciones se encuentran en una "zona gris" entre lo legal y lo ilegal, y reflejan una aplicación maliciosa del conjunto de inteligencia social y datos. De esta forma, hemos podido ver como las Operaciones de Ciberinfluencia constituyen un arma poderosa para moldear realidades y opiniones.
¿Cómo está cambiando estas operaciones la Inteligencia Artificial?
Cómo ya es de conocimiento general, la IA es mucho mejor que el humano en muchas tareas. En este contexto, la IA es mucho más eficiente para analizar, producir y adaptar contenido con una rapidez y precisión que ningún equipo humano podría igualar. Por esto, la combinación del poder computacional que ofrece la IA, con la creatividad de actores maliciosos, representa un gran riesgos, sobre todo si estos se combinan para las Campañas de CI.
Una IA, en el marco de una CI permite actuar de diferentes maneras, por ejemplo:
- Se puede emplear para la redacción de mensajes y publicaciones persuasivas, que se adapten a las diferentes audiencias, con diferentes tonos y abordando diferentes temáticas, de modo que suenen convincentes. Ya no se trata de enviar el mismo mensaje a millones de personas, sino de personalizar el mensaje para cada audiencia, apelando a sus valores, miedos, intereses o creencias.
- Cuando la IA se conecta con herramientas automatizadas —como bots o sistemas de análisis en tiempo real— puede participar en dinámicas de influencia que simulan espontaneidad. Es decir, se pueden producir miles de variaciones de un mismo mensaje, diseminarlas en redes sociales, replicarlas a través de cuentas falsas o incluso intervenir en conversaciones en foros, comentarios y grupos cerrados. Todo esto sin que el usuario promedio lo perciba como artificial. Esto hace que las campañas sean más creíbles y difíciles de distinguir de la actividad real.
- Deepfakes, videos manipulados con IA, clonación de voz y otras alteraciones de imágenes en los que figuras públicas aparentan decir cosas que jamás dijeron, o construir perfiles falsos que interactúan de forma convincente con otros usuarios, permiten desdibujar la línea que separa lo real de lo ficticio. De esta forma las emociones pueden ser manipuladas con una eficacia sin precedentes, como es el caso del ejemplo que motiva este artículo.
- La IA también puede trabajar en la detección de tendencias, emociones y puntos de conflicto en redes sociales. Por ejemplo: Identificar temas sensibles para explotarlos, detectar "picos" emocionales y lanzar mensajes justo en ese momento y segmentar audiencias según su predisposición a ser persuadidas o radicalizadas.
- Con modelos de IA más avanzados, una IA puede sostener conversaciones completas haciéndose pasar por un votante común, un periodista independiente, un activista de derechos, un usuario indignado, o incluso un colaborador en la redacción de un artículo de blog (Ver nota a pie de página)
Conclusión.
Habiendo recorrido la definición y los alcances de lo que implica una campaña de Ciberinfluencia (CI), así como una orientación sobre los usos plausibles de la inteligencia artificial en este tipo de operaciones, cabe repensar cuán vulnerables somos, como sociedad digital, frente a estas estrategias.
El hecho que dispara este artículo, es una muestra de como la Inteligencia Artificial puede ser usada para moldear la opinión pública, poner en tendencia un tema y desinformar. Como éste ejemplo hay muchos, y los seguirá habiendo, nadie esta exento de recibir un video de Messi pidiendo ayuda para llegar a fin de mes, o de "influencers" recomendando plataformas de inversión. El hecho es que este tipo de acciones son cada vez más comunes, y sus objetivos tan variados como sus creadores lo deseen.
Una de las capacidades que distingue a una persona de una IA es precisamente el pensamiento crítico. Esta habilidad es fundamental para sobrevivir —y decidir— en un entorno hiperconectado. Nos permite analizar con profundidad la información que recibimos, evaluar la evidencia, detectar falacias y considerar otras perspectivas antes de tomar decisiones. En otras palabras, nos permite conservar nuestra autonomía intelectual.
Por otra parte, la inteligencia artificial viene a facilitar una infinidad de tareas para las cuales los seres humanos no siempre estamos preparados o capacitados. Pero eso no significa que debamos desconfiar de los algoritmos por completo, ni mucho menos evitarlos. Significa que debemos usarlos con responsabilidad, conciencia y, sobre todo, con información adecuada, comprendiendo que la IA, como tantas otras tecnologías, puede ser usada tanto para el bien. como para el mal.
Comprender el entorno digital en el que desarrollamos nuestras actividades cotidianas es el primer paso para fortalecer una forma de pensamiento libre de intenciones maliciosas de terceros. Y en ese sentido, fomentar la alfabetización digital y el pensamiento crítico no es una opción: es una necesidad urgente.
NOTAS.
- Este artículo no pretende ser un artículo político, ni deslizar ningún tipo de posicionamiento ideológico, sino que pretende ser una reflexión, a partir de hechos de público conocimiento, sobre los riesgos a los que nos enfrentamos como parte de una sociedad digital.
- Este artículo refleja una posición personal, no así las ideas del blog ni de sus integrantes.
- La sección "¿Cómo está cambiando estas operaciones la Inteligencia Artificial? ", fue redactada con ayuda de la Inteligencia Artificial, porqué:¿Quién mejor que una IA para decirme qué puede hacer una IA?
Bibliografía.
Sean Cordey, "Cyber Influence Operations: An Overview and Comparative Analysis", Zurich, Octubre 2019