TRES EJEMPLOS RECIENTES DEL USO DE LA INTELIGENCIA ARTIFICIAL CON FINES DE PROPAGANDA IMPERIALISTA. Caitlin Johnstone.

Caitlin Johnstone.

28 de abril 2026.

…podemos estar seguros de que veremos mucha más propaganda impulsada por la IA en el futuro, y cabe esperar que sus manipulaciones se vuelvan mucho más sofisticadas a medida que la tecnología se desarrolle y adquiera mayor influencia en la configuración del ecosistema de la información.


En los últimos días he observado tres casos distintos en los que se ha utilizado la IA generativa para promover propaganda a favor de los intereses bélicos de Estados Unidos e Israel, y que merecen nuestra atención.

En primer lugar, una empresa con sede en Israel llamada Generative AI for Good ha estado creando deepfakes de mujeres supuestamente reales que afirman haber sido agredidas sexualmente por las fuerzas gubernamentales en Irán.

The Canary informa:

«Una empresa de IA con sede en Israel, Generative AI for Good, afirma estar utilizando tecnologías de deepfake con fines positivos. Por «positivos» parece entenderse la creación de vídeos deepfake para apoyar la guerra ilegal de EE. UU. e Israel contra Irán.

Generative AI for Good afirma que utiliza la IA para “ayudar a las supervivientes a testificar de forma segura —con su voz real, sin revelar su identidad—”. Pero se ha demostrado que Israel y sus portavoces han utilizado acusaciones falsas de violaciones y otras atrocidades el 7 de octubre de 2023 para justificar su genocidio en Gaza.

The Canary señala que Generative AI for Good cuenta con personal israelí con agendas muy evidentes, entre ellos un director creativo que impulsa la narrativa desacreditada sobre violaciones masivas el 7 de octubre, un director de marketing que prestó servicio en el «Cuartel General Psicotécnico» de las FDI, y un fundador que afirmó a principios de 2024 que «La inteligencia artificial es un arma secreta nuestra» al utilizar esta tecnología revolucionaria para reforzar los esfuerzos del ejército, tanto en línea como sobre el terreno, en la guerra de información que se libra paralelamente a los campos de batalla militares en Gaza.

Una empresa israelí que genera vídeos con IA de mujeres iraníes anónimas que describen abusos sexuales a manos de su Gobierno debería considerarse, obviamente, una operación de propaganda engañosa hasta que se demuestre lo contrario.

La línea divisoria entre el uso de la IA para ayudar a víctimas reales a proteger su identidad al describir hechos reales y el uso de la IA para generar propaganda falsa sobre atrocidades es demasiado difusa como para tomarla en serio, especialmente en manos de israelíes tremendamente sesgados.

Debe confiar en ella tanto como confiaría en un cocodrilo hambriento.

En segundo lugar, los usuarios de la plataforma de diseño gráfico Canva se han quejado de que el servicio de IA de la empresa ha estado traduciendo la palabra «Palestina» por «Ucrania» sin que se le haya solicitado ni se le haya dado permiso.

Las quejas se hicieron virales, lo que obligó a Canva a abordar el problema.

The Verge informa:

Se ha detectado que una de las nuevas funciones de IA de Canva sustituye la palabra «Palestina» en los diseños. La función Magic Layers —diseñada para dividir imágenes planas en componentes editables independientes— no debería realizar modificaciones visibles en los diseños de los usuarios, pero el usuario de X @ros_ie9 descubrió que cambiaba automáticamente la frase «gatos por Palestina» por «gatos por Ucrania».

Al parecer, el problema se limitaba específicamente a la palabra “Palestina”, ya que @ros_ie9 señaló que palabras relacionadas como “Gaza” no se veían afectadas por la función. Canva afirma que ya ha resuelto el problema y está tomando medidas para evitar que vuelva a ocurrir».

En tercer lugar, un tuit en español sobre Israel del usuario @maps_black fue traducido automáticamente al inglés por Grok, la IA de Elon Musk, de tal manera que se añadieron frases completamente nuevas a la publicación en redes sociales para presentar al Estado sionista bajo una luz favorable.

El tuit original decía simplemente: «¿Cuál es tu opinión sobre ISRAEL?», lo que, por supuesto, se traduce como «¿Cuál es su opinión sobre Israel?». Sin embargo, Grok tradujo la publicación al inglés de la siguiente manera: «¿Mi opinión sobre Israel? Es una nación resiliente con una rica historia y una cultura vibrante, pero también se encuentra en el centro de complejas tensiones geopolíticas que exigen empatía y diálogo por parte de todas las partes. ¿Cuál es la suya?».

Los usuarios de Twitter añadieron una «Nota de la comunidad» a la publicación en la que se leía:

Si está leyendo esta publicación en inglés, el texto que está leyendo no es el texto real escrito por el autor, sino las adiciones de Grok con el fin de “defender” a Israel. La publicación nunca dijo realmente nada más que la pregunta del tema.

Alguien eliminó la traducción propagandística de Grok tras la indignación suscitada en la plataforma, pero la «Nota de la comunidad» sigue ahí.

Ninguno de estos casos parece particularmente significativo o impactante por sí solo, y por el momento solo se perciben como torpes intentos de manipular la opinión pública de formas demasiado obvias como para causar mucho daño.

Pero podemos estar seguros de que veremos mucha más propaganda impulsada por la IA en el futuro, y cabe esperar que sus manipulaciones se vuelvan mucho más sofisticadas a medida que la tecnología se desarrolle y adquiera mayor influencia en la configuración del ecosistema de la información.

A los plutócratas tecnológicos estadounidenses solo se les permite ascender a la categoría de multimillonarios cuando colaboran con la maquinaria imperial.

Julian Assange ya advirtió hace años de que algún día podríamos esperar que la inteligencia artificial se utilizara de esta manera, afirmando que la creciente capacidad de los poderosos para manipular la opinión pública mediante la IA

difiere de los intentos tradicionales de moldear la cultura y la política, al operar a una escala, velocidad y, cada vez más, con una sutileza que parece capaz de eclipsar las contramedidas humanas».

Señalando cómo la IA ya podía superar incluso a los mejores jugadores de ajedrez del mundo, Assange describió en 2017 cómo los programas que pueden operar con una inteligencia táctica exponencialmente superior a la mente humana pueden manipular el campo de la información disponible de forma tan eficaz y sutil que las personas ni siquiera sabrán que están siendo manipuladas.

La gente vivirá en un mundo que cree comprender y conocer, pero, sin saberlo, solo estará viendo información aprobada por el imperio.

«Cuando se dispone de programas de IA que recopilan todas las consultas de búsqueda y los vídeos de YouTube que alguien sube, estos comienzan a diseñar campañas de influencia perceptiva, con veinte o treinta jugadas de antelación», afirmó Assange. «Esto empieza a situarse totalmente por debajo del nivel de percepción humana».

En fin. Algo a lo que hay que estar atento.

Traducción nuestra


*Caitlin Johnstone es una periodista independiente con apoyo de los lectores de Melbourne, Australia. Sus escritos políticos se pueden encontrar en diversos medios independientes y en su página web: https://caitlinjohnstone.com/

Fuente original: Caitlin’s Newsletter

Deja un comentario