Leslie Alan Horvitz.
Foto: Las armas autónomas ya están cambiando la faz de la guerra. Imagen: X Screengrab
17 de mayo 2025.
Las armas autónomas y la guerra cognitiva están remodelando la estrategia militar mundial y ya determinan quién gana y quién pierde
En la película de 1983 Juegos de guerra, un superordenador conocido como WOPR (por War Operation Plan Response) está a punto de provocar una guerra nuclear entre Estados Unidos y la Unión Soviética, pero gracias al ingenio de un adolescente (interpretado por Matthew Broderick), se evita la catástrofe.
En la primera película de Terminator, estrenada un año después, un superordenador llamado «Skynet» decide exterminar a la humanidad porque la percibe como una amenaza para su existencia, en lugar de proteger las armas nucleares estadounidenses.
Aunque estas películas ofrecían al público escenarios sombríos de máquinas inteligentes desbocadas, también eran proféticas. La inteligencia artificial (IA) es tan común que se aplica de forma rutinaria durante una simple búsqueda en Google. Que también se esté integrando en las estrategias militares no es ninguna sorpresa.
Lo que ocurre es que apenas conocemos la capacidad de estas armas de alta tecnología (las que ya están listas para su uso y las que están en desarrollo). Tampoco estamos preparados para sistemas que tienen la capacidad de transformar la guerra para siempre.
A lo largo de la historia, ha sido la inteligencia humana que utiliza la tecnología, y no la tecnología en sí, la que ha ganado o perdido las guerras. Eso puede cambiar en el futuro cuando la inteligencia humana se centre en cambio en crear sistemas más capaces en el campo de batalla que los del adversario.
«Sorpresa exponencial e insuperable»
La inteligencia artificial no es una tecnología que pueda detectarse, controlarse o prohibirse fácilmente, como señaló Amir Husain, fundador y director general de una empresa de IA, SparkCognition, en un ensayo para Media News.
La integración de elementos de IA -reconocimiento visual, análisis del lenguaje, predicción basada en la simulación y formas avanzadas de búsqueda- con las tecnologías y plataformas existentes «puede producir rápidamente capacidades totalmente nuevas e imprevistas». El resultado «puede crear una sorpresa exponencial e insuperable», escribe Hussain.
La tecnología avanzada en la guerra ya está muy extendida. El uso de vehículos aéreos no tripulados (UAV) -comúnmente conocidos como drones- en entornos militares ha disparado las advertencias sobre los «robots asesinos».
¿Qué ocurrirá cuando los drones dejen de estar controlados por humanos y puedan ejecutar misiones militares por sí solos? Estos drones no se limitan al aire; también pueden operar en tierra o bajo el agua. La introducción de la IA, que confiere a estas armas la capacidad de autonomía, no está lejos.
Además, son baratos de producir y baratos de comprar. Los rusos están comprando drones a Irán para utilizarlos en su guerra en Ucrania, y los ucranianos han estado montando una industria artesanal construyendo drones propios contra los rusos.
La relativa facilidad con la que un dron comercial puede convertirse en uno con una aplicación militar también difumina la línea que separa las empresas comerciales de las militares. En este punto, sin embargo, los humanos siguen al mando.
Un problema similar puede observarse en los sistemas de recopilación de información que tienen doble uso, incluidos los satélites, los aviones tripulados y no tripulados, los radares terrestres y submarinos y los sensores, todos los cuales tienen aplicaciones tanto comerciales como militares.
La IA puede procesar grandes cantidades de datos procedentes de todos estos sistemas y luego discernir patrones significativos, identificando cambios que los humanos nunca notarían. Las fuerzas estadounidenses se vieron bloqueadas hasta cierto punto en las guerras de Irak y Afganistán porque no podían procesar grandes cantidades de datos.
Incluso ahora, los UAV pilotados a distancia utilizan la IA para el despegue, el aterrizaje y el vuelo rutinario autónomos. Lo único que les queda por hacer a los operadores humanos es concentrarse en las decisiones tácticas, como la selección de los objetivos de ataque y la ejecución de los ataques.
La IA también permite a estos sistemas operar con rapidez, determinando acciones a velocidades que rara vez son posibles si los humanos forman parte del proceso de toma de decisiones. Hasta ahora, la velocidad en la toma de decisiones ha sido el aspecto más importante de la guerra. I
Sin embargo, si los sistemas de IA se enfrentan cara a cara con los humanos, la IA saldrá invariablemente ganando. Sin embargo, la posibilidad de que los sistemas de IA eliminen el factor humano aterroriza a la gente que no quiere ver cómo un escenario apocalíptico en el celuloide se hace realidad.
Automatizado frente a autónomo
Hay que distinguir entre el término «autónomo» y el término «automatizado». Si nosotros controlamos el dron, entonces el dron está automatizado. Pero si el dron está programado para actuar por iniciativa propia, diríamos que es autónomo. Pero, ¿el arma autónoma describe el arma en sí -es decir, un misil en un dron- o el propio dron?
Tomemos, por ejemplo, el UAV militar Global Hawk(avión no tripulado). Está automatizado en la medida en que está controlado por un operador en tierra y, sin embargo, si pierde la comunicación con tierra, el Golden Hawk puede aterrizar por sí solo. ¿Eso lo convierte en automatizado o autónomo? ¿O es ambas cosas?
La cuestión más importante es si el sistema es crítico para la seguridad. Traducido, eso significa si tiene capacidad de decisión para utilizar un arma contra un objetivo sin intervención de su operador humano.
Es posible, por ejemplo, que un dron ataque por sí solo un objetivo militar estático (como una base militar enemiga) pero no un objetivo humano por temor a que civiles inocentes puedan resultar heridos o muertos como daños colaterales. Muchos países ya han desarrollado drones con imágenes en tiempo real capaces de actuar de forma autónoma en el primer caso, pero no cuando se trata de objetivos humanos.
Los drones no son las únicas armas que pueden actuar de forma autónoma. EE.UU., China y varios países europeos están desarrollando sistemas militares que pueden actuar de forma autónoma en el aire, en tierra, en el agua y bajo el agua con diversos grados de éxito.
En EE.UU., Europa y China se están desarrollando varios tipos de helicópteros autónomos diseñados para que un soldado pueda dirigirlos sobre el terreno con un smartphone. También se están desarrollando vehículos terrestres autónomos, como tanques y vehículos de transporte, y vehículos submarinos autónomos.
Sin embargo, en casi todos los casos, los organismos que desarrollan estas tecnologías tienen dificultades para dar el salto del desarrollo a la aplicación operativa.
Hay muchas razones que explican la falta de éxito a la hora de hacer madurar estas tecnologías, entre ellas el coste y los problemas técnicos imprevistos, pero igualmente problemáticas son las barreras organizativas y culturales. Estados Unidos, por ejemplo, ha tenido dificultades para llevar los UAV autónomos al estado operativo, principalmente debido a luchas internas en la organización y a la priorización en favor de las aeronaves tripuladas.
El futuro guerrero
En el campo de batalla del futuro, los soldados de élite podrán contar con una pantalla en la cabeza que les proporcione una gran cantidad de información recopilada y enrutada a través de superordenadores que lleven en sus mochilas mediante un motor de IA.
Con la IA, los datos se analizan al instante, se racionalizan y se vuelven a introducir en la pantalla frontal. Este es uno de los muchos escenarios potenciales presentados por los funcionarios del Departamento de Defensa de Estados Unidos. El Pentágono ha adoptado un concepto relativamente sencillo: el «operador hiperhabilitado«.
El objetivo de este concepto es dotar a las Fuerzas Especiales de «overmatch cognitivo» en el campo de batalla, o «la capacidad de dominar la situación tomando decisiones informadas más rápidamente que el adversario». En otras palabras, podrán tomar decisiones basadas en la información que reciben más rápidamente que su enemigo.
El modelo de toma de decisiones para los militares se llama «bucle OODA» por «observar, orientar, decidir, actuar». Para ello se utilizarán ordenadores que registren todos los datos relevantes y los destilen en información procesable a través de una interfaz sencilla como un «head-up display».
Esta pantalla también ofrecerá un sistema de «traducción del entorno visual» diseñado para convertir las entradas en idiomas extranjeros en un inglés claro en tiempo real. Conocido como VITA, el sistema engloba tanto un esfuerzo de traducción del entorno visual como capacidades de traducción de voz a voz. El motor de traducción permitirá al operador «entablar conversaciones eficaces donde antes era imposible».
VITA, acrónimo de Versatile Intelligent Translation Assistant, ofrece a los usuarios capacidades lingüísticas en ruso, ucraniano y chino, incluido el mandarín, un dialecto chino. Los operadores podrían utilizar sus teléfonos inteligentes para escanear una calle en un país extranjero, por ejemplo, y obtener inmediatamente una traducción de las señales de la calle en tiempo real.
Sistemas de IA adversarios
Los expertos militares dividen los ataques adversarios en cuatro categorías: evasión, inferencia, envenenamiento y extracción. Estos tipos de ataques son fáciles de realizar y a menudo no requieren conocimientos informáticos.
Un enemigo que lleve a cabo ataques evasivos podría intentar engañar a un arma de IA para evitar su detección: ocultando un ciberataque, por ejemplo, o convenciendo a un sensor de que un tanque es un autobús escolar. Esto podría requerir el desarrollo de un nuevo tipo de camuflaje de la IA, como la colocación estratégica de cintas, que pueda engañar a la IA.
Los ataques de inferencia se producen cuando un adversario adquiere información sobre un sistema de IA que le permite utilizar técnicas evasivas. Los ataques de envenenamiento se dirigen a los sistemas de IA durante el entrenamiento, interfiriendo en el acceso a los conjuntos de datos utilizados para entrenar las herramientas militares -etiquetando erróneamente imágenes de vehículos para engañar a los sistemas de puntería, por ejemplo, o manipulando los datos de mantenimiento diseñados para clasificar un fallo inminente del sistema como una operación regular.
Los ataques de extracción aprovechan el acceso a la interfaz de la IA para aprender lo suficiente sobre su funcionamiento como para crear un modelo paralelo del sistema. Si los sistemas de IA no están protegidos de usuarios no autorizados, los usuarios de un adversario podrían predecir las decisiones tomadas por esos sistemas y utilizar esas predicciones en su beneficio.
Por ejemplo, podrían predecir cómo responderá un sistema no tripulado controlado por IA a estímulos visuales y electromagnéticos específicos y, a continuación, proceder a alterar su ruta y comportamiento.
Los ataques engañosos son cada vez más frecuentes, como ilustran los casos de algoritmos de clasificación de imágenes que son engañados para que perciban imágenes que no existen, confundan el significado de las imágenes y confundan una tortuga con un rifle, por ejemplo. Del mismo modo, los vehículos autónomos podrían verse obligados a desviarse hacia el carril equivocado o saltarse a toda velocidad una señal de stop.
En 2019, China anunció una nueva estrategia militar, Intelligentized Warfare , que utiliza la IA. Oficiales del Ejército Popular de Liberación chino han declarado que sus fuerzas pueden superar al ejército estadounidense utilizando la IA. Una de sus intenciones es utilizar este tipo de guerra de alta tecnología para poner Taiwán bajo su control sin librar una guerra convencional.
Sin embargo, sólo unos pocos de los muchos estudios chinos sobre la guerra inteligente se han centrado en la sustitución de las armas por la IA. Por otra parte, los estrategas chinos no han ocultado su intención de controlar directamente la voluntad del enemigo.
Eso incluiría al presidente estadounidense, a los miembros del Congreso, a los mandos combatientes y a los ciudadanos. El «dominio de la inteligencia» -también conocido como guerra cognitiva o «control del cerebro»- se considera el nuevo campo de batalla en la guerra inteligentizada, dando a la IA un uso muy diferente del que han previsto la mayoría de los debates estadounidenses y aliados.
Según el informe 2022 del Pentágono sobre los avances militares chinos, el Ejército Popular de Liberación está siendo entrenado y equipado para utilizar sensores y redes informáticas habilitados por la IA para «identificar rápidamente vulnerabilidades clave en el sistema operativo estadounidense y luego combinar fuerzas conjuntas en todos los dominios para lanzar ataques de precisión contra esas vulnerabilidades.»
Controlar la mente de un adversario puede afectar no sólo a sus percepciones del entorno sino, en última instancia, a sus decisiones. Para el Ejército Popular de Liberación, la guerra cognitiva es igual a los demás dominios del conflicto, que son el aire, la tierra y el mar. En ese sentido, los medios sociales se consideran un campo de batalla clave.
Rusia también ha estado desarrollando su propia capacidad de IA. Ya en 2014, los rusos inauguraron un Centro de Control de Defensa Nacional en Moscú, un puesto de mando centralizado para evaluar y responder a las amenazas globales. El centro fue diseñado para recopilar información sobre los movimientos del enemigo a partir de múltiples fuentes y proporcionar a los oficiales superiores orientación sobre las posibles respuestas.
Rusia ha declarado que acabará desarrollando un sistema de IA capaz de dirigir el mundo. Los rusos ya están utilizando la IA en Ucrania para interferir las señales inalámbricas que conectan los drones ucranianos a los satélites de los que dependen para la navegación, haciendo que las máquinas pierdan el rumbo y caigan en picado a la Tierra.
El Ministerio de Defensa ruso (MOD) ha explorado formas de desarrollar sistemas de IA para sistemas no tripulados para los dominios aéreo, marítimo y terrestre. Al mismo tiempo, al menos a corto plazo, la política oficial se basa en la creencia de que los humanos deben permanecer firmemente en el bucle.
Mientras tanto, los rusos intentan mejorar las capacidades de los UAV con IA como mecanismo de mando, control y comunicaciones. El Ministerio de Defensa también hace hincapié en el uso de la IA para la recopilación y el análisis de datos como una evolución natural de la actual tecnología de combate «digital» y el desarrollo de sistemas.
«Centinela Cuervo La IA en la guerra de EE.UU. en Afganistán
El uso de la IA en el campo de batalla por parte de la inteligencia estadounidense, aunque breve, mostró resultados prometedores. «Raven Sentry», una herramienta de IA lanzada en 2019 por un equipo de oficiales de inteligencia estadounidenses (conocido como el «armario de los empollones»), con ayuda de expertos de Silicon Valley, tenía como objetivo prever los ataques de los insurgentes.
El uso inicial de la IA se produjo en un momento en el que las bases estadounidenses estaban cerrando, el número de tropas disminuía y los recursos de inteligencia se desviaban. Raven Sentry se basaba en datos de fuentes abiertas.
«Nos dimos cuenta de la oportunidad que suponía el aumento del número de satélites comerciales y la disponibilidad de noticias en Internet, la proliferación de publicaciones en las redes sociales y las aplicaciones de mensajería con un número masivo de miembros», afirma el coronel Thomas Spahr, jefe de personal de la misión de inteligencia Resolute Support J2 en Kabul (Afganistán) de julio de 2019 a julio de 2020.
La herramienta de IA también se basó en patrones históricos basados en las actividades insurgentes en Afganistán de hace 40 años, que abarcaron la ocupación soviética del país en la década de 1980. También se tuvieron en cuenta los factores medioambientales.
«Históricamente, los insurgentes atacan en determinados días del año o festivos, por ejemplo, o durante ciertas condiciones meteorológicas y de iluminación», señala Spahr. Y añade: «Lo bueno de la IA es que sigue actualizando esa plantilla. La máquina aprendería a medida que absorbiera más datos».
Antes de su desaparición en 2021 (con la retirada estadounidense de Afganistán), Raven Sentry había demostrado su viabilidad, prediciendo un ataque insurgente con una precisión del 70%. La herramienta de IA predijo que era más probable que se produjeran ataques cuando la temperatura era superior a 4 grados Celsius (o 39,2 grados Fahrenheit), cuando la iluminación lunar era inferior al 30% y cuando no llovía.
Spahr se mostró satisfecho con los resultados: «Validamos que la información no clasificada producida comercialmente puede producir inteligencia predictiva».
Ucrania como campo de pruebas de la IA
Desde la invasión rusa, lanzada en 2022, Ucrania se ha convertido en un campo de pruebas para la IA en la guerra. Superadas en armamento y personal, las fuerzas ucranianas han recurrido a la improvisación, manipulando dispositivos comerciales para transformarlos en armas autónomas letales. Los invasores rusos también han empleado la IA, llevando a cabo ciberataques y sistemas de interferencia del GPS.
Los cuadricópteros Saker Scout de Ucrania «pueden encontrar, identificar y atacar 64 tipos de ‘objetos militares’ rusos por sí solos». Estos drones están diseñados para funcionar de forma autónoma y, a diferencia de otros drones que han desplegado las fuerzas ucranianas, Rusia no puede interferirlos.
Utilizando códigos encontrados en Internet y ordenadores de aficionado como el Raspberry Pi, que se consiguen fácilmente en ferreterías, los ucranianos son capaces de construir innovadores robots asesinos. Aparte de los drones, que pueden manejarse con un smartphone, los ucranianos han construido una torreta artillera con puntería autónoma que se maneja con el mismo mando que utiliza una PlayStation o una tableta.
El arma, llamada Wolly por su parecido con el robot de Pixar WALL-E, puede fijarse automáticamente en un objetivo situado a una distancia de hasta 1.000 metros y cambiar entre posiciones preprogramadas para cubrir rápidamente una amplia zona.
El fabricante también está desarrollando un arma capaz de alcanzar objetivos en movimiento. Puede identificar automáticamente los objetivos a medida que se acercan por el horizonte. El arma apunta y apunta automáticamente; lo único que le queda por hacer al operador es pulsar el botón y disparar.
Muchos drones ucranianos, que se parecen a los que se pueden encontrar en Walmart, se llaman drones de visión en primera persona (FPV). Capaces de volar a 160 kilómetros por hora, los drones FPV tienen cuatro hélices y una cámara montada que utiliza tecnología inalámbrica para enviar imágenes de sus vuelos a los operadores.
Con una bomba a bordo, un FPV puede convertirse en un arma capaz de derribar un tanque. También son baratos; un fabricante, Vyriy , cobra 400 dólares cada uno, un pequeño precio a pagar por inutilizar un tanque que vale millones de dólares. Vyriy deriva su nombre de una tierra mítica de los cuentos populares eslavos.
Si un zángano kamikaze es bueno, docenas de ellos son mejores en la medida en que cuanto mayor sea su número, mayor será la probabilidad de que varios alcancen sus objetivos. En la naturaleza, un enjambre de hormigas se comporta como un único organismo vivo, tanto si se trata de recolectar alimentos como de construir un nido.
De forma análoga, un enjambre de drones autónomos podría actuar como un único organismo -sin necesidad de humanos- llevando a cabo una misión independientemente de cuántos queden inutilizados o se estrellen contra el suelo o de si se interrumpe o finaliza la comunicación desde tierra.
Aunque los humanos siguen estando en el «bucle», estas armas podrían igualmente hacerse totalmente autónomas. En otras palabras, podrían decidir qué objetivos atacar sin intervención humana.
No es que Ucrania haya adoptado el armamento de IA sin experiencia en tecnología. En palabras del periodista del New York Times Paul Mozer,
Ucrania ha sido durante mucho tiempo una especie de oficina trasera para la industria tecnológica mundial.
El país ya contaba con una importante reserva de codificadores y expertos cualificados que, en condiciones de emergencia, pudieron hacer la transición de usos civiles (como una aplicación de citas) a fines militares.
Como informó Mozer: «Lo que están haciendo es tomar un código básico que existe, combinarlo con algunos datos nuevos de la guerra y convertirlo en algo totalmente diferente, que es un arma».
La realidad es que «en las grandes empresas de defensa están ocurriendo muchas cosas interesantes», afirma P.W. Singer, un autor que escribe sobre la guerra y la tecnología. «Hay un montón de cosas guays y emocionantes sucediendo en las grandes empresas tecnológicas de Silicon Valley. Hay muchas cosas geniales y emocionantes sucediendo en las pequeñas startups».
Una de esas startups más pequeñas es Anduril. Tras vender el popular casco de realidad virtual Oculus a Facebook (ahora Meta), Palmer Luckey, un emprendedor de treinta y pocos años, pasó a fundar una empresa de armas de IA que suministra drones a Ucrania.
«Ucrania es un entorno muy difícil para aprender», afirma. «He oído varias estimaciones de los propios ucranianos de que cualquier dron suele tener una vida útil de unas cuatro semanas. La pregunta es: «¿Puedes responder y adaptarte?». Anduril, que debe su nombre a una espada de «El Señor de los Anillos», ha vendido sus aparatos a diez países, entre ellos Estados Unidos.
«Tenía la creencia de que las principales empresas de defensa no tenían el talento adecuado ni la estructura de incentivos adecuada para invertir en cosas como la inteligencia artificial, la autonomía y la robótica», afirma Luckey.
El dron de su empresa, llamado ALTIUS, está pensado para ser disparado desde un tubo y desplegarse, extendiendo sus alas y su cola; después, dirigiéndose con una hélice, actúa como un avión capaz de transportar una ojiva de 30 libras.
Luckey cree que su enfoque hará que se construyan más armas de IA en menos tiempo y a un coste inferior al que podrían conseguir los contratistas de defensa tradicionales como McDonnell Douglas.
Anduril, fundada en 2017, también está desarrollando el Dive-LD, un dron que se utilizará para prospecciones en aguas litorales y profundas. «Es un vehículo submarino autónomo capaz de recorrer distancias muy, muy largas, sumergirse a una profundidad de unos 6.000 metros (casi 20.000 pies), que es lo suficientemente profunda como para ir al fondo de casi cualquier océano», dice Luckey.
Ucrania ya está fabricando sus propios drones marinos -esencialmente motos acuáticas cargadas de explosivos- que han infligido graves daños a la armada rusa en el Mar Negro.
Como admite el director general de Anduril, Brian Schimpf, la introducción de los drones de Anduril en Ucrania aún no ha producido resultados significativos, aunque cree que eso cambiará. Una vez lanzados, estos drones no requerirán la guía de un operador en tierra, lo que dificultará a los rusos destruirlos o inutilizarlos interfiriendo sus señales.
«La autonomía a bordo es realmente lo que lo diferencia», afirma Luckey. «No es un avión teledirigido. Lleva un cerebro que es capaz de buscar objetivos, identificarlos y volar hacia ellos». Sin embargo, por cada sistema de armas innovador que desarrollan los ucranianos, los rusos lo contrarrestan con un sistema que lo inutiliza.
«Las tecnologías que funcionaban muy bien incluso hace unos meses ahora tienen que cambiar constantemente», afirma Jacquelyn Schneider, que estudia la tecnología militar como becaria en la Institución Hoover. «Y la gran diferencia que veo es que el software cambia el ritmo de cambio».
La guerra en Gaza: Lavanda
En su invasión de Gaza, las Fuerzas de Defensa de Israel (IDF) han confiado cada vez más en un programa apoyado en la inteligencia artificial para apuntar a los operativos de Hamás, con consecuencias problemáticas.
Según un informe de abril de 2024 de +972 Magazine (una publicación israelí-palestina) y Local Call, un sitio de noticias en hebreo, las FDI han estado aplicando un programa conocido como «Lavender», cuya influencia en las operaciones militares es tan profunda que los oficiales de inteligencia han tratado esencialmente los resultados de la máquina de IA «como si se tratara de una decisión humana».
Lavender fue desarrollado por la unidad de élite 8200, comparable a la Agencia de Seguridad Nacional de Estados Unidos o al Cuartel General de Comunicaciones del Gobierno del Reino Unido.
El gobierno israelí ha defendido Lavender por su practicidad y eficacia.
El ejército israelí utiliza la IA para aumentar los procesos de toma de decisiones de los operadores humanos. Este uso es conforme al derecho humanitario internacional, tal y como lo aplican las Fuerzas Armadas modernas en muchas guerras asimétricas desde el 11 de septiembre de 2001, afirma Magda Pacholska, investigadora del Instituto TMC Asser y especialista en la intersección entre las tecnologías disruptivas y el derecho militar.
Los datos recogidos para identificar a los militantes que se utilizaron para desarrollar Lavender proceden de los más de 2,3 millones de residentes de la Franja de Gaza, que estaba bajo una intensa vigilancia antes de la invasión de Gaza en 2023.
El informe afirma que hasta 37.000 palestinos fueron designados como presuntos militantes que fueron seleccionados como objetivos potenciales. Las listas de asesinatos de Lavender se prepararon antes de la invasión, lanzada en respuesta al ataque de Hamás del 7 de octubre de 2023, que dejó unos 1.200 muertos y unos 250 rehenes tomados en Israel.
Un programa de IA relacionado, que rastreaba los movimientos de los individuos de la lista Lavender, se llamaba «¿Dónde está papá?». Fuentes del informe de +972 Magazine dijeron que, en un principio, «no se exigió comprobar a fondo por qué la máquina hacía esas elecciones (de objetivos) ni examinar los datos de inteligencia brutos en los que se basaban.»
Los oficiales a cargo, dijeron estas fuentes, actuaban como un «sello de goma» para las decisiones de la máquina antes de autorizar un bombardeo. Un oficial de inteligencia que habló con +972 lo admitió: «Yo invertía 20 segundos por cada objetivo en esta fase, y hacía docenas de ellos cada día. Tenía cero valor añadido como ser humano, aparte de ser un sello de aprobación. Ahorraba mucho tiempo».
Ya se sabía que el programa Lavender cometía errores en el 10% de los casos, lo que significaba que una fracción de los individuos seleccionados como objetivos podría no haber tenido ninguna conexión con Hamás ni con ningún otro grupo militante. Los ataques se producían generalmente por la noche, cuando era más probable que los individuos seleccionados estuvieran en casa, lo que suponía un riesgo de matar o herir también a sus familias.
Se creó una puntuación para cada individuo, que iba de 1 a 100, basada en lo estrechamente vinculado que estaba al brazo armado de Hamás o la Yihad Islámica. Los que obtuvieron una puntuación alta fueron asesinados junto con sus familias y vecinos, a pesar de que, al parecer, los agentes hicieron poco por verificar los objetivos potenciales identificados por Lavender, alegando razones de «eficacia».
«Esto no tiene parangón, que yo recuerde», dijo un oficial de inteligencia que utilizó Lavender, añadiendo que sus colegas tenían más fe en un «mecanismo estadístico» que en un soldado afligido. «Todo el mundo allí, incluido yo, perdió gente el 7 de octubre. La máquina lo hizo fríamente. Y eso lo hizo más fácil».
Las IDF habían utilizado anteriormente otro sistema de IA llamado «El Evangelio», descrito en una investigación anterior de la revista, así como en las propias publicaciones del ejército israelí, para apuntar a edificios y estructuras sospechosos de albergar militantes.
«El Evangelio» se basa en millones de datos, produciendo listas de objetivos más de 50 veces más rápido de lo que jamás podría hacerlo un equipo de agentes de inteligencia humanos. Se utilizó para atacar 100 objetivos al día en los dos primeros meses de los combates de Gaza, aproximadamente cinco veces más que en un conflicto similar allí hace una década. Esas estructuras de importancia política o militar para Hamás se conocen como «objetivos de poder».
Debilidades de las armas de IA
Si un arma de IA es autónoma, necesita tener capacidad de percepción precisa. Es decir, si confunde un coche civil con un objetivo militar, su índice de respuesta no es relevante. Los civiles del coche morirán a pesar de todo.
En muchos casos, por supuesto, los sistemas de IA han sobresalido en la percepción a medida que las máquinas y los algoritmos impulsados por IA se han ido perfeccionando. Cuando, por ejemplo, el ejército ruso realizó una prueba de 80 UAV que sobrevolaban simultáneamente los campos de batalla sirios con visualización unificada, el entonces ministro de Defensa ruso, Sergei Shoigu, lo comparó con una «película semifantástica» que revelaba todos los objetivos potenciales.
Pero pueden surgir problemas. Al diseñar un arma de IA, los desarrolladores primero necesitan acceder a los datos. Muchos sistemas de IA se entrenan utilizando datos que han sido etiquetados por un sistema experto (por ejemplo, etiquetando escenas que incluyen una batería de defensa antiaérea), normalmente un humano.
La capacidad de procesamiento de imágenes de una IA no funcionará bien cuando se le den imágenes que sean diferentes de su conjunto de entrenamiento; por ejemplo, imágenes producidas cuando las condiciones de iluminación son malas, que están en un ángulo obtuso o que están parcialmente oscurecidas. Los sistemas de reconocimiento de IA no entienden qué es la imagen, sino que aprenden las texturas y los gradientes de los píxeles de la imagen. Eso significa que un sistema de IA puede reconocer correctamente una parte de una imagen pero no su totalidad, lo que puede dar lugar a una clasificación errónea.
Para defender la IA mejor contra las imágenes engañosas, los ingenieros las someten a un «entrenamiento adversario». Esto consiste en alimentar a un clasificador con imágenes adversas para que pueda identificar e ignorar las que no van a ser su objetivo.
La investigación de Nicolas Papernot, estudiante de posgrado de la Universidad Estatal de Pensilvania, demuestra que un sistema, incluso reforzado por un entrenamiento adversarial, puede resultar ineficaz si se ve desbordado por la gran cantidad de imágenes. Las imágenes adversarias aprovechan una característica de muchos sistemas de IA conocida como «límites de decisión«.
Estos límites son las reglas invisibles que indican al sistema si está percibiendo un león o un leopardo. El objetivo sería crear un mapa mental con leones en un sector y leopardos en otro. La línea que divide estos dos sectores -la frontera en la que un león se convierte en leopardo o el leopardo en león- se conoce como el límite de decisión.
Jeff Clune, que también ha estudiado el entrenamiento adversarial, sigue dudando de estos sistemas de clasificación porque son demasiado arbitrarios . «Todo lo que se está haciendo con estas redes es entrenarlas para que tracen líneas entre grupos de datos en lugar de modelar en profundidad lo que es ser [un] leopardo o un león».
Los grandes conjuntos de datos suelen ser etiquetados por empresas que emplean métodos manuales. Obtener y compartir conjuntos de datos es un reto, especialmente para una organización que prefiere clasificar los datos y restringir el acceso a ellos.
Un conjunto de datos militares puede contener imágenes producidas por sistemas de imagen térmica, por ejemplo, pero a menos que este conjunto de datos se comparta con los desarrolladores, un arma de IA no sería tan eficaz. Por ejemplo, los dispositivos de IA que se basan en chatbots limitados a cientos de palabras podrían no ser capaces de sustituir a un humano completamente con un vocabulario mucho más amplio.
Los sistemas de IA también se ven obstaculizados por su incapacidad para realizar varias tareas a la vez. Un humano puede identificar un vehículo enemigo, decidir qué sistema de armas emplear contra él, predecir su trayectoria y, a continuación, atacar al objetivo. Un sistema de IA no puede duplicar estos pasos.
En este punto, un sistema entrenado para identificar un tanque T-90 muy probablemente sería incapaz de identificar un tanque chino Tipo 99, a pesar de que ambos son tanques y ambas tareas requieren el reconocimiento de imágenes. Muchos investigadores intentan resolver este problema trabajando para que los sistemas puedan transferir su aprendizaje, pero aún faltan años para que tales sistemas lleguen a la producción.
Como era de esperar, los adversarios intentarán aprovecharse de estas debilidades engañando a los motores de reconocimiento de imágenes y a los sensores. También pueden intentar montar ciberataques para eludir los sistemas de detección de intrusos o alimentar con datos alterados los sistemas de IA que les proporcionarán requisitos falsos.
Preparación de EE.UU.
El Departamento de Defensa estadounidense ha sido más partidario de contratar y construir hardware que de implantar nuevas tecnologías. No obstante, las Fuerzas Aéreas, en colaboración con Boeing, General Atomics y una empresa llamada Kratos, están desarrollando drones dotados de IA.
Las Fuerzas Aéreas también están probando el avión experimental sin piloto XQ-58A Valkyrie dirigido por inteligencia artificial. Este avión no tripulado de nueva generación es un prototipo de lo que las Fuerzas Aéreas esperan que pueda convertirse en un potente complemento de su flota de cazas tradicionales.
El objetivo es dotar a los pilotos humanos de un enjambre de robots de ala altamente capaces para desplegar en la batalla. Sin embargo, el Valkyrie no es autónomo. Aunque utilizará IA y sensores para identificar y evaluar las amenazas enemigas, seguirá correspondiendo a los pilotos decidir si atacan o no al objetivo.
Puede que los oficiales del Pentágono aún no estén desplegando armas autónomas en batalla, pero están probando y perfeccionando armas que no dependerán de la intervención humana. Un ejemplo es el Proyecto Convergencia .del Ejército
En una prueba, realizada como parte del proyecto, que tuvo lugar en agosto de 2020 en el Yuma Proving Ground de Arizona, el Ejército utilizó una variedad de sensores aéreos y terrestres para rastrear fuerzas enemigas simuladas y luego procesar esos datos utilizando ordenadores con IA en una base del estado de Washington.
Esos ordenadores, a su vez, emitieron instrucciones de fuego a la artillería terrestre en Yuma. «Toda esta secuencia se realizó supuestamente en 20 segundos», informó posteriormente el Servicio de Investigación del Congreso.
En un programa estadounidense conocido como la iniciativa Replicator, el Pentágono dijo que planeaba producir en masa miles de drones autónomos. Sin embargo, ninguna política oficial ha aprobado el uso de armas autónomas, que permitirían a los dispositivos decidir si atacan un objetivo sin la aprobación de un humano.
La Marina tiene un equivalente en IA del Proyecto Convergencia llamado «Proyecto Overmatch». En palabras del almirante Michael Gilday, jefe de operaciones navales, con él se pretende «hacer posible una Armada que pulule por el mar, lanzando efectos letales y no letales sincronizados desde cerca y desde lejos, en todos los ejes y en todos los dominios». Se ha revelado muy poco sobre el proyecto.
Cerca de 7.000 analistas empleados por la Agencia de Seguridad Nacional (NSA) están tratando de integrar la IA en sus operaciones, según el general Timothy Haugh, que ejerce como director de la NSA, comandante del Cibercomando estadounidense y jefe del Servicio Central de Seguridad.
El general Haugh ha revelado que hasta 2024, la NSA está comprometida en 170 proyectos de IA, de los cuales 10 se consideran críticos para la seguridad nacional. «Esos otros 160, queremos crear oportunidades para que la gente experimente, los aproveche y los utilice de forma conforme», afirma.
En la actualidad, sin embargo, la IA sigue considerándose un complemento de las plataformas convencionales. También se prevé que la IA desempeñe cuatro funciones adicionales: automatizar la planificación y la estrategia; fusionar e interpretar señales de forma más eficaz de lo que pueden hacerlo los humanos o los sistemas convencionales; ayudar a los sistemas basados en el espacio, principalmente recopilando y sintetizando información para contrarrestar los hipersónicos; y posibilitar las capacidades de guerra cibernética y de información de próxima generación.
Ética del uso de la IA
Aunque el uso de armas autónomas ha sido objeto de debate durante décadas, pocos observadores esperan que ningún acuerdo internacional establezca nuevas regulaciones, especialmente mientras EE.UU., China, Israel, Rusia y otros compiten por desarrollar armas aún más avanzadas.
«La geopolítica lo hace imposible», afirma Alexander Kmentt, principal negociador austriaco sobre armas autónomas en la ONU. «Estas armas se utilizarán y formarán parte del arsenal militar de casi todo el mundo».
A pesar de estos retos, Human Rights Watch ha pedido «la negociación y adopción urgentes de un instrumento jurídicamente vinculante para prohibir y regular los sistemas de armas autónomas». Ha lanzado la Campaña para Detener a los Robots Asesinos, a la que, según la organización de derechos humanos, se han unido más de 270 grupos y 70 países.
Aunque la polémica se ha centrado en las armas autónomas, Brian Schimpf, director general del fabricante de drones con IA Anduril, tiene otra perspectiva. Afirma que las armas de IA «no consisten en sacar a los humanos del bucle. No creo que ése sea el marco ético correcto. Se trata realmente de cómo hacemos que los responsables humanos sean más eficaces y más responsables [de] sus decisiones.»
En cualquier caso, ya se están desarrollando armas autónomas de IA. Aparte de la ética de confiar en un arma para tomar decisiones de vida o muerte, existe un problema con la propia IA. Los errores y los cálculos erróneos son relativamente comunes. Los algoritmos que subyacen a las operaciones de los sistemas de IA son capaces de cometer errores – «alucinaciones«- en los que resultados aparentemente razonables resultan ser totalmente ilusorios.
Eso podría tener profundas implicaciones para el despliegue de armas de IA que funcionen con instrucciones profundamente defectuosas e indetectables por los operadores humanos. En un escenario particularmente distópico, un adversario podría sustituir a los generales humanos por robots, obligando a EEUU a hacer lo mismo, con el resultado de que los sistemas de IA podrían enfrentarse entre sí en el campo de batalla con consecuencias impredecibles y posiblemente catastróficas.
La Dra. Elke Schwarz, de la Universidad Queen Mary de Londres, contempla el dilema de las armas de IA a través de un marco teórico que se basa en la ciencia política y en investigaciones empíricas en su consideración de las dimensiones éticas de la IA en la guerra. En su opinión, la integración de sistemas de armas dotados de IA facilita la objetivación de objetivos humanos, lo que conduce a una mayor tolerancia a los daños colaterales.
En su opinión, la automatización puede «debilitar la agencia moral entre los operadores de sistemas de puntería con IA, disminuyendo su capacidad para tomar decisiones éticas». El sesgo hacia los sistemas autónomos también puede animar a la industria de defensa a precipitarse en la financiación de sistemas militares de IA, «influyendo en la percepción del uso responsable de la IA en la guerra». Insta a los responsables políticos a tener en cuenta los riesgos antes de que sea demasiado tarde.
«(E)l efecto de la IA es mucho, mucho más que la ametralladora o el avión. Se parece más al paso de la fuerza muscular a la fuerza de las máquinas en la última Revolución Industrial», afirma Peter Singer, profesor de la Universidad Estatal de Arizona y estratega e investigador principal del grupo de reflexión estadounidense New America, que ha escrito mucho sobre la IA y la guerra.
«Creo que la llegada de la IA por el lado del software y su aplicación a la robótica por el lado del hardware es el equivalente de la revolución industrial cuando vimos la mecanización». Esta transformación plantea nuevas cuestiones «sobre el bien y el mal con las que antes no luchábamos «. Aboga por establecer «marcos que rijan el uso de la IA en la guerra» que deberían aplicarse a las personas que trabajan en su diseño y uso.
Una de las cuestiones que Singer denomina «permisibilidad de la máquina» es lo que se le debe permitir hacer a la máquina al margen del control humano.
Llama la atención sobre una segunda cuestión «que nunca antes habíamos tratado», que es la «responsabilidad de la máquina». «Si ocurre algo, ¿a quién hacemos responsable si es la máquina la que realiza la acción? Es muy fácil entender eso con un coche normal, es más difícil con un supuesto coche sin conductor».
En el campo de batalla, ¿se responsabilizaría a la máquina si se equivocara de objetivo o si murieran civiles como consecuencia de ello?
Traducción nuestra
*Leslie Alan Horvitz es autor y periodista especializado en ciencia y colaborador del Observatorio. Entre sus libros de no ficción figuran «Eureka: Avances científicos que cambiaron el mundo», «Entender la depresión«, con el Dr. Raymond DePaulo de la Universidad Johns Hopkins, y «El libro esencial de la meteorología«.
Sus artículos han sido publicados por Travel and Leisure, Scholastic, Washington Times e Insight on the News, entre otros. Ha formado parte del consejo de Art Omi y es miembro de PEN America. Horvitz reside en la ciudad de Nueva York. Puede encontrarle en línea en lesliehorvitz.com.
Este artículo fue elaborado para el Observatorio por el Instituto Independiente de Medios de Comunicación y se publica aquí con autorización.
Fuente tomada: Asia Times
