- Published on
IA en la guerra
Por Yamil Saiegh
Naturaleza violenta
"Su instinto es destruirse los unos a los otros."
— T-800 (Terminator 2)
Según el -todavía arraigado- mito del buen salvaje, los humanos seríamos naturalmente pacíficos y la guerra sólo sería una muy negativa imposición de la cultura y la civilización moderna. Sin embargo, la guerra no es un invento reciente sino una parte antigua y fundamental de nuestra parcialmente oscura naturaleza humana. Y durante los últimos años, esta parte bélica de nuestra especie fue nutriéndose de una de las tecnologías más potentes que venimos desarrollando: la inteligencia artificial (IA).
Históricamente, todos los pueblos han luchado. Los escritos más antiguos están repletos de historias bélicas, y la arqueología revela antiguas fortalezas, batallas y sitios de masacres prehistóricas que se remontan a milenios atrás. De los últimos 3.400 años de historia humana registrada, solo el 8% han sido pacíficos. El destacado antropólogo estadounidense Clark Wissler, en su libro “El humano y la cultura” (1923), ya reconocía la guerra como a uno de los universales humanos, presente en todas las culturas humanas de todas las épocas.
La guerra es anterior incluso a los humanos; existía en otras especies desde antes que aparezcamos. El registro arqueológico confirma que la vida de los neandertales distaba de ser pacífica. Incluso los chimpancés suelen formar grupos de asalto y enfrentarse con comunidades vecinas. La Guerra Chimpancé de Gombe (1974- 1978) fue un violento conflicto entre dos comunidades de chimpancés en un Parque Nacional de Tanzania donde hubo asesinatos premeditados, enfrentamientos con estrategias militares, raptos e incluso esclavismo.
El daño de la guerra
Solo durante el siglo XX, más de 200 millones de humanos murieron en conflictos bélicos. Incluso cuando las víctimas no fueron fatales, las guerras provocaron severas secuelas físicas y psicológicas.
Además, las guerras causan sufrimiento y muerte de manera indirecta a humanos y otros animales mediante su impacto económico, ambiental y la destrucción de infraestructuras. Los niños pueden quedar huérfanos, y animales como perros, gatos, así como aquellos en zoológicos, acuarios, bioterios, laboratorios y granjas, pueden sufrir y morir de hipotermia, inanición, entre otras causas, al ser abandonados por los humanos a cargo que murieron o tuvieron que huir.
Las armas de destrucción masiva, como las nucleares, químicas y biológicas, no discriminan entre humanos y demás animales. En los bombardeos atómicos a Hiroshima y Nagasaki durante la Segunda Guerra Mundial, murieron inmediatamente más de 100 mil humanos. Otros humanos y demás animales quedaron con secuelas de la radiación, como cáncer y malformaciones congénitas. Durante la Guerra de Vietnam, el rociado del herbicida Agente Naranja mató a cientos de miles de humanos y causó una incontable cantidad de víctimas no humanas, tanto domésticas como salvajes.
Los demás animales también son víctimas del desarrollo y uso de la tecnología militar. Desde los caballos utilizados para transportar a los soldados hasta los millones de animales muertos en pruebas nucleares realizadas por varios países durante el siglo XX. Durante la Segunda Guerra Mundial se entrenaron perros para detonar bombas y se le colocaron bombas incendiarias de napalm a murciélagos.
Origen de la autonomía bélica
La autonomía armamentística se remonta al menos a 2300 años atrás. Ya en la Antigua Grecia se utilizaba el Polybolos ("lanzador múltiple" en griego), un arma supuestamente inventada por Dionisio de Alejandría, capaz de disparar múltiples proyectiles (virotes) consecutivos sin la necesidad de recargar manualmente después de cada disparo. Posteriormente, Filón de Bizancio inventaría la catapulta de recarga automática.
Muchos siglos después vendrían las minas terrestres activadas por presión (ejercida por vehículos, humanos u otros animales), que se remontan al menos a la Guerra Civil estadounidense (1861).
Las primeras armas de fuego, como los cañones, requerían cargar manualmente la pólvora, el proyectil y luego encender la mecha. Este proceso se automatizó con los cartuchos, que ya incluían la pólvora. Luego vinieron las armas de fuego automáticas, como la ametralladora y los fusiles de asalto (el M16 estadounidense, el AK-47 soviético, etc.), capaces de disparar continuamente, generando una ráfaga de proyectiles, mientras se mantenga presionado el gatillo, recargando los cartuchos y amartillándose automáticamente.
Richard Gatling diseñó una de las primeras armas automáticas de la historia: la ametralladora Gatling. Al permitir que cuatro humanos realicen el mismo trabajo que cien, Gatling tenía la esperanza de reducir la cantidad de soldados propios expuestos en el campo de batalla. En esta escena de Terminator 2, el T-800 (interpretado por Arnold Schwarzenegger) está disparando una ametralladora con cañón rotativo tipo Gatling:
Los proyectiles fire-and-forget ("disparar y olvidar") pueden alcanzar su blanco sin ninguna intervención humana posterior al lanzamiento. Se guían mediante tecnologías como radar, giroscopios, acelerómetros, GPS y óptica de infrarrojos. Y esta tecnología se remonta al menos a la Segunda Guerra Mundial, en 1944 la marina estadounidense desarrolló la primera bomba fire-and-forget, que se guiaba por radar.
Origen de la autonomía bélica computarizada
Desde su comienzo, la historia de la IA estuvo entrelazada de alguna manera con la guerra. De hecho, las primeras computadoras del mundo se construyeron para automatizar tareas bélicas.
Por un lado, la Bombe en Inglaterra (1939), diseñada durante la Segunda Guerra Mundial (1939-1945) por Alan Turing (la principal mente detrás del nacimiento de la IA), se creó para automatizar el trabajo de los criptoanalistas, desencriptando los mensajes que los nazis cifraban con la máquina Enigma. Se estima que, mediante este espionaje, se acortó la guerra, salvando la vida de entre 14 y 21 millones de humanos.
Por otro lado, la ENIAC en Estados Unidos (1945), diseñada por John Eckert y John Mauchly, se construyó para calcular las tablas de disparo de artillería para el Laboratorio de Investigación Balística del Ejército y luego se utilizó para resolver las ecuaciones de las reacciones termonucleares de la bomba de hidrógeno.
Durante la Guerra Fría (1947-1991), EEUU y Rusia competían por demostrar su superioridad tecnológica mediante la carrera espacial. EEUU, intentando agilizar la traducción de artículos aeroespaciales rusos, empezó a desarrollar los traductores automáticos. En 1954, la Universidad de Georgetown e IBM realizaron una de las primeras demostraciones de traducción automática del mundo, traduciendo más de 60 frases del ruso al inglés. En 1957, Rusia lanzó al espacio el Sputnik, el primer satélite artificial de la historia, y en 1958 se creó DARPA, la Agencia de Proyectos de Investigación Avanzados de Defensa, miembro del Departamento de Defensa de EEUU, para mantener su tecnología delante de la rusa: satélites, robots, redes de computadoras (empezando con ARPANET, precursora de Internet), etc. En 2016, como parte del programa “Autonomía rápida y ligera”, DARPA desarrolló un cuadricóptero autónomo y un barco dron llamado Cazador marítimo (Sea Hunter).
Autonomía bélica en la ficción
La idea de criaturas artificiales creadas para la guerra se remonta a varios siglos atrás. Talos y Gólem son criaturas mitológicas que habrían sido construidas como defensa militar. Por un lado, Talos pertenece a la mitología griega y estaba fabricado por Hefesto, el dios de la forja y del fuego, a partir de bronce. Por otro lado, Gólem pertenece a la mitología judía y estaba fabricado a partir de arcilla y barro.
Con el advenimiento del cine, estas antiguas ideas cobraron vida en la pantalla grande. En la ya mencionada saga Terminator (1984) las máquinas, controladas por la IA conocida como Skynet (creada para controlar y defender EEUU), devastan la Tierra con ataques nucleares y entran en guerra contra los humanos mediante armas autónomas. Pocos años después, en la película Robocop (1987) aparece el robot policía ED-209, armado con cañones, escopetas automáticas e incluso lanzacohetes. Su presentador dice que espera que se convierta en el mejor producto militar de la siguiente década. Sin embargo, durante su presentación, el robot se descontrola y mata a uno de los ejecutivos.
Luego de una década, en la saga Matrix (1999) los humanos también entran en guerra con las máquinas controladas por IA, aparecen los centinelas, unas máquinas autónomas que vuelan por pasadizos subterráneos persiguiendo a los humanos para destruirlos. Luego, ese mismo año se estrena el Episodio I de la saga Star Wars, donde aparecen ejércitos de robots androides llamados “droides”.
Autonomía bélica en la realidad
La IA puede contribuir a la guerra tanto en la dimensión ofensiva como en la defensiva, y en ambos casos, puede desempeñar un papel tanto en el diseño como en el funcionamiento del armamento.
La IA puede asistir militarmente al diseño de armas de destrucción masiva, como las nucleares, químicas y biológicas. Este año, Google DeepMind lanzó AlphaFold 3, una IA capaz de predecir la estructura y las interacciones de todas las moléculas biológicas. Este tipo de IA podría utilizarse en el diseño de armas biológicas. El año pasado, en el curso "Salvaguardar el futuro" del MIT, se encargó a estudiantes inexpertos que investigaran si se podría solicitar a grandes modelos de lenguaje que ayudaran a provocar una pandemia. En solo una hora, consiguieron que estos modelos sugirieran cuatro posibles patógenos pandémicos. Una de las empresas líderes en grandes modelos de lenguaje es OpenAI y este año levantó su prohibición de utilizarlos con fines militares. Además, están desarrollándose grandes modelos de lenguaje que brindan recomendaciones militares, como despliegues armamentísticos.
La IA también puede contribuir al funcionamiento de armas autónomas aéreas, terrestres, marinas y submarinas. Actualmente, la IA se utiliza en la navegación autónoma y en la identificación de blancos para mejorar la puntería. Las armas autónomas se consideran la tercera revolución en las guerras, tras la pólvora y las armas nucleares, según una carta abierta publicada en 2015 para prohibirlas.
Respecto a la navegación autónoma, ya en 2015, las redes neuronales artificiales profundas superaron el desempeño humano en reconocimiento visual en la competencia anual de ImageNet. En 2023, la Agencia para el Desarrollo de la Defensa de Corea del Sur desarrolló Pibot, un robot humanoide con IA capaz de volar aviones de manera autónoma, manipulando los mandos de la cabina diseñados para humanos. También en 2023, el grupo de Robótica y Percepción de la Universidad de Zúrich creó un dron autónomo llamado Swift. Su IA, luego de aprender a desplazarse por refuerzo en una simulación del circuito aéreo utilizado para las competiciones humanas, logró ganar múltiples carreras contra campeones mundiales humanos y romper el récord de tiempo. Max Tegmark, en su libro *Vida 3.0*, comenta respecto a los drones: "no hay mucha diferencia entre un dron capaz de repartir paquetes de Amazon y otro que pueda lanzar bombas".
En el episodio "Odio nacional" (2016) de la serie Black Mirror, unas abejas robóticas supuestamente reemplazarían a las abejas comunes que están casi extintas. Estos diminutos robots se alimentan de energía solar y tienen sensores para navegar, detectar flores y hasta reproducirse. Sin embargo, se descubre que el gobierno solo financia el proyecto porque las abejas también las aprovechan para una masiva vigilancia pública mediante reconocimiento facial. Luego, las abejas son hackeadas y comienzan a usarse para matar gente.
En la realidad, ya existen nano-drones de vigilancia como el Black Hornet Nano. Estos diminutos drones pesan menos de 20 gramos, caben en la palma de la mano y están equipados con cámaras que incluyen visión nocturna. Actualmente, se utilizan en las fuerzas armadas de países como España, Marruecos, Noruega, Estados Unidos, Francia, Reino Unido, Alemania, Irlanda, Australia, Países Bajos, Polonia, Nueva Zelanda, India, Turquía, Sudáfrica y Argelia.
Escalada global de la autonomía bélica
Algunos expertos señalan que ya podría haber comenzado una carrera armamentista global por el uso de la IA en las armas autónomas. Y cualquier desarrollo desigual en esta escalada podría tener consecuencias devastadoras, similares a las que sufrieron los habitantes del continente americano durante las conquistas europeas.
En la actualidad más de una docena de países ya poseen drones armados. El “General Atomics MQ-1 Predator” es un vehículo aéreo no tripulado clasificado por la Fuerza Aérea de EEUU como de “gran autonomía” y viene usándose desde 1995 en conflictos en Bosnia, Serbia, Afganistán, Yemen e Irak.
Las armas de IA, como municiones merodeadoras, ya están usándose en la guerra entre Rusia y Ucrania, algunas incluso localizan objetivos sin intervención humana, como el IAI Harop. El comandante ucraniano Yaroslav Honchar afirmó que Ucrania “ya realiza operaciones totalmente robóticas, sin intervención humana”. El año pasado un dron naval ucraniano golpeó un buque de guerra ruso en el Mar Negro. Stuart Russell, reconocido experto en IA y activista contra las armas autónomas, comentó: “Creo que ahora está bastante aceptado que en Ucrania ya han pasado a armas totalmente autónomas”.
En abril de este año, Irán lanzó decenas de drones contra Israel. Aunque son controlados remotamente por humanos, podrían automatizarse. Israel, por su parte, utiliza IA en su Domo de Hierro, que dispara interceptores automáticamente si determina, mediante radar y otros sensores, que amenazas entrantes, como misiles, impactarán en áreas pobladas.
Pareciera que en el futuro las principales potencias militares del mundo profundizarán su autonomía bélica, convirtiendo a las armas autónomas en protagonistas de sus fuerzas armadas. China y Rusia ya planearon comenzar una importante automatización bélica en 2030. Las principales universidades chinas ya están involucradas en programas de armas basadas en IA. En EEUU, el Pentágono hizo una petición presupuestaria superior a los 10 mil millones de dólares para proyectos militares relacionados con la IA. Destinó mil millones de dólares para su programa “Replicator”, cuyo objetivo es construir “enjambres” de pequeños vehículos autónomos armados basados en IA. En este mismo país la Fuerza Aérea planea crear una flota de más de mil aviones de combate no tripulados para el año 2028. Su secretario dijo: “No tenerla es un riesgo para la seguridad, en este momento, tenemos que tenerla”.
Particularidades de la autonomía bélica total
Cómo vimos, la historia de la guerra es igual o más antigua que la de nuestra especie. Pero, a diferencia de otras tecnologías bélicas usadas hasta hace algunos años, la IA tiene preocupantes particularidades:
• A diferencia de las armas nucleares, las armas autónomas son difíciles de auditar. Zak Kallenborn, analista de seguridad del Centro de Estudios Estratégicos e Internacionales en Washington DC dice: “Podría ser tan simple como cambiar algunas líneas de código para que la máquina decida realizar un ataque. O, incluso, sobrescribir el código cuando los inspectores de armas no estén presentes”. Además, a diferencia de las armas nucleares, no requieren materias primas costosas o difíciles de conseguir, como señala la carta abierta contra las armas autónomas de 2015. Esto podría volverlas tan comunes y económicas que las potencias militares podrían producirlas masivamente.
• A diferencia de las armas de control remoto, no es posible interferir con sus comunicaciones electrónicas.
• Estas armas podrían ser de código abierto, lo que permitiría un uso indiscriminado.
• Los diminutos drones militares podrían autodestruirse después de cumplir sus objetivos, eliminando cualquier evidencia de su uso.
• La IA también puede contribuir a la ciberguerra, centrada en encontrar y explotar vulnerabilidades técnicas en las redes informáticas del enemigo para atacarlas y/o extraer información sensible. En la saga Matrix, los agentes Smith torturan a Morfeo para obtener el código de acceso a la computadora de Sión, la ciudad subterránea donde los humanos se refugian de las máquinas.
Activismo contra la autonomía bélica total
El activismo contra la proliferación de armas autónomas lleva más de una década, con propuestas que van desde la regulación hasta la prohibición total, similar a lo logrado con las armas de destrucción masiva. Algunas propuestas sugieren que estas armas solo se utilicen defensivamente, como el ya mencionado Domo de Hierro en Israel. Otros, como el ya mencionado Stuart Russell, abogan por una solución más cautelosa: “mantener siempre a los humanos en el circuito” para decidir sobre posibles consecuencias letales, evitando la comunicación directa entre la informática de a bordo y el circuito de disparo. Estos son algunos hitos clave en el activismo contra las armas autónomas:
• 2013: Se crea la "Campaña para Detener los Robots Asesinos", una coalición de ONGs para prohibir las armas letales autónomas (LAWs).
• 2015: El Future of Life Institute publicó la ya mencionada carta abierta advirtiendo sobre la amenaza de una carrera armamentista en IA y solicitando la prohibición de las armas autónomas. Esta carta fue firmada por más de mil científicos y expertos en IA, entre ellos:
- Stuart Russell y Peter Norvig, autores de la reconocida "Biblia de la IA", libro utilizado en más de 1100 universidades de todo el mundo.
- Geoffrey Hinton, Yoshua Bengio y Yann LeCun, galardonados con el Premio Turing en 2018 por sus contribuciones al aprendizaje profundo.
- Demis Hassabis, cofundador de Google DeepMind.
- Stephen Hawking y Max Tegmark, físicos.
- Daniel Dennett, filósofo de la mente.
• 2017: Ryan Gariepy, cofundador de Clearpath Robotics publicó una carta abierta solicitando a la ONU la prohibición de los sistemas de armas autónomas (AWS). Entre los firmantes se encuentra Mustafa Suleyman, fundador y director de IA aplicada en Google DeepMind. En ese mismo año se viraliza el video de Youtube "Slaughterbots", producido por el Future of Life Institute y Stuart Russell, donde dramatiza un futuro cercano en el que enjambres de microdrones armados utilizan IA para ejecutar ataques.
• 2018: Investigadores de IA de 30 países firman una carta abierta en protesta contra la fusión de investigación académica con aplicaciones militares en un nuevo departamento del Instituto Avanzado de Ciencia y Tecnología de Corea. Ese mismo año, empleados de Google lograron cancelar un contrato con el Pentágono que podría haber vuelto más precisa la tecnología de ataque con drones.
• 2021: Una encuesta de opinión pública reveló que el 61% de los adultos en 28 países se oponen al uso de armas autónomas.
• 2023: La ONU aprobó una resolución pidiendo una regulación estricta sobre las armas autónomas y que las decisiones letales en la guerra sigan siendo humanas. Además 60 países, incluidos EEUU y China, hicieron un llamado a la acción al Tribunal Internacional de La Haya exigiendo un uso militar más responsable de la IA.
• Este mismo año también se presenta en EEUU un proyecto de Ley de Bloqueo de Lanzamiento Nuclear Mediante IA. Aunque hay posturas opuestas, como entre EEUU y China, existe un consenso creciente en que la IA no debería participar en la decisión de lanzar armas nucleares.
En la ficción, en la ya mencionada Terminator 2, cuentan que 3 mil millones de humanos murieron en 1997 como consecuencia de ataques nucleares lanzados por Skynet.
Futuro incierto
Como vimos, lamentablemente somos una especie belicosa y tecnológica. Esta mezcla de agresividad y poder podría conducirnos hacia la autodestrucción. En los próximos años podríamos terminar volviendo realidad los peores escenarios ya explorados en la ciencia ficción. Pero la inteligencia (natural) y la cooperación humana detrás del desarrollo de las letales armas autónomas que estuvimos viendo también podemos aplicarlas para conseguir la paz mundial.
No solo tenemos un instinto de destruirnos los unos a los otros. La empatía, la capacidad de ponernos en el lugar de los demás, también es una parte esencial de nuestro simiesco cerebro evolucionado.
Sobre el autor
Desde chico me atrajeron la matemática, la programación y el funcionamiento de las computadoras, lo cual, junto con mi curiosidad sobre el cerebro y las emociones, me encaminó hacia la Inteligencia Artificial y la Ciencia de Datos. Con más de una década en la docencia, intento usar la ciencia para entender la realidad y transmitirla a través de relatos que estimulen la curiosidad.