Según los expertos en tecnología de la información, pronto la lucha contra el enemigo podría ser completamente realizada por robots, lo que podría llevar a consecuencias incontrolables…
1 Era una mañana de otoño de 2025. El teniente coronel Richardson, comandante de la unidad “Ojo de Halcón” de la Agencia Central de Inteligencia de EE. UU. (CIA), junto con sus colaboradores, estaba sentado frente a seis pantallas de computadora en una base secreta en el norte de Irak. Después de ingresar los datos enviados por los satélites de reconocimiento, el teniente coronel Richardson dio la orden: “¡Adelante!”.
No pasaron ni un minuto, y un dron con 5 kg de explosivo C4 despegó del aeropuerto. Si antes, en misiones como esta, los pilotos debían seguir la pantalla para ajustar la trayectoria del dron hasta completar la misión, es decir, hasta que alcanzara el objetivo, ahora se fueron a la cantina… ¡a tomar café! El teniente coronel Richardson explicó: “Como ya se ha proporcionado toda la información necesaria, la IA en el dron hará el trabajo por nosotros…”.
El video capturado desde el dron de reconocimiento MQ-9 mostró que, después de recorrer 450 km y entrar en el espacio aéreo de Siria, el dron se lanzó contra una casa de dos pisos en las afueras de Al Bukamal, atravesó una ventana y explotó. Los informes de inteligencia indicaron que nueve personas en la casa, incluido un alto comandante de la organización terrorista islámica extrema IS-K, fueron asesinadas.
Todas las situaciones mencionadas son hipotéticas, pero muestran que la inteligencia artificial (IA) está desempeñando un papel cada vez más decisivo en los combates, específicamente en el uso de misiles portátiles “dispara y olvida”, que actualmente utiliza el ejército de Ucrania. Jaan Tallinn, fundador de la plataforma de IA Deep Mind Technologies de Alphabet Inc., explica: “El tirador de misiles solo necesita apuntar el visor del lanzador hacia el tanque o el helicóptero y presionar un botón. La inteligencia artificial en el procesador cargará imágenes, altitud, longitud, ancho y distancia del objeto en el sensor del misil. Todo esto ocurre en solo un segundo. Luego, él aprieta el gatillo, y sin importar hacia dónde apunte el lanzador antes de disparar, la IA guiará el misil hacia el objetivo”.
Según Jaan Tallinn, un programa de inteligencia artificial llamado Lavender está siendo utilizado por el servicio de inteligencia israelí Mossad para identificar a las personas que deben ser asesinadas. Ha demostrado su éxito con la muerte del general iraní Mohammad Reza Zahedi en un ataque aéreo en Siria el 1 de abril, y otro comandante de las Fuerzas Quds, el general Razi Mousavi, que fue asesinado en Damasco en diciembre del año pasado también por un misil israelí, supuestamente guiado por IA de reconocimiento facial. Esta situación ha llevado al secretario general de la ONU, Antonio Guterres, a manifestar su “profunda preocupación” por los informes sobre el uso de IA por parte de Israel en las operaciones militares en Gaza. Antonio Guterres dijo: “No se debe dejar una parte de la decisión de vida o muerte en manos frías de los algoritmos”.
Sin embargo, los gobiernos de muchos países en el mundo continúan colaborando con empresas de IA en el ámbito de la defensa. En EE. UU., el Pentágono ha asignado 1,000 millones de dólares al programa Replicator con el objetivo de construir una flota de vehículos armados autónomos. Además, submarinos, tanques y buques de guerra se han integrado con IA para operar de manera autónoma y disparar sin necesidad de un comandante, sin mencionar los drones que utilizan capacidades de reconocimiento de imágenes de IA para identificar objetivos y atacar con precisión.
Recientemente, el jueves 2 de mayo de 2024, el comandante de la Fuerza Aérea de EE. UU., Frank Kendall, se sentó en el asiento del piloto del avión X-62A VISTA, una versión mejorada del caza F-16, en la base de la Fuerza Aérea Edwards, en California. Después, despegó, pero Kendall no tuvo que tocar ningún control, ya que voló con inteligencia artificial (IA). Durante una hora, realizó maniobras complejas simulando un combate aéreo con otro F-16, aterrizando suavemente al punto que Kendall bromeó: “Me he cansado de estar sentado tanto tiempo”. Según la Fuerza Aérea de EE. UU., en 2028, se pondrán en operación 1,000 aviones de este tipo.
En la OTAN, la Unión Europea ha pagado a la empresa Thales SA para crear una base de datos de imágenes que ayude a evaluar objetivos en el terreno en caso de que el conflicto entre Rusia y Ucrania se extienda a estos países. Los resultados de las pruebas publicadas por Thales SA mostraron que un modelo de IA había derrotado a un piloto experimentado de caza F-16 en una serie de combates aéreos simulados gracias a “maniobras rápidas y precisas que un piloto humano no podría hacer”. Anteriormente, en 2022, investigadores militares chinos también publicaron un video de un dron asistido por IA que engañó a un avión controlado por humanos desde el suelo. El dron de IA siguió al oponente y lo colocó en una posición en la que podía ser completamente destruido.
No solo los países con avanzadas capacidades científicas están interesados en desarrollar IA en el ámbito militar, sino que incluso organizaciones terroristas en Oriente Medio, África y América Latina están intentando investigar cómo aplicar la IA a sus fines. En 2023, la CIA publicó un video que mostraba a dos ingenieros del autodenominado Estado Islámico (IS) probando un dron en un camino de tierra irregular en el norte de Siria. Los análisis técnicos mostraron que el dron mencionado podía volar una distancia de 800 km a una velocidad de 150 km/h y podía llevar 6 kg de explosivos. A pesar de estar integrado con IA en una forma simple, el dron aún podía alcanzar un objetivo, como un edificio. Recientemente, una base estadounidense en Ain al-Asad, Irak, fue alcanzada por un misil de los rebeldes hutíes, causando bajas entre los soldados. El análisis de los restos del misil llevó a la CIA a creer que fue guiado por IA.
La aparición de la IA en el campo de batalla ha suscitado debates entre investigadores, expertos legales y éticos. Algunos argumentan que las armas asistidas por IA son más precisas que las controladas por humanos y tienen el potencial de reducir tanto los daños materiales como las pérdidas de vidas, mientras que otros afirman que las armas con IA pueden cometer errores catastróficos.
El Dr. Anthony Aguirre, físico e inventor del algoritmo de reconocimiento facial, dijo: “¡El futuro de los robots asesinos está aquí! Supongamos que una hora antes, la inteligencia determina que una casa en la ubicación A es el escondite de un jefe terrorista, y si el ataque se encomienda a una unidad de fuerzas especiales, ellos pueden fácilmente determinar el momento en que entran en la casa para ver si el jefe terrorista aún está allí. Pero si se deja a un misil con IA, no hará esta distinción y simplemente se lanzará y ‘bum’, así de simple. ¿Cuántas personas inocentes en la casa morirán?”.
Por lo tanto, tras los conflictos entre Ucrania y Rusia, así como entre Israel y Hamas, Houthi y Hezbollah, los investigadores han abogado por controlar esta nueva amenaza. Recientemente, las Naciones Unidas han dado un paso importante: una resolución aprobada en diciembre pasado agregó el tema de la Ley de IA a la agenda de la reunión de la Asamblea General que se llevará a cabo en septiembre. Anteriormente, en julio de 2023, el Secretario General António Guterres declaró que quería una prohibición de “armas que operen sin supervisión humana para 2026”. Bonnie Docherty, abogada y profesora en la Escuela de Derecho de Harvard en Cambridge, Massachusetts, dijo: “Limitar la IA en el ámbito militar avanza lentamente, pero sigue siendo una señal positiva”.
Sin embargo, “decir es más fácil que hacer”, ya que los líderes militares han vislumbrado un futuro sin límites al aplicar la IA a las armas, mientras que las empresas de fabricación de equipos de guerra ven esto como un terreno fértil para obtener ganancias. Stuart Russell, científico informático de la Universidad de Berkeley en California y conocido activista contra las armas de IA, comentó: “Tomemos como ejemplo Warfare, que es un algoritmo relativamente simple para la IA. Tiene la capacidad de encontrar a alguien y matarlo mucho más fácilmente que programar la trayectoria de un coche autónomo.
Ahora, cualquier estudiante con una impresora 3D y conocimientos básicos de programación puede construir un dron. Los sistemas de armas con IA han cambiado para siempre el concepto de estabilidad global”. Además, Stuart Russell expresó su preocupación de que “en un futuro cercano, drones de IA de bajo costo podrían ser utilizados por cualquier facción para eliminar oponentes mediante el uso de reconocimiento facial, y la persona asesinada probablemente ni siquiera sabrá qué la mató”.
Hasta ahora, es difícil conocer con precisión cuán efectivas son las armas con IA en el campo de batalla, ya que los militares ocultan los datos obtenidos tras las pruebas y el combate real, a excepción de las imágenes de los objetivos destruidos. Cuando se le preguntó sobre el sistema de armas con IA en una investigación del Parlamento británico en septiembre pasado, el general Tom Copinger-Symes, subcomandante del Comando Estratégico del Reino Unido, no proporcionó información específica y solo mencionó que el ejército británico “está realizando estudios estándar para comparar las ventajas y desventajas entre los sistemas de armas controlados por IA y las armas controladas por humanos”. Él afirmó: “Seguramente querrán verificar si esto proporciona un rendimiento que justifique el gasto del presupuesto, y mi respuesta es que ‘supera las expectativas’”.
Según expertos militares de renombre mundial, hasta ahora hay al menos 200 tipos de equipos operados por IA, desde drones que pesan solo 1.2 kg hasta vehículos de desminado, vehículos de reconocimiento, lanchas rápidas de ataque suicida e incluso perros robot diseñados para tareas de transporte de municiones, suministro de alimentos y evacuación de heridos en zonas de combate intensas. Jaan Tallinn, fundador de la plataforma de IA Deep Mind Technologies, dijo: “La IA tiene habilidades de procesamiento y toma de decisiones superiores, lo que proporciona ventajas significativas. Por ejemplo, en pruebas de reconocimiento de imágenes, la IA puede encontrar 2 imágenes duplicadas entre 1,000 en solo 0.6 segundos. Así, en el campo de batalla, un misil con IA podría fácilmente impactar un tanque real escondido entre 100 tanques de modelo…”.
Según un análisis publicado por el Centro de Estudios de Guerra de la Universidad del Sur de Dinamarca en Odense, en un futuro cercano, las armas automatizadas guiadas por IA reemplazarán a los soldados, eliminando el riesgo de que los operadores remotos sean detectados y eliminados por el enemigo. Zak Kallenborn, analista de seguridad en el Centro de Estudios Estratégicos Internacionales en Washington DC, EE. UU., añadió: “La IA puede tomar decisiones complejas en un tiempo extremadamente corto, algo que las mentes militares más brillantes de hoy en día pueden hacer, pero que requiere horas, incluso días…”.