Robots soldados, ¿el futuro de la guerra?
La posibilidad de introducir androides en los ejércitos plantea un conflicto de primer orden: dejar en manos de una máquina si alguien debe morir o no resulta algo bastante atroz
Ni «Terminator» ni «Matrix». Ninguna de las dos cintas causó tanto pavor como el vídeo que, en octubre de 2019, corrió como la pólvora por las redes sociales. En él, se ve a un humanoide recibiendo un duro entrenamiento para convertirlo en el soldado perfecto. A lo largo de sus cuatro minutos de duración, la máquina aprende, reproduce y lucha como si de una persona se tratase. Aunque, eso sí, con la precisión que sólo la tecnología es capaz de alcanzar. Al poco de finalizar, se le encomienda una misión muy clara: matar a un perro robot. Sin embargo, su reacción resulta tan imprevista como aterradora: agarra al can y huyen los dos corriendo. Se está rebelando contra el hombre que lo creó.
La grabación no tardó en volverse viral, hasta el punto de superar las 63.966.000 visualizaciones. Por suerte, el contenido no es real. Se trata de una recreación hecha por ordenador realizada por el estudio estadounidense Corridor Digital. Es decir, es falso. Ahora bien, las posibilidades de que, en un futuro, se llegue a una situación parecida están al alza. No porque se estén fabricando aparatos diseñados para asesinar, sino porque el auge de la inteligencia artificial en el campo militar parece no encontrar techo. El empleo de autómatas en escenarios de combate cambiará las reglas del juego en los conflictos internacionales para siempre. Ya lo estamos viendo en las labores de rescate, el transporte de mercancías o el reconocimiento del terreno. Pues, ahora, a todo ello súmele la lucha armada pura y dura.
¿Eso quiere decir que, a día de hoy, no existen robots preparados para la batalla? Ni mucho menos. Lo que no existen (o no se conocen) son androides como el que protagonizó el controvertido vídeo. En cualquier caso, desde la Segunda Guerra Mundial se vienen empleando otros tantos artefactos de última generación que resultan igual de peligrosos. Ese es el caso de Goliar, el tanque escarabajo guiado por control remoto que utilizó el ejército alemán para entrar en las posiciones enemigas. También el de Tt-26, el teletanque a distancia que los rusos desarrollaron durante esta contienda. O el de Predator MQB-1, el vehículo aéreo no tripulado que Estados Unidos construyó para realizar misiones de reconocimiento en 1995.
Desde esta última fecha, han pasado 26 años y la inversión en robótica militar no ha parado de aumentar a un ritmo del 10% anual. En 2016, por ejemplo, los Gobiernos de las principales potencias económicas del mundo gastaron 1.200 millones de euros tan sólo en este campo. Una cifra que se espera que alcance los 2.500 millones en tan sólo cuatro años. El fin no es baladí, pues va a permitir a algunos países posicionarse como grandes líderes a nivel tecnológico y eso, en el ámbito de las relaciones internacionales, parece clave. China, por ejemplo, publicó en 2017 su «Plan de Desarrollo para la Nueva Generación de Inteligencia Artificial»: en él, ya avanzaba que su objetivo fundamental es encabezar esa clasificación en 2030. Evidentemente, Estados Unidos no quiso quedarse rezagado y respondió a tal declaración de intenciones con el lanzamiento de la «Iniciativa de Inteligencia Artificial Estadounidense». Y así hasta que, hoy, una treintena de territorios ya cuenta con sus propias estrategias nacionales encaminadas a sacar el máximo provecho posible a estos avances.
Esta pretensión, desde el punto de vista del ciudadano medio, resulta tan sobrecogedora como la «fake new» mencionada al principio. Básicamente porque la deshumanización de la guerra puede traer consecuencias aún peores que el propio conflicto. ¿Una especie de «Armagedón»? Nadie lo sabe, pero la simple posibilidad de acercarse a ello aterra: dejar en manos de una máquina si alguien debe morir o no parece algo bastante atroz, sea el contexto que sea. Por el momento, la mayor parte de los autómatas militares son controlados a distancia, por lo que podría descartarse un escenario tan desolador como éste. Aunque no menos peligrosos.
DRONES Y PERROS SIN CABEZA
La automatización de las tropas no tiene que pasar, necesariamente, por esa imagen que
EN 2016 LOS GOBIERNOS DE LAS PRINCIPALES POTENCIAS ECONÓMICAS GASTARON 1.200 MILLONES EN ROBÓTICA
«Star Wars» (1977), «Ghost in the Shell» (2017) o «Metrópolis» (1927) nos han inculcado desde bien temprano. Esos desarrollos podrían tomar la forma de un dron de combate «loyal wingman», una especie de pájaro electrónico que se asocia estrechamente a un profesional a cargo de un sistema de armas. Éste no piensa por sí mismo, sino que se limita a amplificar los recursos que dispone el soldado al que acompaña. Esta tecnología es más que conocida hoy en día. La hemos visto, por ejemplo, en los ataques que un grupo paramilitar de Yemen perpetró contra una refinería de Arabia Saudí. En esa misma línea, se encuentra el famoso perro sin cabeza de Boston Dynamics que tanto ha dado qué hablar en los últimos meses: su nombre es Spot y tan pronto se ha dedicado a detectar explosivos en Chernóbil como a servir cervezas en distintos
EL PERRO SIN CABEZA DE BOSTON DYNAMICS SE HA USADO PARA DETECTAR EXPLOSIVOS O SERVIR CERVEZA
bares de Sevilla. Dado que su software es totalmente personalizable, todo hace pensar que podría usarse igualmente en labores de defensa.
Así, poco a poco, comienza a hablarse de barcos y tanques autónomos que funcionarían igual que los aviones instruidos no tripulados. Algo que, si bien está lejos de esos robots soldados, abre la puerta a ejércitos multi-inteligentes. Un aspecto que ya ha puesto en alerta a diferentes asociaciones internacionales. Una de ellas es Human Rights Watch, que advierte que países como «China, Israel, Corea del Sur, Rusia, Reino Unido y Estados Unidos son ya pioneros en el uso de armas controladas de manera remota por un humano». Lo que hace pensar que, quizá, esto que parece propio de un capítulo de «Black Mirror» está tomando tintes de realidad y podría conseguir el mismo efecto que aquel vídeo viral falso produjo inicialmente. Terror.