LA POLÉMICA DE LAS ARMAS AUTÓNOMAS
La tecnología para crear máquinas capaces de tomar la decisión de matar ya existe. No pocos científicos y expertos en inteligencia artificial quieren prohibirlas, pero los Estados fuertes intentan desarrollarlas. ¿Está Terminator al caer?
Frontera entre las dos Coreas. Noche cerrada. Uno de los robots centinela instalados en el lado del sur detecta con sus sensores y cámaras infrarrojas los movimientos de un grupo de hombres proveniente del norte que atraviesa la zona desmilitarizada entre ambos países, una de las líneas divisorias más tensas y con mayor despliegue armado del planeta. Sin dejar de observarlos, llega el momento en que la máquina los considera un objetivo hostil. Cuando están a la distancia adecuada para alcanzarlos, abre fuego con una ametralladora ligera Daewoo K3 y un lanzagranadas.
UN AUTÓMATA QUE DECIDE CUÁNDO ABRIR FUEGO... SI LO DEJAN
Esta situación es imaginaria, pero podría suceder hoy mismo. El dispositivo al que nos referimos es el robot SGR-A1, fabricado por Samsung Techwin, filial de la conocida firma tecnológica surcoreana. Es un sistema de apoyo a los centinelas de carne y hueso, y sus creadores lo han dotado de la capacidad de tomar la decisión de disparar. Pero esa posibilidad solo se activaría en situaciones desesperadas. De momento, el aparato actúa siempre bajo supervisión humana. Sus algoritmos de reconocimiento le ayudan a distinguir entre militares y
civiles desarmados y a tomar medidas en función de esa identificación. Puede disparar balas de goma o iluminar a los intrusos y conminarlos a detenerse con grabaciones de audio, o solicitar una contraseña, por si se diera el caso de que los objetivos fueran soldados propios desorientados o de vuelta de una misión. En suma, no es autónomo porque todavía no se lo permiten. Pero puede llegar a serlo, aunque está por ver qué precisión demostraría de no actuar con un cerebro humano al mando de las operaciones.
NADIE QUIERE QUEDARSE FUERA DE JUEGO
El SGR-A1 no es único en su especie. En 2011, una firma bielorrusa presentó el Adunok-M, un UGV (un
manned ground vehicle o vehículo terrestre no tripulado) similar al modelo coreano, aunque integrado en una plataforma móvil sobre orugas, como si fuera un pequeño carro de combate. Cuentan sus creadores que, dirigido por control remoto, el Adunok-M puede eliminar objetivos situados hasta a 800 metros de distancia gracias a su lanzagranadas y su ametralladora, de calibre ligero (7,62 mm) o pesado (12,7 mm), según se desee.
Y hay otros equipos parecidos, como el Gladiator, usado por los marines estadounidenses; o el Guardium, empleado por las fuerzas israelíes en operaciones de seguridad fronteriza. La era de los sistemas de armas autónomas –o casi– ha comenzado, aunque con menos bombo y platillo que la de los coches sin conductor que nos venden como algo inminente.
Pero ¿hasta qué punto existen máquinas bélicas que podamos considerar independientes? El Departamento de Defensa de EE. UU. considera que un arma autónoma es “un sistema que, una vez activado, puede seleccionar objetivos y apuntar contra ellos sin necesidad de intervención humana”. Esta restrictiva definición incluye los dispositivos que permiten el paso a modo manual para que sea una persona la que acabe disparando, que es lo que se hace ahora. Atendiendo a esta descripción, podría decirse que hoy solo tenemos armamento semiautónomo, alevines de
MUCHOS EXPERTOS EN INTELIGENCIA ARTIFICIAL TEMEN QUE SU TRABAJO AYUDE A CREAR TERMINATORS
lo que está por venir. Sin embargo, ya se fabrican prototipos capaces de desplazarse libremente y seleccionar objetivos a los que aplicar su potencia destructiva siguiendo el criterio de la inteligencia artificial. Por ahora, pueden operar solo en el entorno y las condiciones previamente modeladas por sus diseñadores y programadores, pero la historia nos enseña que todo lo posible con la tecnología existente acaba convirtiéndose en una realidad. Los expertos aseguran que ese momento llegará en pocas décadas... o años.
Las verdaderas armas autónomas letales o LAW (siglas inglesas de lethal autonomous weapon), como se las suele llamar, se enfrentarán al enemigo sin órdenes humanas y decidirán qué hacer para evitar los obstáculos que pretendan impedir la ejecución de su misión. Por ejemplo, un pequeño tanque podría patrullar las calles de una ciudad y actuar sin un piloto que decidiera por él. Estos ingenios todavía no existen, pero ya han desatado una gran polémica y un debate internacional.
En el verano de 2015, más de mil científicos, expertos en tecnología y especialistas en inteligencia artificial firmaron un manifiesto contra las armas autónomas, a las que definían como “la tercera revolución en la historia de la guerra, después de la pólvora y las bombas nucleares”. Los firmantes, entre los que se encontraban figuras tan populares y pres- tigiosas como el astrofísico británico Stephen Hawking, el emprendedor Elon Musk, presidente de Tesla y SpaceX, y Steve Wozniak, cofundador de Apple, pedían la prohibición de este nuevo armamento.
Desde entonces, miles de científicos y ciudadanos comunes se han sumado a esta petición, que esgrime argumentos difíciles de rebatir. Por ejemplo, ¿qué sucedería si algún Estado acaba desarrollando esta tecnología? Lo más probable es que comenzara una carrera armamentística global de peligrosas consecuencias: terroristas, señores de la guerra y dictadores podrían acabar haciéndose con estas sofisticadas herramientas de destrucción, a medida que se generalizaran. Según el manifiesto, “las armas autónomas se convertirían en los kalashnikov del futuro”. Además, si las máquinas se erigiesen en las protagonistas de los conflictos bélicos y se redujera la presencia de tropas en el frente, algunos países podrían verse más inclinados a la agresión, porque se reduciría el peligro para sus soldados.
La oposición al desarrollo de autómatas bélicos que suplan a los soldados de carne y hueso y los vehículos tripulados es creciente. En 2013, un grupo de organizaciones no gubernamentales internacionales creó una coalición llamada Campaign to Stop Killer Robots (Campaña para detener a los robots asesinos), dedicada a promover la prohibición preventiva de las armas autónomas, a las que considera una clara vulneración del derecho internacional humanitario, frente a quienes las ven como armas de precisión que solo precisan regulación. Y el debate ha llegado a los foros internacionales públicos, incluida la ONU.
DIVISIÓN DE OPINIONES INTERNACIONAL
China ha sido el único miembro permanente del Consejo de Seguridad de las Naciones Unidas que ha manifestado la necesidad de crear una ley internacional que regule las armas autónomas letales o LAW; otros tres (Estados Unidos, Francia y el Reino Unido) mantienen una postura ambigua, aunque han propuesto trasladar el debate a un grupo de expertos gubernamentales; el quinto, Rusia, es el único que se ha negado a debatir el asunto, alegando que resulta imposible legislar sobre las armas autónomas cuando ni siquiera existe una definición comúnmente aceptada sobre lo que son.
Lo cierto es que la ONU puede hacer muy poco si las grandes potencias se muestran reticentes. La mayoría de los países está a favor de seguir negociando para encontrar una regulación satisfactoria, pero solo diecinueve países se han declarado favorables a la prohibición de las LAW; y de estos, solo cinco (Argelia, México, Venezuela, Pakistán y Egipto) tienen importancia en la escena internacional por razones económicas, políticas o demográficas.
Los políticos dudan. ¿Y los militares? También, aunque muchos son proclives a desarrollar estos sistemas de armamento, siempre que respeten el derecho de guerra y puedan distinguir las intenciones
SI UNA MÁQUINA COMETE UN CRIMEN DE GUERRA POR DECISIÓN PROPIA, ¿QUIÉN ES EL RESPONSABLE LEGAL?
pacíficas o agresivas de un sujeto, y discriminar entre un civil inofensivo y un terrorista, algo que no le resulta fácil ni al soldado más experimentado. Es obvio que las LAW serían más eficaces que un combatiente humano: no se cansan, no tienen necesidades fisiológicas y carecen de reacciones dictadas por el miedo, el odio o la venganza. Sus defensores sostienen que, además de reducir las bajas propias, provocarían menos daños colaterales entre la población civil que las guerras actuales. Además, estos mercenarios mecánicos serían mucho más económicos que los ejércitos actuales. Cada soldado de la superpotencia estadounidense les cuesta casi 850.000 dólares anuales a los contribuyentes de ese país.
Los opositores a esta tecnología se basan en cuestiones tan inquietantes como la carencia de responsabilidad en caso de crímenes de guerra y la insuficiente fiabilidad de los criterios de las máquinas llegado el momento de distinguir entre civiles y combatientes. Asimismo, añaden que el precio asequible de estos dispositivos y la ausencia de bajas propias podrían aumentar el número e intensidad de los conflictos. El dilema es uno más de los muchos que va a generar el desarrollo de la inteligencia artificial. La realidad es que aún no tenemos ni idea de cómo introducir parámetros éticos en una máquina.
En paralelo a la discusión filosófica y legal, las potencias tecnológicamente avanzadas se han embarcado en una carrera de prototipos o usan ya –como Corea del Sur e Israel– sistemas semiautónomos terrestres o antiaéreos. Estados Unidos ha probado con éxito el X-47B, el primer vehículo aéreo no tripulado capaz de aterrizar sin ayuda en un portaaviones y de repostar en vuelo sin intervención humana. Cuando entre en servicio, no requerirá operadores que lo controlen en tierra. Los objetivos de cada misión se cargarán en su ordenador central y la máquina se ocupará de cumplirlos, ya sean de observación o de ataque.
Por su parte, Rusia ha exhibido ya su carro de combate T-14, cuya torreta puede operar de forma autónoma; y el Reino Unido desarrolla junto con la firma BAE Systems el dron semiautónomo Taranis, similar al X-47B, con capacidad para tareas de vigilancia e inteligencia, pero también para señalar objetivos e incluso atacarlos una vez autorizado. China mantiene en este campo su opacidad habitual, pero los expertos no dudan de que trabaja en armamento de esta clase.
MARINEROS DIRECTOS A LA COLA DEL PARO
El mar no permanece ajeno a esta realidad tecnológico-militar. De forma menos notoria que sus homólogos aéreos, los buques no tripulados comienzan a incorporarse a algunas de las flotas más avanzadas. La razón es obvia: un barco autónomo reduce el coste en vidas humanas y el gasto de formar durante años a personal cualificado. Los ingenieros navales creen que en una década habrá cargueros robóticos que crucen los mares con seguridad y gestionen el embarque y desembarque de sus cargas. Lo dicen con la seguridad que da el hecho de que muchas armadas posean ya buques no tripulados (USV, por sus siglas en inglés) para tareas de vigilancia.
La Armada norteamericana pondrá en servicio en los próximos años los USV de la clase Fleet, con 12 metros de eslora y capaces de operar durante 48 horas a velocidades de hasta 35 nudos (65 km/h). En Europa, Thales, una compañía francesa de sistemas electrónicos y de defensa, ha desarrollado en colaboración con la firma británica ASV el Halcyon, un contraminas no tripulado. Esta última empresa es la mamá del Long
Endurance Marine Unmanned Surface Vehicle (LEMUSV), un catamarán de más de 4 metros de eslora que puede pasar casi tres meses en el mar siguiendo un rumbo preestablecido. Se propulsa con energía solar y eólica y un generador diésel auxiliar, y realiza tareas científicas… o de patrulla antisubmarina.
Estas armas semiautónomas navales se controlan a distancia, como los drones. Estados Unidos ya posee USV dotados de misiles y ametralladoras pesadas que se disparan desde centros de mando situados en otros barcos o en tierra. Su tarea es proteger a sus flotas del ataque de botes y lanchas rápidas. Y desarrolla el trimarán que puedes ver sobre estas líneas, fabricado en fibra de carbono y otros compuestos, casi invisible a los radares y cargado de ordenadores y sensores variados que le brindan una imagen completa de su entorno. La detección de minas y submarinos enemigos será su principal labor, que ejercerá en coordinación con otros navíos y aviones con los que se comunicará por satélite.
EL FUTURO: RODILLOS ROBÓTICOS DE BAJO COSTE
Una de las cualidades de las armas autónomas que más puede contribuir a que se hagan realidad es su coste relativamente bajo, en comparación con los soldados de carne y hueso. Esta característica ha llevado a los estrategas de las guerras futuras a imaginar devastadores ataques de saturación que inutilizarían la precisión de las defensas actuales. El envío de oleada tras oleada de armas autónomas o vehículos de combate no tripulados contra el enemigo agotaría tarde o temprano la munición y los recursos de este. Pero aun siendo más económicas que seleccionar, equipar, entrenar y mantener a las tropas –sobre todo las que vienen, que contarán con exoesqueletos y toda suerte de sensores, protección y armas sofisticadas–, su coste debe bajar todavía más para permitir tales alegrías.
Cuestiones éticas y legales al margen, la otra barrera que impide de momento el completo desarrollo y la proliferación de estos sistemas es el insuficiente nivel de la inteligencia artificial. Cuando las máquinas nos igualen o superen intelectualmente —algunos científicos creen que nunca ocurrirá, pero otros sostienen que sucederá en pocas décadas—, tal vez sea demasiado tarde para reaccionar y frenarlas. ¿Está el Terminator real a la vuelta de la esquina?