ARMAMENTO AUTÓNOMO
CUANDO EL ORDENADOR DECIDE QUIÉN VIVE Y QUIÉN MUERE
La Inteligencia Artificial ha permitido desarrollar armas capaces de seleccionar y atacar objetivos sin supervisión. Su empleo en Libia, por primera vez en la historia, ha reabierto el debate ético y legal sobre el desarrollo de esta industria militar en la que las grandes potencias llevan años invirtiendo
Día 27 de marzo de 2020. Después de diez años de guerra civil, el primer ministro de Libia reconocido por Naciones Unidas, Fayez al Sarraj, decide dar inicio a la Operación Tormenta de Paz, con la que se esperaba acabar con la presencia de las tropas afiliadas al general opositor Jalifa Haftar en el litoral del país norteafricano. La combinación de fragatas de tipo Gabya y de sistemas aéreos de corto alcance permitió crear una burbuja de defensa sobre los soldados del Gobierno de Consenso
Nacional y acabó con el soporte aéreo del enemigo, que no tardó en batirse en retirada. Fue entonces cuando se asistió a un acontecimiento hasta entonces inaudito en la historia militar: el primer ataque de dispositivos completamente autónomos contra objetivos humanos.
«Los convoyes logísticos y las fuerzas afiliadas a Haftar en retirada fueron posteriormente perseguidos y atacados a distancia por vehículos aéreos de combate no tripulados o sistemas de armas autónomos letales como el STM Kargu-2 y otras municiones de merodeo. Los sistemas de armas autónomos letales se programaron para atacar objetivos sin requerir la conectividad de datos entre el operador y la munición», se explica en un reciente informe elaborado por un grupo de expertos de Naciones Unidas sobre la guerra en Libia.
A pesar de que no se ofrece información sobre si el STM Kargu-2, dron de fabricación turca con capacidad para disparar proyectiles a objetivos en movimiento, causó alguna baja entre las tropas de Haftar, el panel de expertos de la ONU deja claro que se empleó sin ningún control humano. Que era la máquina, en última instancia, quien tenía la capacidad de decidir quién vivía y quién moría. El armamento autónomo, capaz de seleccionar y atacar objetivos sin supervisión gracias al empleo de Inteligencia Artificial (IA), lleva años siendo adoptada por las grandes potencias, y ahora su empleo en el conflicto libio ha reabierto el debate ético y legal sobre su desarrollo. Una floreciente industria militar en la que países como China, el Reino Unido, Rusia y sobre todo Estados Unidos llevan años invirtiendo.
«Las grandes potencias están obsesionadas con la guerra del futuro, y la tecnología ya empieza a permitir el desarrollo de dispositivos que eran impensables. Antes no había sistemas de reconocimiento facial y ahora los encontramos hasta en los móviles. Si yo tengo una IA capaz de localizar una cara, la puedo emplear para que encuentre un carro de combate o una lanzadera de misiles», explica a ABC el analista de defensa Jesús Manuel Pérez Triana. El experto destaca que los desarrollos que se están llevando a cabo actualmente van «desde cosas que caben en la palma de la mano hasta aeronaves que tienen más enverga
Los expertos advierten de los riesgos «NO SOLO ES POSIBLE QUE LA INTELIGENCIA ARTIFICIAL FALLE, TAMBIÉN ES POSIBLE HACERLA FALLAR», ALERTA JUAN IGNACIO ROUYET
dura que un Boeing 737». Y, además, los dispositivos no se limitan exclusivamente al aire; ya se han creado prototipos destinados a operar en tierra y en mar. Ese es el caso, por ejemplo, del barco autónomo Sea Hunter, desarrollado por Estados Unidos en 2016, o del tanque ruso T14 Armata, que cuenta con torreta no tripulada, preparada para responder al fuego enemigo sin necesidad de que la tripulación le dé ninguna orden.
Organizaciones sin ánimo de lucro, expertos en IA, una treintena de países y la propia ONU llevan tiempo solicitando la prohibición en el uso y desarrollo de este tipo de armamento. Se basan en que cualquier dispositivo tecnológico, por muy avanzado que sea, puede cometer un error que, en un momento dado, derive en catástrofe. «Todos estos dispositivos se fundamentan en ‘machine learning’ y han sido entrenados con varias fuentes de datos que representan el pasado. Ya por este motivo, estos algoritmos pueden fallar en sus predicciones si los escenarios actuales difieren. Por lo que podrían cometer errores, sobre todo, en un entorno dinámico», destaca en conversación con este periódico
Josep Curto, experto en IA y profesor de la Universidad Oberta de Cataluña.
En la misma línea se mueve Juan Ignacio Rouyet, experto en IA y ética y profesor de la Universidad Internacional de La Rioja: «No solo es posible que la IA falle, también es posible hacerla fallar. Dentro de las armas autónomas una herramienta que se utiliza mucho es el reconocimiento facial. Hay drones a los que se les carga con la imagen de objetivos para que reconozcan caras y a estos sistemas, como a todo, se les puede engañar. Se ha visto en otras ocasiones en el pasado».
A pesar de los intentos de la ONU y de una treintena de países, entre los que figuran estados como Brasil, Argentina o Austria, por prohibir este armamento, hasta la fecha hay pocos avances. A finales de 2013, Naciones Unidas puso el tema en su agenda, pero desde entonces se han realizado pocos avances. En la última reunión del Convenio sobre Ciertas Armas Convencionales (CCW), celebrado en 2019 bajo el paraguas de la ONU, Rusia y Estados Unidos se opusieron a las propuestas para negociar un nuevo tratado sobre armamento autónomo, calificando esa medida de «prematura».
España, mientras tanto, continúa de perfil. Durante una conversación mantenida con este periódico, el Ministerio de Defensa se limita a señalar que aquí no se trabaja por el momento en el desarrollo de un sistema de armas autónomo. «Hay una especie de tabú con este tema. Al final los países que los emplean piensan en la ventaja que les proporciona, entre ellas la de no comprometer la vida de sus soldados», destaca Pérez Triana.