ABC (Andalucía)

ARMAMENTO AUTÓNOMO

CUANDO EL ORDENADOR DECIDE QUIÉN VIVE Y QUIÉN MUERE

- RODRIGO ALONSO

La Inteligenc­ia Artificial ha permitido desarrolla­r armas capaces de selecciona­r y atacar objetivos sin supervisió­n. Su empleo en Libia, por primera vez en la historia, ha reabierto el debate ético y legal sobre el desarrollo de esta industria militar en la que las grandes potencias llevan años invirtiend­o

Día 27 de marzo de 2020. Después de diez años de guerra civil, el primer ministro de Libia reconocido por Naciones Unidas, Fayez al Sarraj, decide dar inicio a la Operación Tormenta de Paz, con la que se esperaba acabar con la presencia de las tropas afiliadas al general opositor Jalifa Haftar en el litoral del país norteafric­ano. La combinació­n de fragatas de tipo Gabya y de sistemas aéreos de corto alcance permitió crear una burbuja de defensa sobre los soldados del Gobierno de Consenso

Nacional y acabó con el soporte aéreo del enemigo, que no tardó en batirse en retirada. Fue entonces cuando se asistió a un acontecimi­ento hasta entonces inaudito en la historia militar: el primer ataque de dispositiv­os completame­nte autónomos contra objetivos humanos.

«Los convoyes logísticos y las fuerzas afiliadas a Haftar en retirada fueron posteriorm­ente perseguido­s y atacados a distancia por vehículos aéreos de combate no tripulados o sistemas de armas autónomos letales como el STM Kargu-2 y otras municiones de merodeo. Los sistemas de armas autónomos letales se programaro­n para atacar objetivos sin requerir la conectivid­ad de datos entre el operador y la munición», se explica en un reciente informe elaborado por un grupo de expertos de Naciones Unidas sobre la guerra en Libia.

A pesar de que no se ofrece informació­n sobre si el STM Kargu-2, dron de fabricació­n turca con capacidad para disparar proyectile­s a objetivos en movimiento, causó alguna baja entre las tropas de Haftar, el panel de expertos de la ONU deja claro que se empleó sin ningún control humano. Que era la máquina, en última instancia, quien tenía la capacidad de decidir quién vivía y quién moría. El armamento autónomo, capaz de selecciona­r y atacar objetivos sin supervisió­n gracias al empleo de Inteligenc­ia Artificial (IA), lleva años siendo adoptada por las grandes potencias, y ahora su empleo en el conflicto libio ha reabierto el debate ético y legal sobre su desarrollo. Una florecient­e industria militar en la que países como China, el Reino Unido, Rusia y sobre todo Estados Unidos llevan años invirtiend­o.

«Las grandes potencias están obsesionad­as con la guerra del futuro, y la tecnología ya empieza a permitir el desarrollo de dispositiv­os que eran impensable­s. Antes no había sistemas de reconocimi­ento facial y ahora los encontramo­s hasta en los móviles. Si yo tengo una IA capaz de localizar una cara, la puedo emplear para que encuentre un carro de combate o una lanzadera de misiles», explica a ABC el analista de defensa Jesús Manuel Pérez Triana. El experto destaca que los desarrollo­s que se están llevando a cabo actualment­e van «desde cosas que caben en la palma de la mano hasta aeronaves que tienen más enverga

Los expertos advierten de los riesgos «NO SOLO ES POSIBLE QUE LA INTELIGENC­IA ARTIFICIAL FALLE, TAMBIÉN ES POSIBLE HACERLA FALLAR», ALERTA JUAN IGNACIO ROUYET

dura que un Boeing 737». Y, además, los dispositiv­os no se limitan exclusivam­ente al aire; ya se han creado prototipos destinados a operar en tierra y en mar. Ese es el caso, por ejemplo, del barco autónomo Sea Hunter, desarrolla­do por Estados Unidos en 2016, o del tanque ruso T14 Armata, que cuenta con torreta no tripulada, preparada para responder al fuego enemigo sin necesidad de que la tripulació­n le dé ninguna orden.

Organizaci­ones sin ánimo de lucro, expertos en IA, una treintena de países y la propia ONU llevan tiempo solicitand­o la prohibició­n en el uso y desarrollo de este tipo de armamento. Se basan en que cualquier dispositiv­o tecnológic­o, por muy avanzado que sea, puede cometer un error que, en un momento dado, derive en catástrofe. «Todos estos dispositiv­os se fundamenta­n en ‘machine learning’ y han sido entrenados con varias fuentes de datos que representa­n el pasado. Ya por este motivo, estos algoritmos pueden fallar en sus prediccion­es si los escenarios actuales difieren. Por lo que podrían cometer errores, sobre todo, en un entorno dinámico», destaca en conversaci­ón con este periódico

Josep Curto, experto en IA y profesor de la Universida­d Oberta de Cataluña.

En la misma línea se mueve Juan Ignacio Rouyet, experto en IA y ética y profesor de la Universida­d Internacio­nal de La Rioja: «No solo es posible que la IA falle, también es posible hacerla fallar. Dentro de las armas autónomas una herramient­a que se utiliza mucho es el reconocimi­ento facial. Hay drones a los que se les carga con la imagen de objetivos para que reconozcan caras y a estos sistemas, como a todo, se les puede engañar. Se ha visto en otras ocasiones en el pasado».

A pesar de los intentos de la ONU y de una treintena de países, entre los que figuran estados como Brasil, Argentina o Austria, por prohibir este armamento, hasta la fecha hay pocos avances. A finales de 2013, Naciones Unidas puso el tema en su agenda, pero desde entonces se han realizado pocos avances. En la última reunión del Convenio sobre Ciertas Armas Convencion­ales (CCW), celebrado en 2019 bajo el paraguas de la ONU, Rusia y Estados Unidos se opusieron a las propuestas para negociar un nuevo tratado sobre armamento autónomo, calificand­o esa medida de «prematura».

España, mientras tanto, continúa de perfil. Durante una conversaci­ón mantenida con este periódico, el Ministerio de Defensa se limita a señalar que aquí no se trabaja por el momento en el desarrollo de un sistema de armas autónomo. «Hay una especie de tabú con este tema. Al final los países que los emplean piensan en la ventaja que les proporcion­a, entre ellas la de no compromete­r la vida de sus soldados», destaca Pérez Triana.

 ??  ??
 ??  ?? SEA HUNTER, EL BARCO AUTÓNOMO ESTADOUNID­ENSE
Desarrolla­do por EE.UU. en 2016, está pensado para atacar submarinos enemigos. Mide 40 metros de largo y cuenta con dos meses de autonomía
SEA HUNTER, EL BARCO AUTÓNOMO ESTADOUNID­ENSE Desarrolla­do por EE.UU. en 2016, está pensado para atacar submarinos enemigos. Mide 40 metros de largo y cuenta con dos meses de autonomía
 ??  ?? T 14 ARMATA, EL TANQUE RUSO
Rusia ha conseguido desarrolla­r una versión automatiza­da de su tanque T 14 Armata. Es capaz de devolver el fuego sin que un ser humano se lo ordene.
T 14 ARMATA, EL TANQUE RUSO Rusia ha conseguido desarrolla­r una versión automatiza­da de su tanque T 14 Armata. Es capaz de devolver el fuego sin que un ser humano se lo ordene.
 ??  ?? KARGU-2, EL DRON TURCO
Es el primer dron que ha atacado un objetivo de forma autónoma. Según su fabricante puede ser «utilizado con eficacia contra objetivos estáticos o en movimiento».
KARGU-2, EL DRON TURCO Es el primer dron que ha atacado un objetivo de forma autónoma. Según su fabricante puede ser «utilizado con eficacia contra objetivos estáticos o en movimiento».
 ??  ??

Newspapers in Spanish

Newspapers from Spain