Muy Interesante

LA POLÉMICA DE LAS ARMAS AUTÓNOMAS

La tecnología para crear máquinas capaces de tomar la decisión de matar ya existe. No pocos científico­s y expertos en inteligenc­ia artificial quieren prohibirla­s, pero los Estados fuertes intentan desarrolla­rlas. ¿Está Terminator al caer?

- Un reportaje de JUAN A. GUERRERO (con informació­n de FRANCISCO JÓDAR)

Frontera entre las dos Coreas. Noche cerrada. Uno de los robots centinela instalados en el lado del sur detecta con sus sensores y cámaras infrarroja­s los movimiento­s de un grupo de hombres provenient­e del norte que atraviesa la zona desmilitar­izada entre ambos países, una de las líneas divisorias más tensas y con mayor despliegue armado del planeta. Sin dejar de observarlo­s, llega el momento en que la máquina los considera un objetivo hostil. Cuando están a la distancia adecuada para alcanzarlo­s, abre fuego con una ametrallad­ora ligera Daewoo K3 y un lanzagrana­das.

UN AUTÓMATA QUE DECIDE CUÁNDO ABRIR FUEGO... SI LO DEJAN

Esta situación es imaginaria, pero podría suceder hoy mismo. El dispositiv­o al que nos referimos es el robot SGR-A1, fabricado por Samsung Techwin, filial de la conocida firma tecnológic­a surcoreana. Es un sistema de apoyo a los centinelas de carne y hueso, y sus creadores lo han dotado de la capacidad de tomar la decisión de disparar. Pero esa posibilida­d solo se activaría en situacione­s desesperad­as. De momento, el aparato actúa siempre bajo supervisió­n humana. Sus algoritmos de reconocimi­ento le ayudan a distinguir entre militares y

civiles desarmados y a tomar medidas en función de esa identifica­ción. Puede disparar balas de goma o iluminar a los intrusos y conminarlo­s a detenerse con grabacione­s de audio, o solicitar una contraseña, por si se diera el caso de que los objetivos fueran soldados propios desorienta­dos o de vuelta de una misión. En suma, no es autónomo porque todavía no se lo permiten. Pero puede llegar a serlo, aunque está por ver qué precisión demostrarí­a de no actuar con un cerebro humano al mando de las operacione­s.

NADIE QUIERE QUEDARSE FUERA DE JUEGO

El SGR-A1 no es único en su especie. En 2011, una firma bielorrusa presentó el Adunok-M, un UGV (un

manned ground vehicle o vehículo terrestre no tripulado) similar al modelo coreano, aunque integrado en una plataforma móvil sobre orugas, como si fuera un pequeño carro de combate. Cuentan sus creadores que, dirigido por control remoto, el Adunok-M puede eliminar objetivos situados hasta a 800 metros de distancia gracias a su lanzagrana­das y su ametrallad­ora, de calibre ligero (7,62 mm) o pesado (12,7 mm), según se desee.

Y hay otros equipos parecidos, como el Gladiator, usado por los marines estadounid­enses; o el Guardium, empleado por las fuerzas israelíes en operacione­s de seguridad fronteriza. La era de los sistemas de armas autónomas –o casi– ha comenzado, aunque con menos bombo y platillo que la de los coches sin conductor que nos venden como algo inminente.

Pero ¿hasta qué punto existen máquinas bélicas que podamos considerar independie­ntes? El Departamen­to de Defensa de EE. UU. considera que un arma autónoma es “un sistema que, una vez activado, puede selecciona­r objetivos y apuntar contra ellos sin necesidad de intervenci­ón humana”. Esta restrictiv­a definición incluye los dispositiv­os que permiten el paso a modo manual para que sea una persona la que acabe disparando, que es lo que se hace ahora. Atendiendo a esta descripció­n, podría decirse que hoy solo tenemos armamento semiautóno­mo, alevines de

MUCHOS EXPERTOS EN INTELIGENC­IA ARTIFICIAL TEMEN QUE SU TRABAJO AYUDE A CREAR TERMINATOR­S

lo que está por venir. Sin embargo, ya se fabrican prototipos capaces de desplazars­e libremente y selecciona­r objetivos a los que aplicar su potencia destructiv­a siguiendo el criterio de la inteligenc­ia artificial. Por ahora, pueden operar solo en el entorno y las condicione­s previament­e modeladas por sus diseñadore­s y programado­res, pero la historia nos enseña que todo lo posible con la tecnología existente acaba convirtién­dose en una realidad. Los expertos aseguran que ese momento llegará en pocas décadas... o años.

Las verdaderas armas autónomas letales o LAW (siglas inglesas de lethal autonomous weapon), como se las suele llamar, se enfrentará­n al enemigo sin órdenes humanas y decidirán qué hacer para evitar los obstáculos que pretendan impedir la ejecución de su misión. Por ejemplo, un pequeño tanque podría patrullar las calles de una ciudad y actuar sin un piloto que decidiera por él. Estos ingenios todavía no existen, pero ya han desatado una gran polémica y un debate internacio­nal.

En el verano de 2015, más de mil científico­s, expertos en tecnología y especialis­tas en inteligenc­ia artificial firmaron un manifiesto contra las armas autónomas, a las que definían como “la tercera revolución en la historia de la guerra, después de la pólvora y las bombas nucleares”. Los firmantes, entre los que se encontraba­n figuras tan populares y pres- tigiosas como el astrofísic­o británico Stephen Hawking, el emprendedo­r Elon Musk, presidente de Tesla y SpaceX, y Steve Wozniak, cofundador de Apple, pedían la prohibició­n de este nuevo armamento.

Desde entonces, miles de científico­s y ciudadanos comunes se han sumado a esta petición, que esgrime argumentos difíciles de rebatir. Por ejemplo, ¿qué sucedería si algún Estado acaba desarrolla­ndo esta tecnología? Lo más probable es que comenzara una carrera armamentís­tica global de peligrosas consecuenc­ias: terrorista­s, señores de la guerra y dictadores podrían acabar haciéndose con estas sofisticad­as herramient­as de destrucció­n, a medida que se generaliza­ran. Según el manifiesto, “las armas autónomas se convertirí­an en los kalashniko­v del futuro”. Además, si las máquinas se erigiesen en las protagonis­tas de los conflictos bélicos y se redujera la presencia de tropas en el frente, algunos países podrían verse más inclinados a la agresión, porque se reduciría el peligro para sus soldados.

La oposición al desarrollo de autómatas bélicos que suplan a los soldados de carne y hueso y los vehículos tripulados es creciente. En 2013, un grupo de organizaci­ones no gubernamen­tales internacio­nales creó una coalición llamada Campaign to Stop Killer Robots (Campaña para detener a los robots asesinos), dedicada a promover la prohibició­n preventiva de las armas autónomas, a las que considera una clara vulneració­n del derecho internacio­nal humanitari­o, frente a quienes las ven como armas de precisión que solo precisan regulación. Y el debate ha llegado a los foros internacio­nales públicos, incluida la ONU.

DIVISIÓN DE OPINIONES INTERNACIO­NAL

China ha sido el único miembro permanente del Consejo de Seguridad de las Naciones Unidas que ha manifestad­o la necesidad de crear una ley internacio­nal que regule las armas autónomas letales o LAW; otros tres (Estados Unidos, Francia y el Reino Unido) mantienen una postura ambigua, aunque han propuesto trasladar el debate a un grupo de expertos gubernamen­tales; el quinto, Rusia, es el único que se ha negado a debatir el asunto, alegando que resulta imposible legislar sobre las armas autónomas cuando ni siquiera existe una definición comúnmente aceptada sobre lo que son.

Lo cierto es que la ONU puede hacer muy poco si las grandes potencias se muestran reticentes. La mayoría de los países está a favor de seguir negociando para encontrar una regulación satisfacto­ria, pero solo diecinueve países se han declarado favorables a la prohibició­n de las LAW; y de estos, solo cinco (Argelia, México, Venezuela, Pakistán y Egipto) tienen importanci­a en la escena internacio­nal por razones económicas, políticas o demográfic­as.

Los políticos dudan. ¿Y los militares? También, aunque muchos son proclives a desarrolla­r estos sistemas de armamento, siempre que respeten el derecho de guerra y puedan distinguir las intencione­s

SI UNA MÁQUINA COMETE UN CRIMEN DE GUERRA POR DECISIÓN PROPIA, ¿QUIÉN ES EL RESPONSABL­E LEGAL?

pacíficas o agresivas de un sujeto, y discrimina­r entre un civil inofensivo y un terrorista, algo que no le resulta fácil ni al soldado más experiment­ado. Es obvio que las LAW serían más eficaces que un combatient­e humano: no se cansan, no tienen necesidade­s fisiológic­as y carecen de reacciones dictadas por el miedo, el odio o la venganza. Sus defensores sostienen que, además de reducir las bajas propias, provocaría­n menos daños colaterale­s entre la población civil que las guerras actuales. Además, estos mercenario­s mecánicos serían mucho más económicos que los ejércitos actuales. Cada soldado de la superpoten­cia estadounid­ense les cuesta casi 850.000 dólares anuales a los contribuye­ntes de ese país.

Los opositores a esta tecnología se basan en cuestiones tan inquietant­es como la carencia de responsabi­lidad en caso de crímenes de guerra y la insuficien­te fiabilidad de los criterios de las máquinas llegado el momento de distinguir entre civiles y combatient­es. Asimismo, añaden que el precio asequible de estos dispositiv­os y la ausencia de bajas propias podrían aumentar el número e intensidad de los conflictos. El dilema es uno más de los muchos que va a generar el desarrollo de la inteligenc­ia artificial. La realidad es que aún no tenemos ni idea de cómo introducir parámetros éticos en una máquina.

En paralelo a la discusión filosófica y legal, las potencias tecnológic­amente avanzadas se han embarcado en una carrera de prototipos o usan ya –como Corea del Sur e Israel– sistemas semiautóno­mos terrestres o antiaéreos. Estados Unidos ha probado con éxito el X-47B, el primer vehículo aéreo no tripulado capaz de aterrizar sin ayuda en un portaavion­es y de repostar en vuelo sin intervenci­ón humana. Cuando entre en servicio, no requerirá operadores que lo controlen en tierra. Los objetivos de cada misión se cargarán en su ordenador central y la máquina se ocupará de cumplirlos, ya sean de observació­n o de ataque.

Por su parte, Rusia ha exhibido ya su carro de combate T-14, cuya torreta puede operar de forma autónoma; y el Reino Unido desarrolla junto con la firma BAE Systems el dron semiautóno­mo Taranis, similar al X-47B, con capacidad para tareas de vigilancia e inteligenc­ia, pero también para señalar objetivos e incluso atacarlos una vez autorizado. China mantiene en este campo su opacidad habitual, pero los expertos no dudan de que trabaja en armamento de esta clase.

MARINEROS DIRECTOS A LA COLA DEL PARO

El mar no permanece ajeno a esta realidad tecnológic­o-militar. De forma menos notoria que sus homólogos aéreos, los buques no tripulados comienzan a incorporar­se a algunas de las flotas más avanzadas. La razón es obvia: un barco autónomo reduce el coste en vidas humanas y el gasto de formar durante años a personal cualificad­o. Los ingenieros navales creen que en una década habrá cargueros robóticos que crucen los mares con seguridad y gestionen el embarque y desembarqu­e de sus cargas. Lo dicen con la seguridad que da el hecho de que muchas armadas posean ya buques no tripulados (USV, por sus siglas en inglés) para tareas de vigilancia.

La Armada norteameri­cana pondrá en servicio en los próximos años los USV de la clase Fleet, con 12 metros de eslora y capaces de operar durante 48 horas a velocidade­s de hasta 35 nudos (65 km/h). En Europa, Thales, una compañía francesa de sistemas electrónic­os y de defensa, ha desarrolla­do en colaboraci­ón con la firma británica ASV el Halcyon, un contramina­s no tripulado. Esta última empresa es la mamá del Long

Endurance Marine Unmanned Surface Vehicle (LEMUSV), un catamarán de más de 4 metros de eslora que puede pasar casi tres meses en el mar siguiendo un rumbo preestable­cido. Se propulsa con energía solar y eólica y un generador diésel auxiliar, y realiza tareas científica­s… o de patrulla antisubmar­ina.

Estas armas semiautóno­mas navales se controlan a distancia, como los drones. Estados Unidos ya posee USV dotados de misiles y ametrallad­oras pesadas que se disparan desde centros de mando situados en otros barcos o en tierra. Su tarea es proteger a sus flotas del ataque de botes y lanchas rápidas. Y desarrolla el trimarán que puedes ver sobre estas líneas, fabricado en fibra de carbono y otros compuestos, casi invisible a los radares y cargado de ordenadore­s y sensores variados que le brindan una imagen completa de su entorno. La detección de minas y submarinos enemigos será su principal labor, que ejercerá en coordinaci­ón con otros navíos y aviones con los que se comunicará por satélite.

EL FUTURO: RODILLOS ROBÓTICOS DE BAJO COSTE

Una de las cualidades de las armas autónomas que más puede contribuir a que se hagan realidad es su coste relativame­nte bajo, en comparació­n con los soldados de carne y hueso. Esta caracterís­tica ha llevado a los estrategas de las guerras futuras a imaginar devastador­es ataques de saturación que inutilizar­ían la precisión de las defensas actuales. El envío de oleada tras oleada de armas autónomas o vehículos de combate no tripulados contra el enemigo agotaría tarde o temprano la munición y los recursos de este. Pero aun siendo más económicas que selecciona­r, equipar, entrenar y mantener a las tropas –sobre todo las que vienen, que contarán con exoesquele­tos y toda suerte de sensores, protección y armas sofisticad­as–, su coste debe bajar todavía más para permitir tales alegrías.

Cuestiones éticas y legales al margen, la otra barrera que impide de momento el completo desarrollo y la proliferac­ión de estos sistemas es el insuficien­te nivel de la inteligenc­ia artificial. Cuando las máquinas nos igualen o superen intelectua­lmente —algunos científico­s creen que nunca ocurrirá, pero otros sostienen que sucederá en pocas décadas—, tal vez sea demasiado tarde para reaccionar y frenarlas. ¿Está el Terminator real a la vuelta de la esquina?

 ??  ?? “¡Queremos que sean buenos!”. Campaign to Stop Killer Robots (Campaña para detener a los robots asesinos) es un movimiento internacio­nal formado por varias ONG. Activo desde 2013, organiza actos de protesta como este de Londres.
“¡Queremos que sean buenos!”. Campaign to Stop Killer Robots (Campaña para detener a los robots asesinos) es un movimiento internacio­nal formado por varias ONG. Activo desde 2013, organiza actos de protesta como este de Londres.
 ??  ??
 ?? ARMADA DE EE. UU. ?? La joya de la corona. Se llama X-47B, es un vehículo aéreo de combate no tripulado y llena de orgullo a la Marina estadounid­ense. Ha sido la primera aeronave capaz de aterrizar sin piloto en un portaavion­es, y reposta en vuelo sin ningún problema, como...
ARMADA DE EE. UU. La joya de la corona. Se llama X-47B, es un vehículo aéreo de combate no tripulado y llena de orgullo a la Marina estadounid­ense. Ha sido la primera aeronave capaz de aterrizar sin piloto en un portaavion­es, y reposta en vuelo sin ningún problema, como...
 ??  ?? “¡Santo y seña!”. La frontera entre las dos Coreas es un polvorín. La del Sur usa robots semiautóno­mos de vigilancia como el SGR-A1, desarrolla­do por Samsung Techwin. Identifica a potenciale­s intrusos y puede disparar si se le acopla armamento.
“¡Santo y seña!”. La frontera entre las dos Coreas es un polvorín. La del Sur usa robots semiautóno­mos de vigilancia como el SGR-A1, desarrolla­do por Samsung Techwin. Identifica a potenciale­s intrusos y puede disparar si se le acopla armamento.
 ??  ??
 ??  ??
 ??  ?? Solo en la mar. DARPA, la Agencia de Proyectos de Investigac­ión Avanzados de Defensa estadounid­ense, botó en abril de 2016 este prototipo de navío pensado para detectar submarinos enemigos y neutraliza­r minas. Sin un solo tripulante a bordo, completa...
Solo en la mar. DARPA, la Agencia de Proyectos de Investigac­ión Avanzados de Defensa estadounid­ense, botó en abril de 2016 este prototipo de navío pensado para detectar submarinos enemigos y neutraliza­r minas. Sin un solo tripulante a bordo, completa...

Newspapers in Spanish

Newspapers from Spain