Els robots van a la guerra
El robot Harpy pot estar vagant durant hores, buscant l’enemic fins que detecta una senyal de radar. Quan la troba, té capacitat per autodestruir-se, eliminant l’adversari al mateix temps. El SGR-A1, desenvolupat entre Samsung Techwin i la Universitat de Corea, ja s’ha utilitzat a la frontera entre Corea del Nord i Corea del Sud en tasques de vigilància. Pot detectar automàticament humans amb sensors infrarojos, i podria disparar sense l’ajuda de cap persona. Un altre exemple és l’israelià Harop, que es considera que va ser utilitzat a la regió de Nagorno-Karabakh, territori disputat entre Azerbaidjan i Armènia. Es fa difícil assegurar si els set soldats armenis que van morir l’abril del 2016 per l’atac del dron suïcida van ser les primeres baixes produïdes per un ‘killer robot’ o robot assassí.
Els killer robots són sistemes autònoms d’armament que poden seleccionar i atacar objectius sense un control humà significatiu. D’entrada, suposen una autèntica revolució en el negoci armamentista, ja que permeten abaratir les operacions militars, minimitzar les baixes pròpies i incrementar el volum de negoci en la indústria militar. Però les veus que en qüestionen les bondats no deixen d’alçar-se.
“En l’última dècada s’ha anat construint una narrativa sobre les bondats de la intel·ligència artificial, sense avaluar els marges d’error que existeixen, i que poden ser vides humanes”, alerta el Centre Delàs d’Estudis per la Pau en el darrer informe Noves armes contra l’ètica i les persones. Drons armats i drons autònoms, on també apunta el risc que “les guerres sense risc poden fer prevaldre les solucions militars per damunt de les polítiques”. Els atacs amb drons mostren un ritme de creixement continuat, però mentre que aquests dispositius polèmics disposen d’un operador humà per ser utilitzats, els killer robots poden funcionar per lliure, amb el risc d’executar accions desastroses per les quals no van ser programats a l’inici. La tecnologia requerida per desenvolupar-los –intel·ligència artificial, robòtica, visió per ordinador, aprenentatge automàtic, potència informàtica– avança amb rapidesa, i els dubtes legals i ètics que envolten aquests sistemes s’escampen. L’organització pacifista Pax va ser de les primeres en alertar del risc que suposava el seu desenvolupament i, el 2013, cofundava la campanya internacional Campaign to Stop Killer Robots, la principal coalició en aquesta lluita. Per a Pax, la preocupació més important és l’ètica. “Una màquina mai no hauria d’estar autoritzada a prendre la decisió sobre la vida i la mort. Aquesta decisió no es pot reduir a un algorisme”, expliquen. Però les seves preocupacions també s’estenen a l’àmbit legal. “És poc probable que les armes autònomes puguin complir el dret internacional humanitari, ja que és poc probable que puguin distingir adequadament civils i combatents o que facin una avaluació de proporcionalitat”. A més, aquestes armes creen un buit de responsabilitat. “Qui seria el responsable d’un acte il·lícit: el robot, el desenvolupador o el comandant militar?”.
En els darrers anys, les veus d’alerta de governs i experts en aquesta tecnologia han anat ressonant a les Nacions Unides. El secretari general de la ONU, António Guterres, ha qualificat aquestes armes com a “políticament inacceptables i moralment repulsives”, però no s’ha arribat a acords concrets per prohibir-les. L’objectiu de les entitats és que l’organisme internacional creï un marc legal vinculant per regular l’ús de l’armament sense control humà significatiu. Un total de 30 països ja s’han unit a la crida de la campanya Stop Killer Robots per prohibir les armes totalment autònomes.
Els Estats Units, Rússia, Israel, la Xina i el Regne Unit son alguns dels països fabricants que han expressat interès en el desenvolupament d’aquests sistemes d’armament. A la convenció sobre armes convencionals de Ginebra on es va tractar la qüestió l’agost passat, el representant de Rússia va al·legar que era “prematur” discutir els riscos potencials d’aquest armament. Des de la campanya internacional Stop Killer Robots creuen, però, que si la comunitat internacional posposa la legislació fins que l’armament estigui desenvolupat, serà molt més difícil evitar que s’utilitzi.
A diferència dels drons, no hi ha un humà al darrere; són les màquines les que decideixen
Creix el temor a la fabricació desfrenada d’artefactes tan perillosos