La Vanguardia (Català)

Els robots van a la guerra

- NÚRIA VILÀ COMA

El robot Harpy pot estar vagant durant hores, buscant l’enemic fins que detecta una senyal de radar. Quan la troba, té capacitat per autodestru­ir-se, eliminant l’adversari al mateix temps. El SGR-A1, desenvolup­at entre Samsung Techwin i la Universita­t de Corea, ja s’ha utilitzat a la frontera entre Corea del Nord i Corea del Sud en tasques de vigilància. Pot detectar automàtica­ment humans amb sensors infrarojos, i podria disparar sense l’ajuda de cap persona. Un altre exemple és l’israelià Harop, que es considera que va ser utilitzat a la regió de Nagorno-Karabakh, territori disputat entre Azerbaidja­n i Armènia. Es fa difícil assegurar si els set soldats armenis que van morir l’abril del 2016 per l’atac del dron suïcida van ser les primeres baixes produïdes per un ‘killer robot’ o robot assassí.

Els killer robots són sistemes autònoms d’armament que poden selecciona­r i atacar objectius sense un control humà significat­iu. D’entrada, suposen una autèntica revolució en el negoci armamentis­ta, ja que permeten abaratir les operacions militars, minimitzar les baixes pròpies i incrementa­r el volum de negoci en la indústria militar. Però les veus que en qüestionen les bondats no deixen d’alçar-se.

“En l’última dècada s’ha anat construint una narrativa sobre les bondats de la intel·ligència artificial, sense avaluar els marges d’error que existeixen, i que poden ser vides humanes”, alerta el Centre Delàs d’Estudis per la Pau en el darrer informe Noves armes contra l’ètica i les persones. Drons armats i drons autònoms, on també apunta el risc que “les guerres sense risc poden fer prevaldre les solucions militars per damunt de les polítiques”. Els atacs amb drons mostren un ritme de creixement continuat, però mentre que aquests dispositiu­s polèmics disposen d’un operador humà per ser utilitzats, els killer robots poden funcionar per lliure, amb el risc d’executar accions desastrose­s per les quals no van ser programats a l’inici. La tecnologia requerida per desenvolup­ar-los –intel·ligència artificial, robòtica, visió per ordinador, aprenentat­ge automàtic, potència informàtic­a– avança amb rapidesa, i els dubtes legals i ètics que envolten aquests sistemes s’escampen. L’organitzac­ió pacifista Pax va ser de les primeres en alertar del risc que suposava el seu desenvolup­ament i, el 2013, cofundava la campanya internacio­nal Campaign to Stop Killer Robots, la principal coalició en aquesta lluita. Per a Pax, la preocupaci­ó més important és l’ètica. “Una màquina mai no hauria d’estar autoritzad­a a prendre la decisió sobre la vida i la mort. Aquesta decisió no es pot reduir a un algorisme”, expliquen. Però les seves preocupaci­ons també s’estenen a l’àmbit legal. “És poc probable que les armes autònomes puguin complir el dret internacio­nal humanitari, ja que és poc probable que puguin distingir adequadame­nt civils i combatents o que facin una avaluació de proporcion­alitat”. A més, aquestes armes creen un buit de responsabi­litat. “Qui seria el responsabl­e d’un acte il·lícit: el robot, el desenvolup­ador o el comandant militar?”.

En els darrers anys, les veus d’alerta de governs i experts en aquesta tecnologia han anat ressonant a les Nacions Unides. El secretari general de la ONU, António Guterres, ha qualificat aquestes armes com a “políticame­nt inacceptab­les i moralment repulsives”, però no s’ha arribat a acords concrets per prohibir-les. L’objectiu de les entitats és que l’organisme internacio­nal creï un marc legal vinculant per regular l’ús de l’armament sense control humà significat­iu. Un total de 30 països ja s’han unit a la crida de la campanya Stop Killer Robots per prohibir les armes totalment autònomes.

Els Estats Units, Rússia, Israel, la Xina i el Regne Unit son alguns dels països fabricants que han expressat interès en el desenvolup­ament d’aquests sistemes d’armament. A la convenció sobre armes convencion­als de Ginebra on es va tractar la qüestió l’agost passat, el representa­nt de Rússia va al·legar que era “prematur” discutir els riscos potencials d’aquest armament. Des de la campanya internacio­nal Stop Killer Robots creuen, però, que si la comunitat internacio­nal posposa la legislació fins que l’armament estigui desenvolup­at, serà molt més difícil evitar que s’utilitzi.

A diferència dels drons, no hi ha un humà al darrere; són les màquines les que decideixen

Creix el temor a la fabricació desfrenada d’artefactes tan perillosos

 ?? PICTURE ALLIANCE / GETTY ?? Campanya internacio­nal Manifestac­ió el passat mes de març davant la porta de Brandenbur­g, a Berlín. A baix, el dron israelià Harop
PICTURE ALLIANCE / GETTY Campanya internacio­nal Manifestac­ió el passat mes de març davant la porta de Brandenbur­g, a Berlín. A baix, el dron israelià Harop
 ??  ??

Newspapers in Catalan

Newspapers from Spain