La UE fixa posició sobre els robots assassins: sempre sota control humà
Les armes autònomes han d’acatar el dret internacional, segons l’ONU
La Unió Europea s’ha pronunciat per primera vegada sobre les armes autònomes o robots assassins. Ho va fer el seu representant davant les Nacions Unides (ONU) durant la conferència sobre certes armes convencionals que es va celebrar a Ginebra entre el 9 i el 13 d’aquest mes, i va deixar clar que els socis comunitaris no es plantegen prohibir el desenvolupament de les armes autònomes perquè aquesta mateixa tecnologia pot servir per al progrés civil i aplicacions industrials, però reivindiquen que s’utilitzin sempre sota supervisió i control humans.
El problema és que ni els socis comunitaris entre si ni la resta de països que participen en les reunions de l’ONU sobre armes autònomes letals no aconsegueixen posar-se d’acord en què significa “control humà”. Per a alguns estats –entre ells els Països Baixos o Alemanya– el fet que els algoritmes que regeixen un míssil robòtic estiguin dissenyats per persones ja garanteix el control humà, perquè encara que el robot aprengui de l’entorn i prengui decisions, aquestes seran sempre conformes a l’algoritme que li han donat. En canvi altres països –entre ells molts africans i llatinoamericans que s’han sumat a la campanya Stop Killer Robots (pareu els robots assassins)– defensen que “control humà” significa que la decisió d’atacar o no un objectiu no deixi d’estar mai en mans de persones, la qual cosa a la pràctica significa permetre armes semiautònomes però prohibir les totalment autònomes.
Milton J. Meza Rivas, assessor del grup de treball sobre sistemes d’armes autònomes letals de l’ONU en representació de la Universitat de Barcelona, assegura que les posicions sobre qui ha de controlar en última instància l’atac a un objectiu concret són dispars fins i tot entre els països europeus, i les decisions de la conferència de l’ONU sobre armament s’han de prendre per unanimitat, cosa que fa preveure que no serà fàcil arribar a un acord. Per això hi ha els qui proposen traslladar aquestes discussions fora del marc formal de Nacions Unides –com va fer la convenció d’Ottawa per prohibir les mines antipersones i la convenjectius ció d’Oslo sobre municions en carràs–, perquè es puguin tancar acords per majoria simple.
Meza Rivas, que participa en un projecte d’investigació titulat Els sistemes d’armes autònomes letals: els reptes de l’adopció d’una regulació internacional sobre els usos, el control operatiu i la disponibilitat per part d’empreses privades, emfatitza que quan es parla de prohibir o regular els robots assassins pot sonar a ciència-ficció però la realitat és que ja s’estan fent servir armes bastant autònomes. “En l’atac a Síria ordenat per Trump el passat cap de setmana es van utilitzar míssils Tomahawk que, com bé va explicar la seva enginyera durant la cimera de Ginebra, validen els ob- i executen l’atac per si mateixos”, detalla.
I assegura que encara que teòricament el militar que ha programat el tipus d’objectiu buscat podria avortar la decisió d’atac que prengui el míssil, “a la pràctica no anirà mai en contra del que digui la intel·ligència artificial de la màquina perquè ella maneja més informació, de forma molt més ràpida i és al terreny, mentre que el militar no hi és, així que l’humà confiarà sempre en el diagnòstic que faci la màquina a partir dels paràmetres que li han facilitat”.
Precisa que durant els cinc dies de debat a Ginebra s’ha parlat bastant que la decisió d’activar o no una arma letal l’ha de prendre una persona, però que la selecció i atac d’objectius podria fer-se sense intervenció humana, plantejament que preocupa els més reticents als robots assassins. “Aquest plantejament garanteix que un humà estigui en el bucle de decisió com exigeixen molts experts, però què passa si una vegada activada l’arma és piratejada o pateix un error?”, qüestiona l’investigador de la UB. I explica que ara com ara, si s’ataca civils, béns culturals, hospitals, etcètera, es pot perseguir els responsables per un delicte contra el dret internacional humanitari, i el que es discuteix al fòrum de l’ONU és precisament si amb l’ús d’aquestes tecnologies armamentístiques avançades els estats són capaços de continuar complint aquests drets.
L’objectiu dels estats membres, segons es recull en les conclusions de les seves reunions, és aconseguir que així sigui perquè defensen que el dret internacional humanitari és aplicable a “tots” els sistemes armamentístics, inclosos els autònoms, i els estats han de continuar sent els responsables que allò es compleixi. Per aprofundir en com poden garantir-ho està prevista una nova conferència de l’ONU del 20 al 30 d’agost.
L’opció que una persona activi l’arma i sigui la màquina qui seleccioni objectiu i ataqui suscita polèmica