La guerra automatica
Armi senza soldati e robot killer La corsa (pericolosa) delle grandi potenze e le contromisure
Sea Hunter
Robot umanoide russo con intelligenza artificiale. Originariamente creato per missioni di recupero, ora viene addestrato per sparare con due pistole rimanendo in equilibrio manifestarsi di certe condizioni di pericolo? Aumenterebbe esponenzialmente il rischio di scatenare un vero conflitto perché si reagisce con troppa durezza a un attacco partito per un errore. Ipotesi in parte ancora remote, in parte destinate a concretizzarsi entro pochissimi anni e rispetto alle quali già dal 2013 si è messo in modo un movimento che chiede la messa al bando delle cosiddette Laws, Lethal autonomous weapons systems, armi autonome letali. Ma il rischio di un abbassamento della soglia di deterrenza Il dibattito
● Alcune delle principali potenze militari del pianeta stanno lavorando da tempo per costruire armi totalmente «autonome», che non prevedono il comando di un essere umano
● Questo scenario, definito da alcuni «da Terminator», pone nuovi problemi pratici, etici e giuridici sull’utilizzo in guerra di tecnologie così avanzate
● Cinque anni fa è partita una campagna internazionale dal nome «Stop Killer Robots» per fermare gli Stati in queste ricerche potenzialmente molto pericolose è già evidente: se vieni provocato, sarai più propenso a rispondere con le armi se sai di poter attaccare senza subire perdite. Sono in molti a ritenere che Londra e Parigi hanno deciso di non lasciare soli gli Stati Uniti in Siria perché c’era la possibilità di conseguire il risultato politico derivante da una dimostrazione di forza, senza rischiare praticamente nulla, almeno sul campo di battaglia. Un vero antipasto di guerra automatica. E anche un po’ virtuale, visto che dall’incrocio di razzi, fake news e manovre di disinformazione, è venuta fuori l’accusa dei russi secondo i quali i missili francesi non sono mai arrivati sul bersaglio.
Nonostante tutti gli sforzi di chi cerca di fermare la corsa verso la creazione di veri e propri eserciti robotizzati, le possibilità di successo sono minime. Lanciata cinque anni fa con un appello firmato da premi Nobel, scienziati come Steven Hawking e imprenditori come Elon Musk, Steve Wozniak e Mustafa Suleyman di Alphabet-google, la campagna internazionale Stop Killer Robots ha obbligato le potenze a confrontarsi spesso su questo problema in sede Onu. Ma le cinque conferenze che l’onu ha dedicato alla corsa verso la guerra automatica (l’ultima pochi giorni fa a Ginevra) non hanno dato risultati, anche se 22 Paesi si sono espressi ufficialmente contro.
Tutti sono decisi a rifiutare ogni limite all’uso della tecnologia sul campo di battaglia: l’america perché convinta di poter trarre vantaggio dalla sua leadership tecnologica, Cina e Russia perché sperano di poter colmare, il gap strategico che oggi le separa dagli Stati Uniti nelle armi convenzionali. Ci sono stati casi, come quello delle mine anti-uomo, in cui un accordo di messa al bando si è rivelato efficace. Ma le potenze tecnologiche non vogliono sentir parlare di limiti per l’intelligenza artificiale: bloccare la ricerca militare, dicono, danneggerebbe anche quella civile. E nessuno accetta di legarsi le mani quando nemmeno si sa bene in quale direzione evolverà la tecnologia.
La campagna Nobel e imprenditori si sono mossi anche all’onu per chiedere agli Stati di fermarsi