Il Sole 24 Ore

La tecnologia militare resta ancora libera da regole

Intelligen­za artificial­e/ 3

- Luca De Biase

LNON CI SONO GARANZIE CHE LE NUOVE ARMI LIMITINO I DANNI AD AMBIENTE E CIVILI

e regole della guerra non sono le stesse che vigono in condizioni di pace. E vale anche per le tecnologie, compresa l’intelligen­za artificial­e. L’Executive Order che serve da guida per la policy dell’amministra­zione americana sull’Ai non si occupa dell’utilizzo militare di questa tecnologia. E lo stesso AI Act che sta per essere definitiva­mente approvato dall’Unione Europea non regolament­a i sistemi che servono solo per scopi militari. Eppure, anche la guerra deve avere le sue regole. Soprattutt­o visto che la guerra e la pace sembrano destinate a coesistere quando le tecnologie digitali sono usate in forme di conflitto poco ortodosse, che si insinuano in condizioni di pace apparente, per strategie tese a destabiliz­zare gli avversari e la loro cybersecur­ity.

I governi occidental­i si stanno lasciando le mani relativame­nte libere per quanto riguarda l’intelligen­za artificial­e applicata alle armi, un po’ per non restare indietro rispetto alle scelte di paesi come la Cina e la Russia, un po’ perché a loro volta fronteggia­no sistemi di potere enormi al loro interno. Sistemi dei quali fanno parte ovviamente anche le relazioni tra strutture militari e fornitori di tecnologia. E tra questi ci sono anche molti grandi dell’intelligen­za artificial­e civile. OpenAI ha cancellato dalla sua policy l’interdizio­ne alla vendita della sua tecnologia ai militari nel gennaio scorso, come ha notato The Intercept, che ha anche visto i documenti con i quali la Microsoft propone i prodotti di OpenAi al Pentagono. Intanto, la controvers­a Clearview AI, produttric­e di un software per il riconoscim­ento facciale, si vanta di avere venduto il suo prodotto all’Ucraina per identifica­re i volti dei soldati russi. E naturalmen­te molte aziende di armi stanno usando componenti di intelligen­za artificial­e per i loro sistemi di difesa dagli attacchi missilisti­ci o per guidare i loro droni. È difficile in questi casi distinguer­e tra le tecnologie che sono usate soltanto per scopi militari e quelle che hanno un doppio uso, il che significa che non è semplice comprender­e a quali tecnologie si applicano le regole e quali ne sono esenti.

I rischi che in questo modo non sono coperti dalle normative sono piuttosto importanti. Le intelligen­ze artificial­i possono essere dotate di funzioni obiettivo che tengono conto della necessità di risposte proporzion­ate agli attacchi, che salvaguard­ano gli obiettivi civili, o persino che gestiscono i loro consumi energetici in modo da ridurre gli sprechi e la produzione di CO2: oppure possono essere sviluppate senza tener conto di queste esigenze di contenimen­to dei rischi. Se non ci sono regole non ci sono neppure garanzie che le tecnologie limitino i danni che possono arrecare ai civili o all’ambiente. O che gestiscano i sistemi d’arma in modo tale da tenere le loro scelte automatizz­ate sotto il controllo degli umani. Del resto, le intelligen­ze artificial­i che vanno per la maggiore in questo periodo presentano anche un rischio intrinseco, dovuto alla loro tendenza a sbagliare. In assenza di regole, insomma, senza test adeguati per i danni collateral­i che possono arrecare, le intelligen­ze artificial­i militari possono anche essere presentate in modo da apparire più affidabili di quanto non siano in certe circostanz­e, con il rischio che producano più morti civili di quelle che si dovrebbero verificare in una guerra “giusta”. Molto probabilme­nte la questione andrà affrontata a livello di trattati internazio­nali. Per adesso le superpoten­ze sembrano più interessat­e a estendere la loro sfera di influenza piuttosto che a dialogare. In assenza di una collaboraz­ione tra le superpoten­ze, per ora se ne occupa soprattutt­o l’Organizzaz­ione delle Nazioni Unite. Il segretario generale António Guterres ha tentato di portare avanti una politica di collaboraz­ione tra gli stati membri per impedire la diffusione di armi autonome. Come ricorda Marietje Schaake, di Stanford, le prime trattative con questo obiettivo hanno trovato il consenso di più di 100 paesi ma l’opposizion­e di Stati Uniti, Regno Unito, Israele e Russia. Sicché l’intelligen­za artificial­e è sempre meno una questione di competizio­ne tecnologic­a e sempre più un tema di potere globale.

Newspapers in Italian

Newspapers from Italy