Drapsroboter på dagsorden i FN
Google-ansatte protesterer mot at selskapet bidrar til utvikling av kunstig intelligens for det amerikanske forsvaret, og forskere oppfordrer til boikott av et sørkoreansk universitet som utvikler selvstyrte krigsmaskiner.
Arnold Schwarzenegger vandrer målrettet gjennom politistasjonens snevre ganger, iført solbriller og skinnjakke. De forsvarsløse politibetjentene blir sablet ned av bly når de kommer mellom ham og hans mål, Sarah Connor. Uten samvittighet og uten måtehold. Kun kald kalkyle: Finn. Drep.
Da filmen «Terminator» kom i 1984 var tanker om en dødbringende robot som den Schwarzenegger spilte kun ren science fiction. Og selv om menneskeliknende maskiner på to ben med moteriktige skinnjakker og drapsinstinkter fortsatt er et stykke inn i fremtiden er det ikke lenger tvil om at drapsrobotene er på vei.
Selvstyrte krigsmaskiner
USA, Kina, Russland, Israel og England fører an i utviklingen av mer eller mindre selvstyrte krigsmaskiner. Droner, jagerfly, tanks og ubåter med potensial til å ødelegge og drepe uten å bli beordret om det av deres menneskelige oppfinnere.
Utviklingen vekker stor bekymring verden over, og derfor skal representanter fra mer enn 80 land og atskillige interesseorganisasjoner denne uken møtes i sveitsiske Genève, hvor FN skal diskutere dødelige, selvstyrende våpen – de såkalte drapsrobotene.
Debatten om drapsroboter har skutt fart i løpet av de siste årene. Flere ganger har forskere, eksperter og teknologi-ikoner, anført av prominente navn som Elon Musk og den nå avdøde Stephen Hawking, offentlig etterspurt et forbud mot utvikling og bruk av autonome våpen.
Forsker-boikott
Nylig oppfordret mer enn 50 forskere på feltet kunstig intelligens til boikott av det sørkoreanske universitetet Kaist, fordi universitetet samarbeider med en sørkoreansk virksomhet som utvikler våpensystemer med kunstig intelligens.
Onsdag i forrige uke kunne den amerikanske avisen New York Times presentere et internt brev sendt av flere enn 3000 Google-ansatte til Googles øverste sjef, Sundar Pichai. I brevet tryglet de ansatte direktøren om å annullere Googles avtale om utvikling av intelligente overvåkings- og målutvelgelsessystemer for det amerikanske forsvaret.
– Å skape denne teknologien for å hjelpe den amerikanske regjeringen med militaer overvåking – med potensielle dødelige følger – er ikke akseptabelt, skrev de Google-ansatte i brevet.
Antirobot kampanje
En av deltakerne ved FN-møtet denne uken er robotekspert Noel Sharkey. Ut over å vaere professor emeritus i robotteknologi ved University of Sheffield har han i årevis kjempet for et FNforbud mot autonome våpen, som talsperson for kampanjen «Stop Killer Robots».
– Vi blir nødt til å få i stand et internasjonalt forbud mot utvikling og bruk av autonome krigsroboter før det kommer så langt at de blir tatt i bruk, sier Noel Sharkey.
Det er saerlig to ting som bekymrer kritikerne som omtaler utviklingen av intelligente drapsmaskiner for «den tredje store våpenrevolusjonen». Den første var bruk av krutt, den andre oppfinnelsen av atomvåpen.
Moral og sikkerhet
Det første kritikkpunktet er det moralske. At roboter skal kunne ta selvstendige beslutninger om hvorvidt et menneske skal leve eller dø er helt grunnleggende moralsk feil, mener Noel Sharkey. Roboter verken kan eller skal vurdere om et mål helliger midlet i komplekse og uforutsigbare militaere situasjoner.
– Det finnes ingen algoritme som kan regne ut om det for eksempel er verdt å drepe Bin Laden om det også koster livene til 25 gamle damer eller ti små barn. Det er scenarioer som ikke kan forutsies, og som krever et man har et erfarent befal på stedet for å ta slike beslutninger, sier Noel Sharkey.
Den andre store bekymringen handler om global sikkerhet. Kritikerne frykter at utviklingen av autonome våpen risikerer å ende opp i et selvdestruktivt våpenkappløp hvor store nasjoner konkurrerer om å utvikle nye og enda mer destruktive autonome våpen. Samtidig risikerer man at teknologien ender i hendene på skruppelløse diktatorer og terrorister som kan volde store skader.
Skrekk-scenario
Det verst tenkelige scenarioet er imidlertid at autonome våpensystemer starter en uønsket konflikt fordi det tar et valg basert på en programmert instruks som ikke har et menneskes evne til å gjøre nyanserte vurderinger.
– Det finnes mange eksempler på at man har unngått at konflikter har brutt ut eller eskalert fordi mennesker med fingeren på avtrekkeren har nektet å følge ordre og utvist måtehold. Det kan man ikke forvente at programmet til en robot vil gjøre, advarer Noel Sharkey.