Kil­ler-Ro­bo­ter auf dem Vor­marsch Di­plo­ma­ten rin­gen um Kon­trol­le

Smar­te Waf­fen, das hört sich cle­ver an. Aber da­hin­ter ste­cken „Kil­ler­r­o­bo­ter“Waf­fen, die selbst Zie­le aus­wäh­len und feu­ern. Muss das nicht ver­bo­ten wer­den? Dar­um ran­gen jetzt Ver­hand­ler in Genf.

Amerika Woche - - Front Page -

Ma­schi­nen, die in den Krieg ge­schickt wer­den und selbst Zie­le wäh­len und tö­ten Fort­schritt oder Hor­ror­vor­stel­lung? Was wie ein Sci­ence-Fic­tion-Film klingt, ist längst in der Ent­wick­lung. „Töd­li­che au­to­no­men Waf­fen“sind ge­meint, auch Kil­ler­r­o­bo­ter ge­nannt. Das kön­nen schie­ßen­de Ro­bo­ter sein, töd­li­che Droh­nen, un­be­mann­te U-Boo­te. Sie wer­den im Kampf­ein­satz nicht von Men­schen di­ri­giert, son­dern ent­schei­den au­to­nom, was ein le­gi­ti­mes Ziel ist und feu­ern töd­li­che Sal­ven ab. Muss das nicht ver­bo­ten wer­den? Dar­um ran­gen jetzt wie­der Di­plo­ma­ten aus Dut­zen­den Län­dern im schwei­ze­ri­schenn Genf.

„Man soll­te die Sa­che nicht dra­ma­ti­sie­ren“, wie­gel­te der Vor­sit­zen­de der Be­ra­tun­gen, der in­di­sche Bot­schaf­ter Aman­de­ep Gill (im Fo­to oben links), im Früh­jahr ab. „Ro­bo­ter wer­den nicht die Welt über­neh­men.“Aber Kri­ti­ker sind den­noch höchst alar­miert.

„Waf­fen kön­nen nicht zwi­schen Freund und Feind un­ter­schei­den und ge­hö­ren auf den völ­ker­recht­li­chen Prüf­stand“, sag­te Tho­mas Kü­chen­meis­ter von der deut­schen Or­ga­ni­sa­ti­on Fa­c­ing Fi­nan­ce, Mit­glied der in­ter­na­tio­na­len Kam­pa­gne ge­gen Kil­ler­r­o­bo­ter („Cam­pai­gn to Stop Kil­ler Ro­bots“). Ei­ne Ent­schei­dung, Men­schen­le­ben aus­zu­lö­schen, dür­fe nie­mals ei­ner Ma­schi­ne über­las­sen wer­den.

Au­to­no­me Waf­fen wer­den durch die ra­san­te Ent­wick­lung Künst­li­cher In­tel­li­genz mög­lich. Com­pu­ter ler­nen an­hand von ein­ge­füt­ter­ten Da­ten, wie ein Ziel aus­sieht, wie es sich be­wegt, wann es an­ge­grif­fen wer­den soll und zün­den, oh­ne, dass ein Mensch an der Ent­schei­dung noch be­tei­ligt ist. Zu un­ter­schei­den ist das von au­to­ma­ti­schen Waf­fen, et­wa Pa­tri­ot-Ra­ke­ten. Die schie­ßen zwar au­to­ma­tisch, aber das Ziel muss vor­her von Men­schen ge­nau ein­pro­gram­miert wer­den.

„Es gibt ei­ne Grau­zo­ne zwi­schen au­to­ma­ti­schen und au­to­no­men Waf­fen“, sagt Micha­el Bi­onti­no, bis vor Kur­zem deut­scher Abrüs­tungs­bot­schaf­ter in Genf. „Au­to­no­me Waf­fen ma­chen die Zie­l­er­ken­nung selbst, sie ha­ben kei­ne Ziel­bi­blio­thek ge­spei­chert.“

Es be­steht kaum Zwei­fel, dass die USA, Russ­land, Chi­na, Is­ra­el, Süd­ko­rea, ara­bi­sche Staa­ten und Groß­bri­tan­ni­en an sol­chen Sys­te­men ar­bei­ten. Sie exis­tier­ten schon, sagt Neil Da­vi­son vom In­ter­na­tio­na­len Ko­mi­tee vom Ro­ten Kreuz (IKRK). Es wacht über die Ein­hal­tung des hu­ma­ni­tä­ren Völ­ker­rechts, die welt­weit an­er­kann­ten Gen­fer Kon­ven­tio­nen, und ist be­sorgt über die Ent­wick­lung.

„An­grif­fe sind streng auf mi­li­tä­ri­sche Zie­le zu be­schrän­ken“, heißt es in den Gen­fer Kon­ven­tio­nen et­wa. ABer: Kön­nen Ma­schi­nen das über­haupt ent­schei­den? „Men­schen müs­sen ge­nü­gend Kon­trol­le be­hal­ten, um le­ga­le Ent­schei­dun­gen zu tref­fen“, sagt Da­vi­son.

Die Waf­fen der neu­en Art wer­fen Un­men­gen Fra­gen auf. Kön­nen sie er­ken­nen, ob ein Feind sich et­wa ge­ra­de er­ge­ben will oder ver­letzt ist? Ob die er­kann­te Per­son zwar ei­ne Waf­fe hat, aber nicht Sol­dat son­dern Jä­ger ist? Ob der er­kann­te Sol­dat wo­mög­lich ein Ka­me­rad der ei­ge­nen Sei­te ist? Wer kann für Ver­bre­chen mit Waf­fen, die kein Mensch mehr kon­trol­liert, zur Ver­ant­wor­tung ge­zo­gen wer­den?

„Die Li­nie der Bun­des­re­pu­blik Deutsch­land ist klar. Für uns kann die Ent­schei­dung über Le­ben und Tod nicht ei­ner Ma­schi­ne über­tra­gen wer­den“, sag­te Bi­onti­no im Früh­jahr. Es steht so­gar im deut­schen Ko­ali­ti­ons­ver­trag: „Au­to­no­me Waf­fen­sys­te­me, die der Ver­fü­gung des Men­schen ent­zo­gen sind, leh­nen wir ab. Wir wol­len sie welt­weit äch­ten.“Ge­mein­sam mit Frank­reich hat Deutsch­land ei­nen Ver­hal­tens­ko­dex vor­ge­schla­gen, wo­nach al­le heu­ti­gen und künf­ti­gen Waf­fen­sys­tem mensch­li­cher Kon­trol­le un­ter­lie­gen müs­sen.

Das sei ein zahn­lo­ser Ti­ger, sagt aber Kü­chen­meis­ter. „Ein Ver­hal­tens­ko­dex ist nicht völ­ker­recht­lich ver­bind­lich.“Die Kam­pa­gne ge­gen Kil­ler­r­o­bo­ter ver­langt ei­nen ver­bind­li­chen Ver­trag. Aber vie­le Län­der wol­len sich in ih­rer Waf­fen­ent­wick­lung nicht ein­schrän­ken las­sen. Und sie le­gen bei den Ver­hand­lun­gen kei­ne Ei­le an den Tag. „Die­ses Zeit­spiel ist hoch­ris­kant, wenn man sieht, wel­cher Grad an Au­to­no­mie schon er­reicht wor­den ist“, sagt Kü­chen­meis­ter.

Mehr als 2000 Wis­sen­schaft­ler, die mit künst­li­cher In­tel­li­genz ar­bei­ten, ha­ben sol­che Waf­fen ver­ur­teilt. „Es gibt ei­ne mo­ra­li­sche Kom­po­nen­te“, schrie­ben sie in ei­nem Ap­pell. „Wir dür­fen Ma­schi­nen kei­ne Ent­schei­dung über Le­ben und Tod über­las­sen, für die an­de­re - oder nie­mand - straf­bar ge­macht wer­den.“Sie ver­spre­chen, nie­mals an der Ent­wick­lung oder Her­stel­lung von sol­chen Waf­fen mit­zu­hel­fen und for­dern Tech­no­lo­gie­fir­men auf, es ih­nen gleich zu tun.

Bleibt ab­zu­war­ten, was das Tref­fen in Genf her­vor­bringt. Wie auch im­mer: Das „Kil­ler­r­o­bo­ter“längst Wirk­lich­keit sind, das al­lei­ne ist schon be­un­ru­hi­gend ge­nug!

Newspapers in German

Newspapers from USA

© PressReader. All rights reserved.