Ge­fah­ren und Chan­cen der künst­li­chen In­tel­li­genz

Künst­li­che Su­per­in­tel­li­genz wird vi­el­leicht erst in ein paar Jahr­zehn­ten ei­ne Tech­nik­re­vo­lu­ti­on aus­lö­sen. Doch Com­pu­ter-Ex­per­ten ma­chen sich schon jetzt Ge­dan­ken, ob auf die Re­vo­lu­ti­on das Pa­ra­dies oder die Höl­le fol­gen wird.

PC Magazin - - Inhalt - JAN KADEN

Bald sind Ro­bo­ter schlau­er als wir

K ünst­li­che In­tel­li­genz (KI) kann ge­fähr­li­cher sein als Atom­bom­ben.“Die­se Aus­sa­ge stammt nicht von pa­ra­no­iden Tech­nik­geg­nern, son­dern von ei­ner der Gal­li­ons gu­ren der High­tech-In­dus­trie: Un­ter­neh­mer Elon Musk, be­kannt vor al­lem durch Tes­la Mo­tors. Da­bei ließ er es nicht nur bei dem ot­ten Twit­ter-Zi­tat be­wen­den. Er spen­de­te 2015 auch zehn Mil­lio­nen Dol­lar an das Fu­ture-of-Li­feIn­sti­tu­te ( https://fu­tureo ife.org), das sich mit KI-Fra­gen be­schäf­tigt. Au­ßer­dem lie­fer­te er sich ei­nen kur­zen Schlag­ab­tausch mit Face­book-Grün­der Mark Zu­cker­berg, der KI-Schwarz­ma­le­rei für „un­ver­ant­wort­lich“hält. „Sei­ne Kom­pe­tenz bei die­sem The­ma ist be­schränkt“, kon­ter­te der Tes­la-CEO. Musk steht mit sei­nen Be­fürch­tun­gen nicht al­lein. Auch Phy­si­ker Ste­phen Haw­kings hat vor den Ge­fah­ren der künst­li­chen In­tel­li­genz ge­warnt und ein In­sti­tut zur Er­for­schung des Ge­biets ins Le­ben ge­ru­fen, das Le­ver­hul­me Cent­re for the Fu­ture of In­tel­li­gence (CFI) ( http://lc .ac.uk). So- gar ein Re­port des EU-Par­la­ments von 2017 ( A8-0005/2017) be­fasst sich mit Chan­cen und Ri­si­ken der künst­li­chen In­tel­li­genz. Der Re­port stellt un­ter an­de­rem die Fra­ge, wer für Schä­den ver­ant­wort­lich sein soll, die durch au­to­no­me Ro­bo­ter an­ge­rich­tet wer­den: Her­stel­ler oder An­wen­der?

Ge­fah­ren der schwa­chen In­tel­li­genz

Zur­zeit gibt es nur schwa­che künst­li­che In­tel­li­gen­zen (sie­he Kas­ten), de­ren Leis­tun­gen aber re­spek­ta­bel sind. Als Mei­len­stein

gilt der Sieg der KI Al­pha Go ge­gen den GoMeis­ter Lee Se­dol im März 2016. Al­pha Go spiel­te stark und krea­tiv. Denn die Soft­ware ent­wi­ckel­te Tak­ti­ken, die in der jahr­hun­der­te­al­ten Go-Theo­rie un­be­kannt wa­ren. Die so­ge­nann­ten schwa­chen In­tel­li­gen­zen sind be­ein­dru­ckend und ha­ben ih­re Tü­cken. Da sind zum ei­nen tech­ni­sche Pro­ble­me, die gar nichts mit KI zu tun ha­ben. Si­cher­heits­ex­per­ten von IOAc­tive ent­deck­ten zum Bei­spiel gra­vie­ren­de Si­cher­heits­lü­cken in Fer­ti­gungs­ro­bo­tern, die eng mit Men­schen zu­sam­men­ar­bei­ten ( http://blog.ioac­tive. com). Ein Ha­cker kann ih­nen laut Re­port aus der Fer­ne Be­we­gun­gen ein­pro­gram­mie­ren, wel­che um­ste­hen­de Men­schen schwer ver­let­zen wür­den. Auch Spiel­zeu­g­ro­bo­ter sind da­nach an­fäl­lig für An­grif­fe und könn­ten zum Bei­spiel als Über­wa­chungs­werk­zeu­ge im Kin­der­zim­mer miss­braucht wer­den.

KI-Au­to­un­fäl­le

Bei KI-Ge­fah­ren fal­len ei­nem zu­nächst au­to­nom fah­ren­de Au­tos ein. Im Mai 2016 fuhr ein Tes­la S im Au­to­pi­lot-Mo­dus laut Un­fall­be­rich­ten un­ge­bremst un­ter den An­hän­ger ei­nes que­ren­den Lkw. Der Fah­rer wur­de bei dem Zu­sam­men­stoß ge­tö­tet. Die ge­nau­en Ur­sa­chen des Un­falls sind im­mer noch nicht er­mit­telt. Es wur­de spe­ku­liert, dass der mit Ka­me­ra und Ra­dar ar­bei­ten­de Au­to­pi­lot den An­hän­ger als Ver­kehrs­zei­chen über der Fahr­bahn miss­in­ter­pre­tiert hät­te. Tes­la und die US-Si­cher­heits­be­hör­den ar­gu­men­tie­ren, dass der Au­to­pi­lot des Fahr­zeugs nicht da­für ge­dacht ge­we­sen sei, selbst­stän­dig zu fah­ren. Der Fah­rer hät­te sein Au­to im­mer kon­trol­lie­ren müs­sen. Der Vor­fall zeigt le­dig­lich, dass die KI au­to­nom fah­ren­der Au­tos im­mer noch nicht ganz aus­ge­reift ist. For­scher der Uni­ver­si­tät Wa­shing­ton ( https://ar­xiv.org/abs/1707.08945) zum Bei­spiel ge­lang es, ei­ne Soft­ware für die Er­ken­nung von Ver­kehrs­schil­dern aus­zu­trick­sen. Sie kleb­ten klei­ne, bun­te Pa­pier­zet­tel­chen auf ein Stopp­schild. Die Soft­ware hielt die­ses prompt für ei­ne Ge­schwin­dig­keits­be­gren­zung. Fa­tal – ein KI-Au­to könn­te so ein Schild miss­ach­ten und un­ge­bremst in ei­ne ge­fähr­li­che Kreu­zung ra­sen. Al­ler­dings wur­den die Ver­su­che nur im La­bor mit der Soft­ware durch­ge­führt, nicht mit ei­nem rich­ti­gen Au­to auf der Stra­ße. Dort hät­te vi­el­leicht ein Ra­dar den que­ren­den Ver­kehr er­kannt und das Fahr­zeug ge­bremst. Der Ver­such zeigt aber, dass Au­to-KI im­mer noch mit – si­cher lös­ba­ren – Pro­ble­men zu kämp­fen hat. Gleich­zei­tig sieht man, wel­che Pro­ble­me auf­tau­chen, wenn im La­bor trai­nier­te und ge­tes­te­te Sys­te­me

Beim Be­au­ty. AI-Wett­be­werb be­ur­teilt ei­ne künst­li­che In­tel­li­genz die Schön­heit der Teil­neh­mer, mit ver­wun­der­li­chen Re­sul­ta­ten.

Selbst fah­ren­de Au­tos müs­sen in Grenz­si­tua­tio­nen „mo­ra­li­sche“Ent­schei­dun­gen tref­fen.

Newspapers in German

Newspapers from Germany

© PressReader. All rights reserved.