Ki-de­sign – Ba­sics & Use Ca­ses

01 De­si­gner soll­ten das Boll­werk ge­gen ver­ant­wor­tungs­lo­se und ethisch frag­wür­di­ge künst­li­che In­tel­li­genz sein. Was man da­für wis­sen muss

PAGE - - Inhalt -

Wer weiß, wie künst­li­che In­tel­li­genz funk­tio­niert, kann sie auch ver­ant­wor­tungs­voll ein­set­zen

● Dass künst­li­che In­tel­li­genz we­der all­wis­sen­des Su­per­hirn noch men­schen­ver­ach­ten­der Ro­bo­ter ist, hat sich in­zwi­schen her­um­ge­spro­chen – auch bei Sci­ence-fic­tion-fans. Wie all­ge­gen­wär­tig KI schon heu­te ist, al­ler­dings nicht. Ob Bil­der­ken­nung in Fo­toApps, Chat­bots, Voice As­sis­tants wie Si­ri, Ale­xa und Corta­na, Emp­feh­lungs­sys­te­me von Net­flix und Spo­ti­fy oder neu­es­te Smart­pho­nes: Schon heu­te le­ben wir mit vie­len Ser­vices, die auf KI be­ru­hen. Googles An­dro­id 9 Pie lernt die Ver­hal­tens­wei­sen sei­nes Users und re­agiert dar­auf, et wa in­dem es be­stimm­te Apps vor­ab lädt. Und der di­gi­ta­le As­sis­tent Goog­le Du­plex könn­te bald un­se­re Re­stau­rant- und Fri­seur­ter­mi­ne bu­chen, wie der Kon­zern auf sei­ner Ent­wick­ler­kon­fe­renz I/O im Mai 2018 ein­drucks­voll be­wies. Auch au­to­no­me Au­tos sind von ei­ner kaum vor­stell­ba­ren zu ei­ner hand­fes­ten Vi­si­on ge­wor­den.

Ver­wir­ren­der­wei­se tra­gen der­zeit ei­ni­ge An­wen­dun­gen das La­bel KI, ob­wohl es sich um »nor­ma­le« Au­to­ma­ti­sie­run­gen han­delt – bei­spiels­wei­se sim­ple Wenn-a-dann-b- Chat­bots. Und es ent­ste­hen re­la­tiv nutz­lo­se Pro­duk­te – so et­wa im Be­reich In­ter­net of Things – oder auch ethisch und mo­ra­lisch zwei­fel­haf­te, wie au­to­no­me Waf­fen oder si­mu­lier­te Freun­de. Zeit al­so, zu fra­gen: Was wol­len wir? Wie kann künst­li­che In­tel­li­genz künf­tig un­ser Le­ben ver­bes­sern? Und was soll­ten wir un­be­dingt ver­hin­dern? Wäh­rend Ent­wick­ler ger­ne dem Charme des Mach­ba­ren er­lie­gen, ha­ben De­si­gner von Be­rufs we­gen die (be­wuss­ten wie un­be­wuss­ten) Be­dürf­nis­se der Men­schen im Blick. Da­her kön­nen und müs­sen sie die Zu­kunft von KI mit­ge­stal­ten. Ihr Tä­tig­keits­feld wird sich da­durch ver­än­dern, und neue Auf­ga­ben und Chan­cen ent­ste­hen. Um die Ent wick­lung ak­tiv be­ein­flus­sen zu kön­nen, müs­sen sie über Grund­wis­sen dar­in ver­fü­gen, wie die Tech­nik hin­ter KI funk­tio­niert – und er­ken­nen, wel­che Pro­ble­me man da­mit lö­sen kann.

Die Ba­sics

Un­ter »künst­li­cher In­tel­li­genz« wird heu­te haupt­säch­lich das ma­schi­nel­le Ler­nen ver­stan­den. Hier­bei han­delt es sich um Pro­gram­me, bei de­nen Ent­wick­ler nicht mehr ex­pli­zit de­fi­nie­ren, auf wel­che Ak­tio­nen wel­che Re­ak­tio­nen fol­gen. Das Pro­gramm lernt viel­mehr, wel­che Er­geb­nis­se von ihm er­war­tet wer­den. Da­für trai­niert man es mit Da­ten. Be­lieb­tes Bei­spiel: Füt­tert man ein Ki-sys­tem mit ge­nug Kat­zen­bil­dern, er­kennt es Kat­zen auch auf Bil­dern, die es vor­her nicht kann­te. Das klingt ein­fach, ist aber ei­ne ziem­li­che Leis­tung. Noch span­nen­der wird es, wenn das Sys­tem ei­ne Men­ge an Bil­dern, Tex­ten oder Au­dio­da­tei­en er­hält, oh­ne dass ihm ge­sagt wird, was

es da­mit tun soll. Bei die­sem so­ge­nann­ten Un­su­per­vi­sed Le­arning er­kennt der Ki-al­go­rith­mus ei­gen­stän­dig Mus­ter in den Da­ten – und zwar auch sol­che, die mensch­li­che Be­trach­ter noch nicht ge­se­hen ha­ben oder nie se­hen könn­ten, schlicht weil die Da­ten­men­ge zu groß ist. Mög­lich ma­chen dies künst­li­che neu­ro­na­le Net­ze, die Da­ten Schicht für Schicht ana­ly­sie­ren. Sind die­se sehr kom­pli­ziert und um­fang­reich, spricht man von Deep Le­arning, ei­ner Un­ter­art des Ma­chi­ne Le­arning. Ihr ist ei­gen, dass nie­mand mit Si­cher­heit sa­gen kann, was ge­nau im Sys­tem pas­siert und wie der Al­go­rith­mus zu sei­nen Er­geb­nis­sen ge­langt – das so­ge­nann­te Black-box-pro­blem.

Die Mecha­nis­men oder die Al­go­rith­men hin­ter KI wa­ren schon in den 1950er Jah­ren be­kannt – doch die Vor­aus­set­zun­gen für ih­ren Ein­satz ha­ben sich erst durch ex­trem per­for­man­te Rech­ner und Big Da­ta er­ge­ben. Sie er­mög­li­chen die drei gro­ßen An­wen­dungs­fel­der von KI heu­te: Bil­der­ken­nung, Sprach­er­ken­nung und Sprach­ver­ar­bei­tung, die De­si­gnern vie­le span­nen­de Mög­lich­kei­ten er­öff­nen, wie die Per­so­na­li­sie­rung von Ser­vices und Pro­duk­ten, das Er­ken­nen von Re­gel­haf­tig­kei­ten und Ano­ma­li­en in Da­ten, neue In­ter­ak­ti­ons­for­men so­wie Emp­feh­lungs­und Au­to­ma­ti­sie­rungs­me­cha­ni­ken.

We­nig über­ra­schend ist, dass die gro­ßen Tech-un­ter­neh­men den Markt be­reits be­setzt ha­ben. Googles Ki-for­schungs­ab­tei­lung Brain exis­tiert seit 2011, seit 2016 gilt im Kon­zern der Leit­spruch »AI First«. Auch Mi­cro­soft, Face­book, App­le und Ama­zon zo­gen mit ih­ren Labs nach, und IBMS Ki-sys­tem Wat­son er­leich­tert schon seit Jah­ren vie­le Bu­si­ness- und For­schungs­pro­zes­se – der­zeit un­ter­stützt es den As­tro­nau­ten Alex­an­der Gerst auf der ISS mit dem klei­nen run­den As­sis­ten­ten­ro­bo­ter CIMON. Dank On-de­vice-ki, die in der Cloud trai­niert und auf un­se­ren Smart­pho­nes wei­ter­lernt, tra­gen wir KI frü­her oder spä­ter al­le mit uns her­um. Ab­seits von den All­tags­an­wen­dun­gen im Klei­nen hat die Tech­no­lo­gie auch Aus­wir­kun­gen auf grö­ße­re ge­sell­schaft­li­che Kon­tex­te – vor al­lem, wenn sie im Ge­sund­heits-, Fi­nanz-, Trans­port- und Per­so­nal­we­sen so­wie bei der Po­li­zei­ar­beit und Recht­spre­chung ein­ge­setzt wird, er­ge­ben sich et­hi­sche und mo­ra­li­sche Fra­gen.

Die Pro­ble­me

Ein aku­tes Ki-pro­blem ist die Ver­zer­rung sta­tis­ti­scher Schät­zun­gen. Sta­tis­ti­ker nen­nen die­ses Phä­no­men Bi­as. Bei­spiel: Ei­ne Bil­der­ken­nungs­soft­ware er­kennt dun­kel­häu­ti­ge Ge­sich­ter nicht, weil sie mit Fo­tos von Hell­häu­ti­gen trai­niert hat. Der Grund für die Ver­zer­rung liegt hier in der Aus­wahl der Trai­nings­da­ten, denn ei­ne KI ist im­mer nur so gut wie die Da­ten, aus de­nen sie lernt.

»Al­go­rith­men sind in Code ein­ge­bet­te­te Mei­nun­gen, sie sind nicht ob­jek­tiv«, er­klärt die Ma­the­ma­ti­ke­rin Ca­thy O’neil in ih­rem viel be­ach­te­ten Buch »We­a­pons of Math De­struc­tion«. Be­son­ders ge­fähr­lich wird Bi­as bei An­wen­dun­gen wie COMPAS, ei­ner um­strit­te­nen Soft­ware, die Us-ame­ri­ka­ni­sche Ge- rich­te da­bei un­ter­stützt, die Rück­fall­wahr­schein­lich­keit von Kri­mi­nel­len zu schät­zen. Schwar­ze Straf­tä­ter be­ur­teilt sie här­ter als wei­ße – un­ab­hän­gig vom Vor­stra­fen­re­gis­ter. Ein wei­te­res Bei­spiel ist Re­cruit­ing-soft­ware, die weib­li­che Kan­di­da­ten ge­ne­rell nicht für Füh­rungs­po­si­tio­nen in Er­wä­gung zieht, ein­zig weil ent­spre­chen­de Vor­bil­der in den Da­ten feh­len. Schlimms­ten­falls bil­det KI nicht nur un­se­re be­wuss­ten und un­be­wuss­ten Vor­ur­tei­le ab, sie ver­stärkt und ze­men­tiert sie hin­ge­gen noch.

Ein wei­te­res Pro­blem sind Fa­kes. Mit Ad­o­bes KISoft­ware Sens­ei er­reicht nicht nur die Ma­ni­pu­la­ti­on von Bil­dern und Vi­de­os ein neu­es Le­vel, son­dern auch die Be­ar­bei­tung von Au­dio­da­tei­en. So kann man heu­te je­den et­was sa­gen las­sen, das er so nie ge­sagt hat, was der Kon­zern 2016 auf der Ado­be MAX Con­fe­rence de­mons­trier­te. An­fang 2018 sorg­te das Pro­gramm Dee­pfakes – ver­öf­fent­licht auf Red­dit – für viel Auf­merk­sam­keit (und Sor­gen): Mit ihm las­sen sich Ge­sich­ter er­staun­lich naht­los in be­ste­hen­des Be­wegt­bild ein­fü­gen. Ei­ni­ge nutz­ten das Open-sour­ce-tool zu­nächst, um Ge­sich­ter be­rühm­ter Schau­spie­le­rin­nen in Por­nos ein­zu­bin­den – aber na­tür­lich sind noch schlim­me­re An­wen­dun­gen denk­bar. Egal ob Fo­to, Vi­deo oder Au­dio: Es wird im­mer schwe­rer wer­den, ma­ni­pu­lier­ten Con­tent von ech­tem zu un­ter­schei­den – und je bes­ser die Auf­de­ckung von Fa­kes wird, des­to bes­ser wer­den die Fa­kes.

Die ge­nann­ten Bei­spie­le deu­ten auf ein wei­te­res Pro­blem: zu star­kes Ver­trau­en in KI. Nur weil die Er­geb­nis­se auf ei­nem gro­ßen Da­ten­satz be­ru­hen, heißt das nicht, dass sie feh­ler­frei sind. Viel­mehr ist es ein Feh­ler, Al­go­rith­men blind zu ver­trau­en – be­son­ders, wenn man we­der de­ren Auf­bau noch die Da­ten kennt, mit de­nen sie trai­niert wur­den. Skep­sis ge­gen­über KI ist al­so an­ge­bracht – Angst da­ge­gen nicht.

Die Re­geln

Es gibt vie­le wei­te­re The­men, die im Zu­sam­men­hang mit KI kri­tisch dis­ku­tiert wer­den, wie et­wa die Ent­wick­lung des Ar­beits­markts, die Ge­fah­ren staat­li­cher Über wa­chung, das Mo­no­pol der Tech-big-play­er oder der Ein­satz von KI beim Mi­li­tär. Als Re­ak­ti­on dar­auf ha­ben ei­ni­ge Un­ter­neh­men und In­sti­tu­tio­nen Prin­zi­pi­en auf­ge­stellt, sei es, um ihr ei­ge­nes Han­deln an­zu­lei­ten oder um ei­ne Ge­sprächs­grund­la­ge für öf­fent­li­che Dis­kus­sio­nen zu schaf­fen. Die Re­geln von Mi­cro­soft und Goog­le sind bei­na­he de­ckungs­gleich und ent­wer­fen das Leit­bild ei­ner trans­pa­ren­ten und ver­ant­wor­tungs­vol­len KI, die Pri­vat­sphä­re und Men­schen­wür­de ach­tet und für das All­ge­mein­wohl ein­ge­setzt wird. So weit, so un­ver­bind­lich.

2017 ver­öf­fent­lich­te das Fu­ture of Li­fe In­sti­tu­te, ein Zu­sam­men­schluss in­ter­na­tio­na­ler Ki-for­scher, 23 Prin­zi­pi­en, die un­ter an­de­rem zum Ziel ha­ben, ein Wett­rüs­ten bei au­to­no­men Waf­fen zu ver­hin­dern, Wohl­stand ge­rech­ter zu ver­tei­len und die Si­cher­heit von Ki-sys­te­men vor Ma­ni­pu­la­ti­on und Miss­brauch zu ge­währ­leis­ten. Das Pro­blem die­ser wohl­ge­mein­ten und auch durch­aus be­rech­tig­ten Re­geln und

Schon heu­te le­ben wir mit vie­len Ser­vices, die auf KI be­ru­hen. Zeit al­so, zu fra­gen: Was wol­len wir?

Prin­zi­pi­en liegt dar­in, dass bis­lang kei­ne In­stanz ih­re Ein­hal­tung kon­trol­liert und kei­ne Exe­ku­ti­ve et­wai­ge Ver­stö­ße ahn­det.

Von Staats­sei­te tut sich in Deutsch­land noch re­la­tiv we­nig. Die Bun­des­re­gie­rung will bis En­de No­vem­ber 2018 ei­ne Ki-stra­te­gie er­ar­bei­ten und stell­te im Ju­li ers­te Eck­punk­te vor. Dar­in geht es un­ter an­de­rem um die För­de­rung von Wirt­schaft und For­schung, um die Öff­nung von Da­ten­be­stän­den, um Rechts­si­cher­heit und die Ein­hal­tung deut­scher und eu­ro­päi­scher Wer­te wie Per­sön­lich­keits­rech­ten, Men­schen­wür­de und Schutz der Pri­vat­sphä­re. Deutsch­land und Eu­ro­pa müs­sen je­doch mit star­ker Kon­kur­renz rech­nen: Of­fi­zi­ell er­klär­tes Ziel Chi­nas ist es, bis 2030 Ki-welt­markt­füh­rer zu sein, und auch die USA in­ves­tie­ren or­dent­lich. So­wohl die Bun­des­re­gie­rung als auch das Eu­ro­päi­sche Par­la­ment se­hen sich vor der Her­aus­for­de­rung, ei­ne Ba­lan­ce zwi­schen Stand­ort­för­de­rung und ethisch kor­rek­tem Han­deln zu fin­den.

Die De­si­gner

Wie be­reits er­wähnt, liegt ei­ne der wich­tigs­ten Stär­ken von De­si­gnern dar­in, den Men­schen und sei­ne Be­dürf­nis­se ins Zen­trum zu stel­len. Sie sind in der La­ge, mensch­li­ches Ver­hal­ten zu be­schrei­ben, ein­zu­ord­nen, zu an­ti­zi­pie­ren und bes­ten­falls po­si­tiv zu be­ein­flus­sen. Das hilft ih­nen, Sze­na­ri­en und Vi­sio­nen zu kre­ieren und auch lang­fris­ti­ge ge­sell­schaft­li­che Aus­wir­kun­gen vor­aus­zu­ah­nen. Sie be­sit­zen das In­stru­men­ta­ri­um, um KI mensch­lich zu ma­chen, von User Re­se­arch über Pro­to­typ­ing bis zu Usa­bi­li­ty Tests.

Mit Spe­cu­la­ti­ve De­sign kön­nen De­si­gner aus­lo­ten, wel­che An­wen­dun­gen denk­bar und sinn­voll sind und wie Men­schen auf sie re­agie­ren. Un­ter dem Ti­tel »Hy­per Hu­man« stell­te die De­si­gnagen­tur IDEO sie­ben Pro­to­ty­pen vor, die ver­an­schau­li­chen, wie KI mensch­li­che Fä­hig­kei­ten er wei­tern könn­te. Dar­un­ter der »Pur­po­se Com­pass«, der Usern ver­deut­licht, wel­che Aspek­te ih­res Jobs bald von KI er­le­digt wer­den und wie sie sich fort­bil­den soll­ten, um nicht ar­beits­los zu wer­den. Leicht­her­zi­ger geht Goog­le mit sei­nen »AI Ex­pe­ri­ments« an das The­ma her­an. Ziel von Ga­mes wie »Quick, Draw!« – ei­nem Ki-sys­tem, das er­rät, was der Nut­zer zeich­nen möch­te – ist, die Tech­nik zu de­mys­ti­fi­zie­ren und Be­rüh­rungs­ängs­te zu lin­dern. Aber auch so fins­te­re Ex­pe­ri­men­te wie der Ki-psy­cho­path »Nor­man« des MIT Me­dia Lab hel­fen, die Tech­nik hin­ter KI bes­ser zu ver­ste­hen und Fehl­ent­wick­lun­gen vor­aus­zu­ah­nen. Nor­man be­schreibt Ror­schach­bil­der auf – nun ja – eher mor­bi­de Wei­se: Wo Men­schen ei­nen Re­gen­bo­gen se­hen, er­kennt er die Über­res­te ei­nes über­fah­re­nen Man­nes. »Schuld« dar­an ha­ben die Da­ten, mit de­nen Nor­man trai­niert wur­de: Text­aus­zü­ge ei­nes grenz­wer­ti­gen Red­ditTh­reads, der der Be­schrei­bung der »ver­stö­ren­den Rea­li­tät des To­des« ge­wid­met ist.

Jen­seits ex­pe­ri­men­tel­ler An­wen­dun­gen ar­bei­ten De­si­gner längst an kon­kre­ten Pro­duk­ten und Ser­vices mit. UX De­si­gner lo­ten aus, wie KI uns be­geg­nen muss, da­mit wir sie ak­zep­tie­ren, und ge­stal­ten die Per­sön­lich­keit von Chat­bots und Voice As­sis­tants mit. Kom­mu­ni­ka­ti­ons­de­si­gner ent­wi­ckeln mit De­ve­l­opern Ki-tools, die ih­re Ar­beit er­leich­tern, in­dem sie hän­di­sche Auf­ga­ben au­to­ma­ti­sie­ren oder ei­ne Fül­le an ge­ne­ra­ti­ven Ent­wür­fen er­stel­len, auf de­nen Gestal­ter wei­ter­ar­bei­ten kön­nen.

Ei­ne Be­din­gung für er­folg­rei­che Ki-pro­jek­te ist, dass De­si­gner auf Au­gen­hö­he mit In­ge­nieu­ren und Ent­wick­lern ar­bei­ten. Das The­ma KI ist zu groß und kom­plex, als dass ei­ne Dis­zi­plin ihr al­lein ge­recht wür­de. Hier ist die Schnitt­stel­len- und Ver­mitt­lungs­kom­pe­tenz von De­si­gnern ge­fragt, et­wa wenn Ki-wis­sen in die Öf­fent­lich­keit ge­tra­gen wer­den soll. Denn nur wer weiß, wo­rum es geht, kann ak­tiv mit­dis­ku­tie­ren.

Für all die­se Auf­ga­ben müs­sen De­si­gner kei­ne Co­der sein. Wie im Web­de­sign wird es im­mer mehr Stan­dards und Ser­vices ge­ben, mit de­nen auch Lai­en Ma­chi­ne-le­arning-al­go­rith­men ein­set­zen kön­nen. Mit Googles Ten­sor­flow exis­tiert be­reits ein Frame­work, und auch auf der Ent­wick­ler­platt­form Git­hub sind längst ent­spre­chen­de Co­des zu fin­den. Bau­kas­ten­sys­te­me wie IBM Wat­son und Cloud-ser­vices wie Goog­le Au­toml stel­len vor­pro­gram­mier­te neu­ro­na­le Net­ze be­reit. Auch Drag-and-drop-sys­te­me, die das Trai­nie­ren von Ki-sys­te­men enorm er­leich­tern, wer­den be­reits ent­wi­ckelt. Kurz: Der Ein­satz von ma­schi­nel­lem Ler­nen wird zu­neh­mend ein­fa­cher und die Tech­nik all­ge­gen­wär­ti­ger.

Die Zu­kunft

Die Re­le­vanz von KI ist in den meis­ten deut­schen De­si­gn­hoch­schu­len so­wie im Be­rufs­all­tag von Krea­ti­ven noch nicht an­ge­kom­men. Ver­ein­zelt gibt es Ein­rich­tun­gen wie den Crea­ti­ve Space for Tech­ni­cal In­no­va­tions (CSTI) der Hoch­schu­le für An­ge­wand­te Wis­sen­schaf­ten in Ham­burg, ei­ne in­ter­dis­zi­pli­nä­re Platt­form für an­ge­wand­te For­schung und Wis­sens­trans­fer im Be­reich Mensch-ma­schi­ne-in­ter­ak­ti­on und Smart Sys­tems. Hier ar­bei­ten Pro­fes­so­ren und Stu­die­ren­de aus In­for­ma­tik, De­sign und So­zio­lo­gie ge­mein­sam an Pro­jek­ten. Auf eu­ro­päi­scher Ebe­ne star­te­ten jüngst die Bünd­nis­se ELLIS (Eu­ro­pean Lab for Le­arning & In­tel­li­gent Sys­tems) so­wie CLAI­RE (Con­fe­de­ra­ti­on of La­bo­ra­to­ries for AI Re­se­arch in Eu­ro­pe), die den Aus­tausch und die Ko­ope­ra­ti­on zwi­schen For­schungs­ein­rich­tun­gen för­dern. Ih­re Pro­gram­me se­hen auch in­ter­dis­zi­pli­nä­re Fort­bil­dun­gen und öf­fent­li­che In­fo­ver­an­stal­tun­gen vor. Wer will, kann sich schon heu­te mit vie­len In­hal­ten im Web wei­ter­bil­den. Wir ha­ben da­für ei­ne Link­lis­te mit Ar­ti­keln, Tu­to­ri­als, Vi­de­os und Pod­casts er­stellt: www.pa­ge-on­li­ne.de/con­nect-ki-links.

Um die Zu­kunft von und mit KI ak­tiv mit­zu­ge­stal­ten, müs­sen wir die Tech­nik da­hin­ter ver­ste­hen und of­fen­siv mit ihr um­ge­hen – sie zu un­ter­schät­zen oder zu ver­teu­feln wä­re fa­tal. Vor al­lem De­si­gner sind künf­tig ge­fragt, ei­ne le­bens­wer­te Welt zu ent­wer­fen, in der KI den Men­schen sinn­voll un­ter­stützt und ihr enor­mes Po­ten­zi­al »for good« ent­fal­tet. Pa­cken wir’s an! nik [6347]

Das The­ma KI ist zu um­fang­reich und kom­plex, als dass ei­ne Dis­zi­plin al­lein ihr ge­recht wer­den könn­te. Hier ist die Schnitt­stel­len- und Ver­mitt­lungs­kom­pe­tenz von De­si­gnern ge­fragt.

Newspapers in German

Newspapers from Germany

© PressReader. All rights reserved.