Ki-de­sign: Chan­cen und Ver­ant­wor­tung

Wel­che Rol­le spielt De­sign in ei­ner von künst­li­cher In­tel­li­genz ge­präg­ten Zu­kunft? Ka­rel Gol­ta über künf­ti­ge Auf­ga­ben und Ver­ant­wor­tung

PAGE - - Inhalt -

Ka­rel Gol­ta von In­de­ed er­klärt sei­ne vier Re­geln für die Gestal­tung von und mit künst­li­cher In­tel­li­genz

● De­si­gnern kommt bei der Gestal­tung künst­li­cher In­tel­li­genz ei­ne grö­ße­re Rol­le zu als blo­ßes In­ter­face De­sign. Mit ih­rem ge­schul­ten Blick für die Be­dürf­nis­se des Users und ih­rem Me­tho­den­wis­sen in Hu­man- Cen­te­red De­sign und De­sign Thin­king kön­nen sie für ei­ne men­schen­freund­li­che Ent­wick­lung von KI sor­gen. Wir spra­chen mit Ka­rel Gol­ta, In­ha­ber und Ge­schäfts­füh­rer der Ham­bur­ger De­sign- und In­no­va­ti­ons­agen­tur In­de­ed (www.in­de­ed-in­no­va­ti­on. com), über die Chan­cen und die Ver­ant­wor­tung, die sich dar­aus für De­si­gner er­ge­ben. nik [6270]

Wie de­fi­nie­ren Sie künst­li­che In­tel­li­genz?

Ka­rel Gol­ta: Bei dem Be­griff wird ge­ra­de viel mit­ein­an­der ver­mischt. Vir­tu­al- und Aug­men­ted Rea­li­ty, Droh­nen, Ro­bo­ter, au­to­nom fah­ren­de Au­tos, KI – al­les lan­det in ei­nem Topf. Dar­aus ent­steht ei­ne Bouil­la­baisse der tech­ni­schen Be­grif­fe des 21. Jahr­hun­derts. Das ist scha­de, weil es so­wohl das Po­ten­zi­al als auch die Ri­si­ken von KI ver­schlei­ert. Wenn ich von KI spre­che, mei­ne ich vor al­lem Deep Learning – al­so künst­li­che neu­ro­na­le Netz­wer­ke, die ler­nen und sich selbst­stän­dig wei­ter­ent­wi­ckeln kön­nen. Die­se gren­zen sich klar von »nor­ma­len« Al­go­rith­men ab, die auf be­stimm­te Fak­to­ren mit vor­pro­gram­mier­ten Schrit­ten re­agie­ren. KI in die­sem Sin­ne ist nicht sta­tisch, son­dern ver­än­dert sich und wird smar­ter. Das ist die Ur­sa­che für vie­le Ängs­te – und ei­ne gro­ße Chan­ce zugleich.

Was be­deu­tet das für De­si­gner? Wie kön­nen sie die Ent­wick­lung von KI be­ein­flus­sen?

De­si­gner ge­stal­ten heut­zu­ta­ge nicht mehr nur Pro­duk­te und Ober­flä­chen, son­dern eben zu­neh­mend Pro­zes­se. Sie ar­bei­ten an wich­ti­gen The­men wie Ar­muts­be­kämp­fung oder Ge­mein­de­pla­nung mit und tra­gen we­sent­lich zu Lö­sun­gen bei. Auch bei der Gestal­tung von und mit KI kön­nen und müs­sen sie ei­ne tra­gen­de Rol­le ein­neh­men. Da­mit geht dann al­ler­dings ei­ne be­son­de­re Ver­ant­wor­tung ein­her, denn die Tech­no­lo­gie ist so neu und um­fas­send, dass wir kaum ab­se­hen kön­nen, wel­chen Im­pact sie auf un­ser Le­ben ha­ben wird.

Das war bis­her an­ders?

Wenn man heut­zu­ta­ge ei­ne Web­site, ei­nen Fly­er oder ei­nen Was­ser­ko­cher ge­stal­tet, weiß man ziem­lich ge­nau, wel­che Aus­wir­kun­gen da­mit ver­bun­den sind. Die ein­zel­nen Be­stand­tei­le wie Far­ben, Pa­pier und Roh­stof­fe sind gut kon­trol­lier­bar. Die­se Ge­wiss­heit war bis­lang Teil un­se­rer DNA: Wir konn­ten den Im­pact un­se­rer Ar­beit kurz-, mit­tel- und lang­fris­tig re­la­tiv gut ein­zu­schät­zen. Beim The­ma künst­li­che In­tel­li­genz kön­nen wir da­ge­gen ma­xi­mal kurz­fris­tig se­hen, was wir er­rei­chen. Was es lang­fris­tig mit uns ma­chen wird, wis­sen wir nicht. Wie wird es zum Bei­spiel die Ent­wick­lung un­se­rer Kin­der be­ein­flus­sen, wenn sie mit Sprachas­sis­ten­ten wie Ale­xa auf­wach­sen? Bei Voice In­ter­faces so­wie in vie­len an­de­ren Be­rei­chen flie­gen wir qua­si blind. Hier müss­te

viel mehr For­schung be­trie­ben wer­den. Statt­des­sen wird oft erst­mal ge­macht.

Das ist das Mind­set der Tech-fir­men: Mo­ve fast and break things.

Ge­ra­de bei KI ist das ein ge­fähr­li­ches Spiel. Noch steht die Tech­no­lo­gie in den An­fän­gen und ka­ta­stro­pha­le Aus­wir­kun­gen wie au­to­no­me Kil­ler­ro­bo­ter sind Sci­ence­fic­tion. Den­noch be­ein­flus­sen wir schon jetzt das Ver­hal­ten zu­künf­ti­ger Ge­ne­ra­tio­nen. Des­sen müs­sen sich al­le Dis­zi­pli­nen, die an der Ent­wick­lung von KI be­tei­ligt sind, be­wusst sein.

Kön­nen Me­tho­den wie Spe­cu­la­ti­ve De­sign da­bei hel­fen, sol­che Ef­fek­te mit­hil­fe von ex­plo­ra­ti­ven Pro­jek­ten und Pro­to­ty­pen zu er­for­schen?

Nur bis zu ei­nem ge­wis­sen Grad, denn Pro­to­ty­pen kön­nen kei­ne Lang­zeit­stu­di­en er­set­zen. Sie för­dern viel­mehr die Den­ke: Wenn der ers­te Pro­to­typ funk­tio­niert, bau­en wir dar­auf auf. Vom Mi­ni­mum Via­ble Pro­duct geht es dann Schritt für Schritt zum fer­ti­gen Pro­dukt – oh­ne dass je­mand über die Kon­se­quen­zen nach­denkt. Wirk­lich ex­pe­ri­men­tel­le De­si­gn­for­schung mit KI, die wei­ter in die Zu­kunft blickt, gibt es bis­her lei­der kaum.

Wel­che Rol­le soll­ten De­si­gner im Ent­wick­lungs­pro­zess ein­neh­men?

Je frü­her De­si­gner in ein Pro­jekt ein­be­zo­gen wer­den, des­to mehr Ein­fluss ha­ben sie auf das Er­geb­nis. Be­reits heu­te be­glei­ten sie in Un­ter­neh­men vie­le Pro­zes­se von An­fang bis En­de – in an­de­ren Län­dern noch mehr als in Deutsch­land. Da­zu hat die Po­pu­la­ri­tät von De­sign Thin­king und User­cen­te­red De­sign we­sent­lich bei­ge­tra­gen. Die Fra­ge ist aber: Wel­ cher Ver­ant wortung sind sie sich be­wusst und wel­che Füh­rungs­rol­le sind sie be­reit zu über­neh­men? Hier hin­ken De­si­gner in Deutsch­land hin­ter­her, weil sie lan­ge nicht mit am Tisch sit­zen durf­ten. Sie müs­sen noch ler­nen, Füh­rungs­rol­len zu über­neh­men.

Die Wei­ter­ent­wick­lung von KI führt da­zu, dass wir uns mehr da­mit be­schäf­ti­gen müs­sen, was uns als Men­schen aus­macht. Ge­hört da­zu Ih­rer Mei­nung nach die Krea­ti­vi­tät?

Das ist ei­ne span­nen­de Dis­kus­si­on! Man­che mei­nen Nein, weil Com­pu­ter auch Bil­der ma­len und Mu­sik ma­chen kön­nen. Aber das sind nur Zu­falls­ge­ne­ra­to­ren, die ver­schie­de­ne Sa­chen zu­sam­men­mi­schen. Mei­nes Erach­tens braucht es ein ei­ge­nes Be­wusst­sein, um wirk­lich krea­tiv zu sein. Neu­es kann man nur dann er­schaf­fen, wenn man Din­ge in­fra­ge stellt – in­klu­si­ve der ei­ge­nen Exis­tenz.

Ich kann mir aber durch­aus vor­stel­len, dass KI uns als In­spi­ra­ti­on die­nen und un­se­re Krea­ti­vi­tät un­ter­stüt­zen kann. Das hat Tech­nik im Grun­de schon im­mer ge­tan: Als Ado­be in den 1980ern Fil­ter bei Pho­to­shop ein­führ­te, über­nah­men schlech­te De­si­gner die Vor­la­gen eins zu eins – die gu­ten un­ter ih­nen ha­ben sie als In­spi­ra­ti­on ge­nutzt, die Vor­la­gen le­dig­lich zum Teil über­nom­men und dann et­was ganz Neu­es dar­aus ge­macht. So wird es auch mit Ki­ge­stütz­ten De­sign­tools sein. Wah­re Krea­ti­vi­tät be­ruht auf der Fä­hig­keit zur Selbst­re­fle­xi­on – und die wird mei­ner Mei­nung nach KI nie ent­wi­ckeln.

Rein hand­werk­li­che De­sign­tä­tig­kei­ten wer­den da­ge­gen zu­neh­mend au­to­ma­ti­siert. Be­wegt sich das Be­rufs­feld des De­si­gners ins­ge­samt mehr in Rich­tung User Ex­pe­ri­ence und In­ter­ac­tion De­sign?

Die Gestal­tungs­grund­la­gen müs­sen De­si­gner nach wie vor be­herr­schen. Wer be­ur­teilt denn sonst gu­tes De­sign, wenn wir es selbst nicht mehr ent­wi­ckeln kön­nen? Auch ein Ku­ra­tor muss sich mit den Grund­la­gen aus­ken­nen. Je­doch hat sich un­ser Tä­tig­keits­schwer­punkt ver­scho­ben: Ge­mein­sam mit an­de­ren Dis­zi­pli­nen ge­stal­ten wir heu­te Nut­zungs­kon­zep­te. Wir küm­mern uns vor­nehm­lich um die Schnitt­stel­le zwi­schen Mensch und Ma­schi­ne und sor­gen da­für, dass die Mensch­heit kei­nen Scha­den nimmt. Je un­ab­seh­ba­rer die Fol­gen di­gi­ta­ler An­wen­dun­gen und Ser vices sind, des­to mehr Ver­ant wortung trägt der De­si­gner. Ein wich­ti­ges The­ma in die­sem Zu­sam­men­hang ist zum Bei­spiel Bi­as, al­so ei­ne Ver­zer­rung der Schätz­funk­ti­on in der Sta­tis­tik. Mit wel­chen Da­ten ei­ne KI trai­niert wird, kann enor­me Aus­wir­kun­gen dar­auf ha­ben, wel­che Er­geb­nis­se sie lie­fert. De­si­gner könn­ten hier die Rol­le ei­nes Da­ten­qua­li­täts­ma­na­gers über­neh­men.

Wie gut müs­sen De­si­gner die Tech­nik hin­ter KI ver­ste­hen, um da­mit ar­bei­ten und die Aus­wir­kun­gen ab­schät­zen zu kön­nen?

Als De­si­gner muss ich nicht al­les kön­nen, wohl aber ein grund­le­gen­des Ver­ständ­nis da­von ha­ben – so wie ein Au­to­de­si­gner nicht wis­sen muss, wie ein Mo­tor funk­tio­niert, aber ein Ver­ständ­nis von Dy­na­mik ha­ben soll­te. Nur so kann er ein sinn­vol­les und re­le­van­tes Pro­dukt ent­wer­fen. Das­sel­be gilt für den Be­reich Künst­li­che In­tel­li­genz: Ich muss kein neu­ro­na­les Netz pro­gram­mie­ren kön­nen, soll­te aber wis­sen, wie es in et­wa funk­tio­niert und was es leis­ten kann.

Goog­le, Mi­cro­soft, das Fu­ture of Li­fe In­sti­tu­te: Vie­le Un­ter­neh­men und For­schungs­in­sti­tu­te stel­len der­zeit »AI Prin­ci­ples« auf. Braucht es sol­che Prin­zi­pi­en auch für De­si­gner?

De­si­gner un­ter­wer­fen sich un­gern Re­geln, aber ja: Ich glau­be, es braucht ein Frame­work. Die Prin­zi­pi­en, die bis­her von un­ter­schied­li­chen Sei­ten auf­ge­stellt wur­den, sind zum Teil zu ober­fläch­lich und/oder zu tech­nisch. Es ist wich­tig, dass De­si­gner hier mit­re­den kön­nen – und nicht nur In­for­ma­ti­ker. Ich wür­de mir zum Bei­spiel wün­schen, dass es auch ver­bind­li­che Re­geln für Chip­her­stel­ler gibt. So wä­re von An­fang an die Ma­ni­pu­la­ti­on der Hard­ware zu bö­sen Zwe­cken aus­ge­schlos­sen – al­so Se­cu­ri­ty by De­sign and by De­fault. Mit künst­li­cher In­tel­li­genz ist es ähn­lich wie mit Atom­kraft: Ist sie ein­mal da, kannst du sie nicht ein­fach aus­schal­ten. Ge­nau aus die­se Grund braucht es ei­ni­ge mög­lichst sim­ple ethi­sche Re­geln im Um­gang mit KI.

Sie ha­ben vier ei­ge­ne Re­geln for­mu­liert. Wie lau­ten die­se?

Ers­tens müs­sen wir stets die Aus­wir­kun­gen im Blick be­hal­ten, die ei­ne Ki­an­wen­dung auf mensch­li­che Fä­hig­kei­ten ha­ben kann – das heißt gu­te wie schlech­te. Da­zu braucht es ei­ne Art Feh­ler­ana­ly­se wie bei den In­ge­nieu­ren, bei der al­le Even­tua­li­tä­ten samt ih­rer Ein­tritts­wahr­schein­lich­keit be­trach­tet wer­den. Ich se­he zum Bei­spiel den Trend zur Ver­ein­fa­chung aus­ge­spro­chen kri­tisch. Wenn uns im­mer mehr ab­ge­nom­men wird, dann ver­küm­mern zwangs­läu­fig un­se­re Fä­hig­kei­ten in be­stimm­ten Be­rei­chen. Wir wer­den schlei­chend un­se­rer Ein­schät­zungs­fä­hig­keit und des ei­ge­nen Selbst­wert­ge­fühls be­raubt, wenn wir im­mer mehr Ent­schei­dun­gen an Com­pu­ter ab­ge­ben. Da­bei macht es uns Men­schen aus, dass wir Ver­ant­wor­tung tra­gen – im Gu­ten wie im Schlech­ten.

Die zwei­te Re­gel knüpft dar­an an: Wir soll­ten KI da­für nut­zen, mensch­li­che Ei­gen­schaf­ten zu ver­bes­ sern. Zum Bei­spiel Em­pa­thie: Künst­li­che In­tel­li­genz kann uns da­bei un­ter­stüt­zen, an­de­re Blick­win­kel ein­zu­neh­men, um et­wa an­de­re Kul­tu­ren bes­ser zu ver­ste­hen. Oder man bringt ei­ner künst­li­chen In­tel­li­genz bei, im­mer zwei Op­tio­nen an­zu­zei­gen, so­dass die mensch­li­che Po­si­ti­on im Ent­schei­dungs­pro­zess wie­der ge­stärkt wird.

Die drit­te Re­gel lau­tet: Wir soll­ten kei­ne Ver­ant­wor­tung an ei­ne un­sicht­ba­re In­stanz ab­ge­ben, al­so an künst­li­che neu­ro­na­le Net­ze. An ei­ni­gen Us­ame ­ ri­ka­ni­schen Ge­rich­ten wer­den be­reits Ent­schei­dun­gen über Be­wäh­rungs­stra­fen von KI ge­trof­fen. Mit sol­chen Sys­te­men la­gern wir Ver­ant­wor­tung aus – wie an ei­ne Bad Bank. Dies be­ruht auf ei­nem über­stei­ger­ten Ver­trau­en in künst­li­che In­tel­li­genz, nach dem Mot­to: Die Ent­schei­dung be­ruht auf Da­ten, muss al­so stim­men. Aber auch künst­li­che In­tel­li­genz ist nicht un­fehl­bar. Sie spuckt le­dig­lich höchst­mög­li­che Wahr­schein­lich­kei­ten aus – kei­ne ab­so­lu­ten Wahr­hei­ten. Ver­ste­hen Sie mich bit­te nicht falsch: Es ist rich­tig und wich­tig, dass Rich­ter und Ärz­te künst­li­che In­tel­li­genz her­an­zie­hen – aber die letz­te Ent­schei­dung, und da­mit die Ver­ant­wor­tung, soll­te beim Men­schen blei­ben. Schon al­lein des­halb, weil nie­mand ge­nau weiß, was beim Deep Learning ei­gent­lich ge­nau pas­siert.

Und schließ­lich die vier­te Re­gel: Wer Ki­sys­te me ge­stal­tet, soll­te da­bei nicht nur das Wohl des In­di­vi­du­ums im Blick ha­ben, son­dern das Wohl der gan­zen Ge­sell­schaft. Der Ein­fluss sol­cher Sys­te­me reicht meist über die ur­sprüng­li­che Ziel­grup­pe hin­aus. Al­so soll­ten wir sie von vorn­her­ein so ent­wi­ckeln, dass mehr Men­schen da­von ei­nen Nut­zen ha­ben. Idea­ler­wei­se ma­chen wir es bes­ser als bei der in­dus­tri­el­len Re­vo­lu­ti­on, bei der ei­ni­ge We­ni­ge die Ge­win­ne ein­fuh­ren und da­für Hun­dert­tau­sen­de aus­ge­beu­tet wur­den. Des­halb ist es so wich­tig, dass wir mög­lichst vie­le Leu­te par­ti­zi­pa­tiv und ko­krea­tiv am Ent­wick­lungs­pro­zess teil­ha­ben las­sen.

Na­tür­lich wird es Ge­set­ze brau­chen, die we­sent­lich um­fang­rei­cher und kom­ple­xer sind. Aber die­se Grund­re­geln sind ein gu­ter Stan­dard, un­ter dem vie­le Aspek­te sub­sum­miert wer­den kön­nen.

Ka­rel Gol­ta, Ge­schäfts­füh­rer und In­ha­ber von In­de­ed in Ham­burg

Newspapers in German

Newspapers from Germany

© PressReader. All rights reserved.