Kann man Com­pu­tern Ethik bei­brin­gen?

In­tel­li­gen­te, au­to­no­me Ma­schi­nen müs­sen ver­mehrt mo­ra­li­sche Ent­schei­dun­gen fäl­len. Da­bei könn­ten künf­tig alt­in­di­sche Tex­te hel­fen.

Die Presse - - WISSEN & INNOVATION -

Bei ei­nem selbst­fah­ren­den Au­to ver­sa­gen die Brem­sen, als ein Kind da­vor den Ze­bra­strei­fen über­quert. Än­dert das Fahr­zeug die Rich­tung, kracht es ge­gen ein fes­tes Hin­der­nis, die In­sas­sen – fünf Pen­sio­nis­ten – ster­ben. Be­hält es die Fahr­li­nie bei, über­fährt es das Kind. Das ist ei­nes von 13 ma­ka­bren Sze­na­ri­en, die das Mas­sa­chu­setts In­sti­tu­te of Tech­no­lo­gy (MIT) mit sei­ner „Moral Ma­chi­ne“seit 2016 er­fragt. Wie soll das in­tel­li­gen­te Fahr­zeug ent­schei­den?

Die­se aus­weg­lo­sen Di­lem­ma­ta wer­den ge­zeigt, um die Öf­fent­lich­keit für ethi­sche Fra­gen rund um künst­li­che In­tel­li­genz zu sen­si­bi­li­sie­ren – und in die De­bat­te mit­ein­zu­be­zie­hen. Denn in­tel­li­gen­te Ma­schi­nen, die in im­mer mehr Ar­beits- und Le­bens­be­rei­che vor­drin­gen, brau­chen tat­säch- lich für je­de Si­tua­ti­on ei­ne kla­re Vor­ga­be, wie sie agie­ren sol­len. Schon heu­te füh­ren Ro­bo­ter Ope­ra­tio­nen durch, sind in Kri­sen- oder Ka­ta­stro­phen­ge­bie­ten im Ein­satz, len­ken Bus­se oder Schif­fe. Be­geg­nen sie da­bei Men­schen, müs­sen sie mit­un­ter Ent­schei­dun­gen über Leib und Le­ben tref­fen. Aber: Wie lässt sich Moral pro­gram­mie­ren?

„Die For­schung da­zu steht noch ganz am An­fang“, sagt Aga­ta Cia­bat­to­ni vom In­sti­tut für Lo­gic and Com­pu­ta­ti­on der TU Wi­en. Die aus Ita­li­en stam­men­de In­for­ma­ti­ke­rin hat eben ein For­schungs­pro­jekt ge­star­tet, in dem sie ei­nen ganz neu­en An­satz wählt. Sie ana­ly­siert ge­mein­sam mit der San­s­kri­tis­tin Eli­sa Fre­schi vom In­sti­tut für Kul­tur- und Geis­tes­ge­schich­te Asi­ens der Aka­de­mie der Wis­sen­schaf­ten alt­in­di­sche Tex­te mit Me­tho­den der ma­the­ma­ti­schen Lo­gik.

Die phi­lo­so­phi­sche Schu­le der Mi­mam­sa ist für ih­ren sehr ri­go­ro­sen lo­gi­schen Zu­gang mit Vor­schrif­ten und Ver­bo­ten be­kannt, fest­ge­schrie­ben in den Ve­den. In die­ser so­ge­nann­ten de­on­ti­schen Lo­gik in­ter­es­sie­re nicht, „was wahr oder falsch ist, son­dern, was wir tun oder las­sen sol­len“, fasst Cia­bat­to­ni zu­sam­men. In die­ser über Jahr­hun­der­te tra­dier­ten Leh­re sind auch Re­geln for­mu­liert, wie sich schein­ba­re Wi­der­sprü­che auf­lö­sen las­sen. „Wir kön­nen die­se Re­geln in ei­ner Spra­che for­ma­li­sie­ren, die auch der Com­pu­ter ver­steht“, er­klärt die For­sche­rin.

Das soll nun ei­ner­seits neue Ein­sich­ten in die San­s­krit-Phi­lo­lo­gie er­mög­li­chen, an­de­rer­seits könn­te man die Er­kennt­nis­se auch nut­zen, um Com­pu­tern Ethik bei­zu­brin­gen: Die Com­pu­ter­wis­sen­schaft sol­le die Ar­gu­men­ta­ti­ons­werk­zeu­ge über­neh­men, um mit Ver­pflich­tun­gen und Ver­bo­ten bes­ser um­zu­ge­hen, so Cia­bat­to­ni.

Newspapers in German

Newspapers from Austria

© PressReader. All rights reserved.