Das mo­ra­li­sche Au­to

Lässt sich die Steue­rung au­to­no­mer Fahr­zeu­ge so pro­gram­mie­ren, dass sie mensch­li­chen Ver­hal­tens­re­geln fol­gen?

Neues Deutschland - - Wis­sen­schaft - Von Hans-Ar­thur Mar­sis­ke

Hin­ter der en­gen Kur­ve auf dem Ge­birgs­pass ist auf ein­mal der Bus vor dir, er­schre­ckend nah. Ein Schul­bus, voll be­setzt. Wahn­sinn, was man in­ner­halb ei­nes Se­kun­den­bruch­teils al­les er­ken­nen kann. So­fort ist der Fuß auf der Brem­se, doch schon nach ei­ner wei­te­ren Zehn­tel­se­kun­de ist klar: Es wird nicht rei­chen. Die Kol­li­si­on ist un­ver­meid­lich, es sei denn ...

Wer jetzt sein Fahr­zeug in den Ab­grund lenkt, um die Schul­kin­der zu schüt­zen, ist ein Held, kei­ne Fra­ge. Es wird ei­ne be­we­gen­de Trau­er­fei­er ge­ben, ein Denk­mal er­rich­tet wer­den. Vi­el­leicht soll­te die Schu­le um­be­nannt wer­den? Oder ei­ne Stra­ße?

Und wenn das Au­to selbst das Aus­weich­ma­nö­ver durch­führt? Kei­ne selbst­lo­se Tat hät­te die Kin­der ge­ret­tet, son­dern kühl kal­ku­lie­ren­de Al­go­rith­men. War sich der Nut­zer des Fahr­zeugs die­ses Ri­si­kos über­haupt be­wusst? Die Her­stel­ler­fir­ma wird sich un­an­ge­neh­men Fra­gen stel­len müs­sen, vor al­lem die Pro­gram­mie­rer.

Ei­ne dras­ti­sche Ver­rin­ge­rung der Un­fall­zah­len auf den Stra­ßen, das ist das gro­ße Ver­spre­chen des au­to­no­men, vom Com­pu­ter ge­steu­er­ten Fah­rens. Es wird sich wohl auch ein­lö­sen las­sen. Schon jetzt ha­ben As­sis­tenz­sys­te­me den Stra­ßen­ver­kehr si­che­rer ge­macht und da ist noch viel Luft nach oben. Aber auf Dau­er wer­den sich selbst Ro­bo­ter­au­tos nicht völ­lig un­fall­frei über den As­phalt be­we­gen kön­nen. Frü­her oder spä­ter wer­den Un­fall­sta­tis­ti­ken ge­gen den ers­ten von ei­nem au­to­no­men Fahr­zeug ge­tö­te­ten Men­schen ab­ge­wo­gen wer­den müs­sen. Spä­tes­tens dann wird deut­lich wer­den, dass er­höh­te Si­cher­heit ih­ren Preis hat.

Oli­ver Ben­del wen­det sich da­her ge­gen ei­nen rei­nen Ver­kehr aus Ro­bo­ter­au­tos. »Ich bin da­für, die Zahl der To­ten zu hal­bie­ren«, sagt der Phi­lo­soph und Wirt­schafts­in­for­ma­ti­ker von der Fach­hoch­schu­le Nord­west­schweiz. »Das klingt bru­tal, wenn man die Mög­lich­keit hät­te, viel we­ni­ger To­te zu ha­ben. Aber un­se­re Au­to­no­mie ist auch wich­tig.« Ma­schi­nen soll­ten nicht über Le­ben und Tod ent­schei­den, for­dert er.

Ge­gen­wär­tig kom­men welt­weit je­des Jahr et­wa 1,2 Mil­lio­nen Men­schen bei Au­to­un­fäl­len ums Le­ben. Ist die Er­hal­tung der mensch­li­chen Kon­trol­le über das Lenk­rad dem­nach 600 000 Men­schen­le­ben wert? Die Fra­ge ist kaum we­ni­ger un­an­ge­nehm als die Be­schäf­ti­gung mit der töd­li­chen Kon­fron­ta­ti­on auf dem Ge­birgs­pass. Die hat sich Patrick Lin aus­ge­dacht. Der Phi­lo­soph von der Ca­li­for­nia Po­ly­tech­nic Sta­te Uni­ver­si­ty geht da­von aus, dass au­to­no­me Fahr­zeu­ge bei ei­nem un­ver­meid­li­chen Zu­sam­men­stoß in der La­ge sein soll­ten, die Kol­li­si­on zu op­ti­mie­ren, al­so so zu re­agie­ren, dass der Scha­den mög­lichst ge­ring aus­fällt.

Op­ti­mie­ren lässt sich al­ler­dings in ver­schie­de­ne Rich­tun­gen, je nach­dem ob der Wa­gen dar­auf aus­ge­rich­tet ist, vor al­lem sei­ne In­sas­sen zu schüt­zen oder an­de­re Ver­kehrs­teil­neh­mer. Im ers­ten Fall wür­de er stets das leich­te­re Hin­der­nis wäh­len, al­so et­wa ein Kind statt ei­nes Er­wach­se­nen, ei­nen Klein­wa­gen statt ei­nes SUV oder Las­ters, im zwei­ten Fall eher um­ge­kehrt.

Das Aus­weich­ver­hal­ten lie­ße sich auch als Ziel­al­go­rith­mus be­schrei­ben, so Lin. Fah­rer von si­che­re­ren Fahr­zeu­gen könn­ten so oh­ne ei­ge­nes Zu­tun ins Fa­den­kreuz an­de­rer Ver­kehrs­teil­neh­mer ge­ra­ten. Mo­tor­rad­fah­rer stün­den vor der Fra­ge, ob sie nicht lie­ber auf Schutz­hel­me ver­zich­ten soll­ten, um nicht zu be­vor­zug­ten Kol­li­si­ons­ob­jek­ten zu wer­den. Kos­ten­funk­tio­nen, ent­wi­ckelt in den Pro­gram­mier­ab­tei­lun­gen von Au­to­mo­bil­kon­zer­nen, wür­den dar­über ent­schei­den, wer am Le­ben bleibt und wer nicht. Ei­ne ge­wich­ti­ge­re Auf­ga­be sei kaum denk­bar, be­tont Lin und wun­dert sich, dass es dar­über bis­her kaum Dis­kus­sio­nen ge­be.

Doch die kom­men jetzt in Gang. Auch au­ßer­halb von Ex­per­ten­krei­sen wird zu­neh­mend wahr­ge­nom­men, dass künst­li­che In­tel­li­genz kei­ne be- lie­bi­ge Tech­no­lo­gie ist, son­dern so­zia­le Sys­te­me und kul­tu­rel­le Tra­di­tio­nen er­schüt­tern kann. So be­fürch­te­te der Würz­bur­ger Ju­ra­pro­fes­sor Eric Hil­gen­dorf kürz­lich in der »Frank­fur­ter All­ge­mei­nen«, dass au­to­no­me Fahr­zeu­ge das deut­sche Rechts­ver­ständ­nis un­ter Druck set­zen könn­ten, da es schwie­ri­ger zu pro­gram­mie­ren sei als das an­gel­säch­si­sche.

Die un­ter­schied­li­chen Rechts­tra­di­tio­nen zei­gen sich im Um­gang mit dem »Trol­ley-Pro­blem«, das 1967 von der bri­ti­schen Phi­lo­so­phin Phil­ip­pa Foot in die Ethik­de­bat­te ein­ge­bracht wur­de und das im Zu­ge der Au­to­ma­ti­sie­rung des Stra­ßen­ver­kehrs jetzt ei­ne Re­nais­sance er­lebt. In sei­ner ur­sprüng­li­chen Form ist es auf den Schie­nen­ver­kehr be­zo­gen: Ein Ei­sen­bahn­wa­gen rollt un­kon­trol­liert auf ei­ne Grup­pe von fünf Per­so­nen zu, die nichts von der Ge­fahr ah­nen. Durch das Stel­len ei­ner Wei­che könn­te er auf ein an­de­res Gleis um­ge­lenkt wer­den, auf dem sich ei­ne Per­son be­fin­det. Was nun? Den He­bel um­le­gen oder nicht?

Die Ant­wort auf die Fra­ge hängt da­von ab, ob die Tat selbst be­wer­tet wird oder ih­re Fol­gen. So ori­en­tiert sich die an­gel­säch­si­sche Kul­tur eher an der kon­se­quen­tia­lis­ti­schen Ethik, die da­von aus­geht, dass ein To­des­op­fer bes­ser ist als fünf, und da­her das Be­tä­ti­gen der Wei­che als ethisch ge­recht­fer­tigt an­se­hen wür­de. Im deut­schen Recht steht da­ge­gen die Tat im Mit­tel­punkt: Wäh­rend durch das Stel­len der Wei­che ein Mensch ak­tiv ge­tö­tet wird, wird der Tod der fünf Per­so­nen durch das Un­tä­tig­sein le­dig­lich in Kauf ge­nom­men. Phi­lo­so­phen spre­chen von der de­on­to­lo­gi­schen, von Prin­zi­pi­en ge­lei­te­ten Ethik.

Tat­säch­lich las­se sich der quan­ti­ta­tiv ab­wä­gen­de Kon­se­quen­tia­lis­mus re­la­tiv leicht ma­the­ma­tisch fas­sen, mei­nen J. Chris­ti­an Ger­des und Sa­rah M. Thorn­ton. Die bei­den Ma­schi­nen­bau­er von der ka­li­for­ni­schen St­an­ford Uni­ver­si­ty be­die­nen sich da­für bei der Kon­troll- oder Re­ge­lungs­theo­rie. Die be­wer­tet et­wa Ab­wei­chun­gen des Fahr­zeugs vom ge­plan­ten Pfad als Kos­ten, die es zu mi­ni­mie­ren gilt. Die­sen grund­le­gen­den An­satz hal­ten die For­scher für di­rekt ana­log zur kon­se­quen­tia­lis­ti­schen Ethik. Wie Lin prä­sen­tie­ren sie ih­re For­schun­gen jetzt im Rah­men ei­ner von der Daim­ler und Benz Stif­tung fi­nan­zier­ten Stu­die (Mar­kus Mau­rer et. al., Hg.: »Au­to­no­mes Fah­ren«, Sprin­ger-Ver­lag, Print­ver­si­on: 53,49 Eu­ro, on­line kos­ten­los).

Ein rein kon­se­quen­tia­lis­ti­scher An­satz rei­che je­doch nicht aus, um ei­nem au­to­no­men Fahr­zeug ei­ne zu­ver­läs­si­ge ethi­sche Ori­en­tie­rung zu er­mög­li­chen, be­to­nen Ger­des und Thorn­ton. Dem stün­de schon ent­ge­gen, dass das Fahr­zeug nie über voll­stän­di­ge In­for­ma­tio­nen zur Beur­tei­lung ei­ner Si­tua­ti­on ver­fü­gen wer­de. Zu­dem funk­tio­nier­ten Kos­ten­funk­tio­nen und ih­re Ge­wich­tung nur in­ner­halb ei­nes be­stimm­ten Rah­mens. Wenn die Di­men­sio­nen der ver­schie­de­nen Kos­ten zu stark von­ein­an­der ab­wi­chen, lie­ßen sie sich ma­the­ma­tisch nicht mehr sinn­voll er­fas­sen.

In­ge­nieu­re lö­sen sol­che Pro­ble­me, in­dem sie Rand­be­din­gun­gen de­fi­nie­ren, al­so Grenz­wer­te fest­le­gen, die ein­ge­hal­ten wer­den müs­sen. Ma­the­ma­tisch ge­se­hen wird das Op­ti­mie­rungs­pro­blem ein­ge­schränkt. Die­se Ein­schrän­kun­gen kön­nen phy­si­ka­li­sche Gren­zen eben­so be­tref­fen wie Leis­tungs­gren­zen des tech­ni­schen Sys­tems oder eben ethi­sche Vor­ga­ben.

Das be­rühm­tes­te Bei­spiel für sol­che ethi­schen Rand­be­din­gun­gen sind die vom Schrift­stel­ler Isaac Asi­mow ent­wi­ckel­ten drei Ro­bo­ter­ge­set­ze. Die for­dern an ers­ter Stel­le, dass ein Ro­bo­ter ei­nem Men­schen kei­nen Scha­den zu­fü­gen darf. Künst­li­che In­tel­li­genz mit dem da­für er­for­der­li­chen Ver­ständ­nis von Schmerz und Schä­di­gung hal­ten Ger­des und Thorn­ton je­doch in na­her Zu­kunft nicht für rea­li­sier­bar. Sie schla­gen vor, statt­des­sen die Ver­mei­dung von Kol­li­sio­nen an die obers­te Stel­le zu rü­cken und klei­ne­re Schä­den, wie das Ein­klem­men ei­ner Hand in der Au­to­tür, in der Ver­ant­wor­tung des Men­schen zu be­las­sen. So er­ge­ben sich drei Asi­mow­sche Grund­re­geln des au­to­no­men Fah­rens:

»1. Ein au­to­no­mes Fahr­zeug darf nicht mit ei­nem Fuß­gän­ger oder Rad­fah­rer zu­sam­men­sto­ßen.

2. Ein au­to­no­mes Fahr­zeug darf nicht mit ei­nem an­de­ren Fahr­zeug zu­sam­men­sto­ßen, es sei denn, die Ver­mei­dung so ei­ner Kol­li­si­on führt zu ei­ner Ver­let­zung der Ers­ten Re­gel.

3. Ein au­to­no­mes Fahr­zeug darf mit kei­nem an­de­ren Ob­jekt in sei­ner Um­ge­bung zu­sam­men­sto­ßen, es sei denn, die Ver­mei­dung ei­ner sol­chen Kol­li­si­on führt zu ei­ner Ver­let­zung der Ers­ten oder Zwei­ten Re­gel.«

Aus rein kon­se­quen­tia­lis­ti­scher Sicht wer­de ein sol­cher »hy­bri­der An­satz« nicht im­mer zum op­ti­ma­len Er­geb­nis füh­ren, räu­men Ger­des und Thorn­ton ein, et­wa wenn leich­te Ver­let­zun­gen ei­nes Fuß­gän­gers er­heb­li­chem Sach­scha­den ge­gen­über­ste­hen. Zu­ver­läs­si­ge Scha­dens­ab­schät­zun­gen im Se­kun­den­bruch­teil dürf­ten al­ler­dings ähn­lich weit in der Zu­kunft lie­gen wie das Ver­ständ­nis mensch­li­chen Schmer­zes. Die drei Ge­set­ze da­ge­gen kom­men oh­ne sol­che Schät­zun­gen aus und er­for­dern le­dig­lich gro­be Ob­jekt­klas­si­fi­zie­run- gen, die beim ge­gen­wär­ti­gen Stand der Tech­nik rea­li­sier­bar sein soll­ten.

Das Wir­kungs­feld für den Kon­se­quen­tia­lis­mus se­hen die bei­den For­scher beim Um­gang mit den Ver­kehrs­re­geln. Die sei­en zwar strikt als Rand­be­din­gun­gen for­mu­liert, wür­den al­ler­dings im All­tag fle­xi­bel ge­hand­habt und stän­dig ge­gen an­de­re Zie­le wie et­wa flüs­si­gen Ver­kehr ab­ge­wo­gen. Au­to­no­me Fahr­zeu­ge, die den Ver­kehrs­fluss be­hin­dern, weil sie sich strikt an die Re­geln hal­ten, wür­den ge­sell­schaft­lich kaum ak­zep­tiert wer­den, ver­mu­ten Ger­des und Thorn­ton. Ih­re Schluss­fol­ge­rung: Ein de­on­to­lo­gi­scher Um­gang mit der Kol­li­si­ons­ver­mei­dung und ein kon­se­quen­tia­lis­ti­scher Um­gang mit den Ver­kehrs­re­geln könn­te die rich­ti­ge Kom­bi­na­ti­on sein, um au­to­no­me Fahr­zeu­ge zu schaf­fen, die »im Stra­ßen­ver­kehr mit mensch­li­chen Fah­rern ko­exis­tie­ren und sich gleich­ar­tig ver­hal­ten kön­nen«.

Auf je­den Fall ein Vor­schlag, über den sich de­bat­tie­ren lässt. Für Patrick Lin ist das der wich­tigs­te Aspekt: Selbst wenn der Kon­se­quen­tia­lis­mus die bes­te ethi­sche Theo­rie wä­re und das Fahr­zeug das Aus­weich­ma­nö­ver auf dem Ge­birgs­pass völ­lig kor­rekt kal­ku­lie­ren wür­de, wä­re das we­nig wert, wenn es zu­vor kei­ne De­bat­te über Ethik ge­ge­ben hät­te. Den Nut­zern ei­nes au­to­no­men Fahr­zeugs müs­se vorm Ein­stei­gen klar sein, dass Selbstop­fe­rung ein sinn­vol­les Ver­hal­ten sei, kein Pro­gramm­feh­ler. »Die In­dus­trie wä­re gut be­ra­ten«, mahnt Lin, »hier für Klar­heit zu sor­gen und früh­zei­tig die Über­le­gun­gen zu den Schlüs­sel­al­go­rith­men zu er­klä­ren und zu dis­ku­tie­ren, die über Le­ben und Tod ent­schei­den kön­nen. Trans­pa­renz, die Of­fen­le­gung der ei­ge­nen Ma­the­ma­tik, ist ein wich­ti­ger Aspekt ethi­schen Ver­hal­tens. Es geht nicht nur um die Ant­wort selbst.«

In dem Punkt ist er sich ei­nig mit Oli­ver Ben­del. Die ethi­schen Fra­gen des au­to­no­men Fah­rens könn­ten nicht al­lein in den eta­blier­ten en­gen Krei­sen von In­dus­trie, Po­li­tik und For­schungs­in­sti­tu­ten ge­klärt wer­den. Da­zu brau­che es ei­ne viel brei­te­re ge­sell­schaft­li­che Dis­kus­si­on, die »nicht nur von oben, son­dern auch von un­ten« ge­führt wer­den müs­se. »Die­sen Dis­kus­sio­nen müs­sen in den nächs­ten zwei, drei Jah­ren we­sent­li­che Er­kennt­nis­se ent­sprin­gen«, hofft er.

Das wä­re doch was: Au­to­no­me Fahr­zeu­ge wei­gern sich, Men­schen zu be­för­dern, so­lan­ge die sich nicht al­le (wirk­lich: al­le) gründ­lich Ge­dan­ken dar­über ge­macht ha­ben, wie sie ei­gent­lich mit­ein­an­der um­ge­hen wol­len und zu ei­nem trag­fä­hi­gen Kon­sens ge­kom­men sind. Wir wer­den den Ro­bo­tern noch dank­bar sein.

Newspapers in German

Newspapers from Germany

© PressReader. All rights reserved.