ALGORITHMEN VER­ÄN­DERN DIE WELT

Frü­her sag­te der Mensch dem Com­pu­ter, was er zu tun hat. Heu­te ent­schei­det der Com­pu­ter mit­tels Algorithmen sel­ber, was er tun will. Das ber­ge Ge­fah­ren, sagt der Da­ten­spe­zia­list Mar­cel Blatt­ner.

Schweizer Familie - - VORDERSEITE - — In­ter­view Su­san­ne Ro­then­ba­cher und Balz Spör­ri

Herr Blatt­ner, Sie sind ein so­ge­nann­ter Da­ta Sci­en­tist. Was macht ein Da­ten-wis­sen­schaf­ter?

Wir ver­su­chen in rie­si­gen Da­ten­men­gen Zu­sam­men­hän­ge zu fin­den und die­se dann sinn­voll wei­ter­zu­ver­wen­den.

Zum Bei­spiel?

Bei Ta­me­dia, wel­che auch die «Schwei­zer Fa­mi­lie» her­aus­gibt, su­chen wir et­wa nach Mus­tern, wie Le­ser on­li­ne Zei­tung le­sen. Dann ver­su­chen wir die Mus­ter so ein­zu­set­zen, dass sie dem Le­ser wie­der zu­gu­te kom­men. Wir schla­gen ihm Ar­ti­kel vor, von de­nen wir auf­grund sei­ner frü­he­ren Le­se­ge­wohn­hei­ten an­neh­men, dass sie ihn be­son­ders in­ter­es­sie­ren könn­ten. Auf­grund die­ser Mus­ter kann man auch ge­zielt Wer­bung schal­ten und da­mit Geld ver­die­nen.

Letzt­lich geht es im­mer dar­um, Geld zu ver­die­nen. Doch wir Da­ten-wis­sen­schaf­ter hel­fen, ei­ne Win-win-si­tua­ti­on zu schaf­fen. Für den Le­ser ist es ein Ge­winn, wenn wir ihm in­ter­es­san­te Ar­ti­kel vor­schla­gen und die Wer­bung auf sei­ne Be­dürf­nis­se zu­ge­schnit­ten ist.

Um sol­che Mus­ter zu fin­den, wer­den Algorithmen ein­ge­setzt. Was genau ist ein Al­go­rith­mus?

Ein Al­go­rith­mus ist ei­ne Be­rech­nungs­vor­schrift. Er gibt ei­ne de­fi­nier­te Ab­fol­ge von Re­geln vor. Um ei­ne be­stimm­te Auf­ga­be zu lö­sen, ar­bei­tet das Com­pu­ter­pro­gramm dann die­se Re­geln ab.

Wie müs­sen wir uns das kon­kret vor­stel­len?

Neh­men wir an, Sie möch­ten wis­sen, wie fit je­mand ist. Frü­her sag­te man: Wenn je­mand 10 Ki­lo­me­ter joggt, an­schlies­send 1 Ki­lo­me­ter schwimmt und 20 Ki­lo­me­ter auf dem Ve­lo fährt, hat er auf ei­ner Fit­ness­ska­la von 1 bis 10 viel­leicht ei­ne 9. Der Mensch de­fi­nier­te die Re­geln, wie man die Fit­ness be­rech­net. Die­se Re­geln wur­den in ei­nem Com­pu­ter­pro­gramm fest­ge­schrie­ben, das dann die in­di­vi­du­el­len Fit­ness­wer­te fix nach die­sen Re­geln be-

rech­ne­te. Man sprach des­halb von ei­nem re­gel­ba­sier­ten Al­go­rith­mus. Es war im­mer nach­voll­zieh­bar, wie das Pro­gramm zu sei­nen Er­geb­nis­sen kam.

Und heu­te ist das an­ders?

Ja, die heu­ti­gen, mo­der­nen Algorithmen su­chen selb­stän­dig in ei­ner rie­si­gen Men­ge von me­di­zi­ni­schen und sport­li­chen Da­ten nach Mus­tern und be­rech­

«Es gibt kein Ge­setz, das vor­schreibt, dass Algorithmen über­prüft oder of­fen­ge­legt wer­den müs­sen.»

nen dar­aus die in­di­vi­du­el­le Fit­ness. Wie sie das ma­chen, ist nicht mehr vom Men­schen vor­ge­ge­ben. Das Com­pu­ter­pro­gramm bringt sich selbst bei, wel­che Da­ten es be­rück­sich­ti­gen muss und wie es die Fit­ness be­rech­net.

Wenn ich auf Youtube ein Film­chen mit Kat­zen schaue, wer­den mir an­schlies­send un­zäh­li­ge wei­te­re Kat­zen­fil­me vor­ge­schla­gen. Ste­cken da­hin­ter auch selbst­ler­nen­de Pro­gram­me, die auf Algorithmen ba­sie­ren?

Genau. Man sagt dem auch «maschinelles Ler­nen». Ei­ne Ma­schi­ne, be­zie­hungs­wei­se ein Com­pu­ter­pro­gramm, re­gis­triert, wel­che Fil­me Sie sich auf Youtube an­se­hen. Die Ma­schi­ne lernt selb­stän­dig, dass Sie oft Kat­zen­fil­me an­schau­en, und schlägt Ih­nen des­halb ähn­li­che Fil­me vor.

Wo fin­det man sol­che Algorithmen? Übe­r­all. Wir brau­chen sie je­den Tag. Wenn wir auf Goog­le et­was su­chen, er­stellt ein Al­go­rith­mus die Tref­fer­lis­te, beim Na­vi fin­det ein Al­go­rith­mus die

schnells­te Ver­bin­dung zwi­schen Ol­ten und Aarau.

Algorithmen er­leich­tern uns al­so den All­tag.

Im Grun­de ge­nom­men schon. Ich fin­de es su­per, wenn mir ei­ne App hilft, die nächs­te Tram- oder Zug­ver­bin­dung zu fin­den. Oder: Wenn man frü­her In­for­ma­tio­nen über den Ers­ten Welt­krieg such­te, ging man in die Bi­b­lio­thek und schau­te in Bü­chern nach. Das war sehr zeit­auf­wen­dig. Heu­te sit­ze ich am Lap­top, ge­be ein paar Stich­wör­ter ein und be­kom­me meis­tens sinn­vol­le In­for­ma­tio­nen zu ei­nem The­ma. Man muss aber auch zu­ge­ben, dass wir mit all die­sen elek­tro­ni­schen Gad­gets und Apps manch­mal viel Zeit ver­trö­deln. Algorithmen kom­men auch in ganz an­de­ren Ge­bie­ten zum Ein­satz, zum Bei­spiel in der Me­di­zin.

Es gibt heu­te Sys­te­me, die et­wa bei der Dia­gno­se hilf­reich sind. Zum Bei­spiel kann ei­ne Ma­schi­ne auf­grund von Mri­bil­dern ein Ge­we­be nach ver­däch­ti­gen Zel­len ab­su­chen …

… und dem Arzt hel­fen, Krebs frü­her zu er­ken­nen? Mög­li­cher­wei­se ja. Die Ma­schi­ne kann viel mehr In­for­ma­tio­nen ver­ar­bei­ten als ein ein­zel­ner Arzt. Ein Arzt sieht in sei­nem Le­ben viel­leicht ein paar hun­dert Fäl­le ei­ner be­stimm­ten Krebs­form. Ei­ne Ma­schi­ne kann Mil­lio­nen von Fäl­len mit­ein­an­der ver­glei­chen, um zu be­ur­tei­len, ob ein Ge­we­be krank­haft ist oder nicht. Und so hel­fen, die op­ti­ma­le Be­hand­lung oder Ope­ra­ti­on zu fin­den. Das ist ei­ne po­si­ti­ve Ent­wick­lung.

Die aber auch Ge­fah­ren birgt. Aus­schlag­ge­bend ist, dass nicht die Ma­schi­ne die end­gül­ti­ge Ent­schei­dung über ei­ne Ope­ra­ti­on trifft, son­dern der Mensch. Ist das heu­te nicht mehr der Fall? Ich ge­be Ih­nen ein Bei­spiel: Wenn Sie bei ei­ner Bank ei­ne Hy­po­thek be­an­tra­gen, ent­schei­det heu­te oft im Hin­ter­grund ein Sys­tem mit, ob Sie kre­dit­wür­dig sind. Als Kun­de er­fah­ren Sie das aber nicht. Sie ha­ben auch kei­ne Ah­nung, nach wel­chen Kri­te­ri­en der Al­go­rith­mus ent­schei­det. Das kann man auch po­si­tiv se­hen. Wenn man frü­her dem Bank­be­ra­ter un­sym­pa­thisch war, be­kam man kei­ne Hy­po­thek. Heu­te ent­schei­det ein neu­tra­ler Al­go­rith­mus.

Lei­der ist das nicht so.

War­um nicht?

Je­der Al­go­rith­mus hat ei­nen, wie wir sa­gen, Bi­as, ei­ne be­stimm­te Vor­ein­ge­nom­men­heit. Er ist nicht neu­tral. Wenn wir bei der Hy­po­thek blei­ben: Der Al­go­rith­mus hat zum Bei­spiel ge­lernt, dass Kun­den mit der Post­leit­zahl 8008 ih­re Rech­nun­gen bes­ser be­glei­chen als sol­che mit der Post­leit­zahl 8057. Sta­tis­tisch mag das stim­men, für Sie per­sön­lich kann das aber ein un­ge­rech­tes Är­ger­nis wer­den. Spie­gelt der Al­go­rith­mus die Vor­ur­tei­le des Pro­gram­mie­rers, der ihn er­stellt hat?

Nein, das Pro­blem liegt pri­mär nicht beim Pro­gram­mie­rer, son­dern bei den Da­ten, an­hand de­ren der Al­go­rith­mus lernt, wie er zu sei­nen Ent­schei­den kommt.

Das müs­sen Sie er­klä­ren.

Es gibt Schwei­zer Fir­men, die bei der Su­che nach neu­en Mit­ar­bei­tern ei­ne Soft­ware ein­set­zen, bei der ein Al­go­rith­mus aus al­len Be­wer­bun­gen die bes­ten her­aus­fil­tert. Der Al­go­rith­mus weiss auf­grund frü­he­rer Be­wer­bun­gen, dass am ehes­ten Kan­di­da­ten mit be­stimm­ten Merk­ma­len an­ge­stellt wur­den, al­so zum Bei­spiel 35-jäh­ri­ge, ver­hei­ra­te­te Män­ner. Er geht al­so da­von aus, dass er auch die neu­en Kan­di­da­ten nach die­sen Merk­ma­len aus­sor­tie­ren muss. Und wo liegt das Pro­blem?

Wenn der Per­so­nal­chef frü­her sys­te­ma­tisch kei­ne Frau­en und kei­ne 50-Jäh­ri­gen ein­stell­te, hat der Al­go­rith­mus auf­grund die­ser al­ten Da­ten dis­kri­mi­nie­ren­de Re­geln ge­lernt und setzt die­se wei­ter um. Kann man das nicht kor­ri­gie­ren? Doch, man könn­te dem Al­go­rith­mus in die­sem Fall bei­brin­gen, dass er das Al­ter oder das Ge­schlecht nicht oder nur we­nig ge­wich­ten darf. Aber in der Re­gel wird das nicht ge­macht.

Weil es zu auf­wen­dig ist?

Ja. Und es ist auch nicht vor­ge­schrie­ben. Es gibt kein Ge­setz, das be­stimmt, dass Algorithmen über­prüft oder of­fen­ge­legt wer­den müs­sen. Tech-gi­gan­ten wie Face­book oder Goog­le sind mehr oder we­ni­ger vo­gel­frei, was sie ma­chen oder wel­che Algorithmen sie ent­wi­ckeln. In­zwi­schen meh­ren sich aber Stim­men, die ei­ne Re­gu­lie­rung oder ei­ne Art Zu­las­sungs­stel­le für Algorithmen for­dern.

In New York wur­de kürz­lich das ers­te Ge­setz ge­gen «dis­kri­mi­nie­ren­de Algorithmen» in Kraft ge­setzt. Die Um­set­zung sol­cher Ge­set­ze ist ex­trem schwie­rig. Es gibt noch kei­ne ge­schei­ten An­sät­ze, wie man die­ses Pro­blem lö­sen kann. Um­so wich­ti­ger ist es, dass sich die Men­schen, die User, be­wusst wer­den, wie stark die In­for­ma­tio­nen, die sie be­kom­men und auf­grund de­ren sie ent­schei­den, von Ma­schi­nen be­ein­flusst sind.

Wo sol­len die Men­schen das ler­nen? Der Ein­fluss von Tech­no­lo­gi­en auf un­se­re Ge­sell­schaft soll­te un­be­dingt in der Schu­le the­ma­ti­siert wer­den. Er ge­hört in ein Fach wie «Mensch und Um­welt». Es geht dar­um, bei den Leu­ten ein Be­wusst­sein da­für zu ent­wi­ckeln, dass wir von sol­chen Ma­schi­nen um­ge­ben sind. Und dass es ein Po­ten­zi­al für Ma­ni­pu­la­tio­nen gibt. Nicht, weil je­mand et­was Bö­ses will, son­dern weil die­se Ma­schi­nen meis­tens nicht neu­tral sind.

Sie ha­ben kürz­lich ei­nen Ar­ti­kel ver­öf­fent­licht mit dem Ti­tel «Algorithmen ge­fähr­den die De­mo­kra­tie». Wie mei­nen Sie das?

Der Ti­tel spielt dar­auf an, dass ver­schie­de­ne Po­li­zei­korps in der Schweiz, et­wa die Zürcher Kan­tons­po­li­zei, ei­ne Soft­ware ein­set­zen, die vor­aus­sagt, in wel­chem Ge­biet der nächs­te Ein­bruch statt­fin­det oder ob ei­ne Per­son dem­nächst ei­ne Tat be­ge­hen wird.

Wie bit­te?

Die­ses Sys­tem wur­de oh­ne Aus­schrei­bung mit öf­fent­li­chen Gel­dern ge­kauft. Und die Po­li­zei gibt kei­ner­lei Aus­kunft dar­über, wie es funk­tio­niert. Es stuft un­ter Um­stän­den je­man­den auf­grund sei­nes Ver­hal­tens in den so­zia­len Me­di­en als po­ten­zi­el­len Tä­ter ein und rät der Po­li­zei, ihn zu über­wa­chen – ob­wohl die­se Per­son über­haupt nichts an­ge­stellt hat. Das un­ter­gräbt

«Der Al­go­rith­mus kann hel­fen, et­was zu be­ur­tei­len, er kann Vor­schlä­ge ma­chen. Aber ent­schei­den muss der Mensch.»

un­ser de­mo­kra­ti­sches Wer­te­sys­tem, oh­ne dass sich die Öf­fent­lich­keit des­sen be­wusst ist. Ein sol­ches Sys­tem müss­te un­be­dingt für un­ab­hän­gi­ge Ex­per­ten of­fen sein. Nur so kann über­prüft wer­den, ob al­les mit rech­ten Din­gen zu­geht. Braucht es ei­ne Om­buds­stel­le für Algorithmen?

Das wä­re ei­ne Mög­lich­keit. Wenn die Kon­su­men­ten Au­gen und Oh­ren of­fen hal­ten wür­den, könn­ten sie auch mehr Druck auf die Tech-gi­gan­ten aus­üben. Goog­le oder Face­book ha­ben zwar heu­te schon Gre­mi­en, die be­ur­tei­len, ob ein Al­go­rith­mus ethi­sche Kri­te­ri­en er­füllt. Aber das reicht nicht, um Trans­pa­renz zu schaf­fen.

Mitt­ler­wei­le, sa­gen Ex­per­ten, ha­ben selbst die Pro­gram­mie­rer den Über­blick ver­lo­ren, wie ih­re Algorithmen funk­tio­nie­ren. Das ist tat­säch­lich ein gros­ses Pro­blem. Ich ge­be Ih­nen ein Bei­spiel: Ein Al­go­rith­mus er­kennt, ob auf ei­nem Fo­to ein Hund oder ei­ne Kat­ze ab­ge­bil­det ist. Wenn ein Mensch dem Al­go­rith­mus die Re­geln bei­brin­gen wür­de, nach wel­chen Kri­te­ri­en er un­ter­schei­den muss, wür­de er viel­leicht sa­gen: Wenn das Ob­jekt ei­nen lan­gen Schwanz und be­stimm­te Schnurr­haa­re hat, ist es ei­ne Kat­ze. Der Al­go­rith­mus bringt sich selbst aber ganz an­de­re Kri­te­ri­en bei. Er er­stellt viel­leicht ei­ne For­mel «Form der Au­gen mal Struk­tur des Fells mi­nus die Oh­ren». Er ent­wi­ckelt Re­geln, die der Mensch schlicht und ein­fach nicht mehr ver­steht.

Wir Men­schen sind al­so Zau­ber­lehr­lin­ge, die den Be­sen, den wir her­bei­ge­zau­bert ha­ben, nicht mehr los­wer­den?

Das sind wir. Und des­halb ist es un­ab­ding­bar, dass nie ein Al­go­rith­mus oder ein Sys­tem selb­stän­dig ei­ne Ent­schei­dung tref­fen oder ei­ne Hand­lung aus­lö­sen kann. Der Al­go­rith­mus kann hel­fen, et­was zu be­ur­tei­len, er kann Vor­schlä­ge ma­chen. Aber ent­schei­den muss im­mer der Mensch.

Fut­ter für Algorithmen: In rie­si­gen Da­ten­men­gen su­chen sie nach be­stimm­ten Mus­tern.

Maschinelles Ler­nen: Ein Com­pu­ter­pro­gramm be­ob­ach­tet, wel­che Fil­me Men­schen auf Youtube an­schau­en.

Newspapers in German

Newspapers from Switzerland

© PressReader. All rights reserved.