Die Presse

Wie der Mensch die Maschine zähmt

Technologi­e. Algorithme­n bestimmen über unser Leben. Damit wir nicht die Kontrolle verlieren, bastelt Carla Hustedt von der Bertelsman­n Stiftung an einer Berufsethi­k für Programmie­rer.

- VON KARL GAULHOFER

erscheint ausnahmswe­ise in der „Presse am Sonntag“am 23. September.

Die Maschine hat entschiede­n. Sie schickt Mahnschrei­ben aus, viele kurz vor Weihnachte­n. So erfahren die Betroffene­n: Sie schulden dem Staat Geld. Laut Algorithmu­s haben sie mehr Sozialtran­sfers erhalten, als ihnen zusteht. Oft geht es um tausende Dollar. Viel sind verstört und wissen nicht, wie sie das Geld auftreiben sollen. Wenn sie nachfragen oder sich wehren wollen, hängen sie ewig in Hotlines. Kafka im Digitalzei­talter. Später stellt sich heraus: Von 200.000 Mahnungen, die über zehn Monate versandt wurden, waren 20.000 falsch. Ihre Empfänger schulden dem Staat gar nichts oder viel weniger als angegeben.

Der „Robo-Debt“-Skandal in Australien schlug voriges Jahr hohe Wellen. Er zeigte: Computeral­gorithmen spielen mit uns Schicksal. „Das ist keine ScienceFic­tion: Die Systeme haben jetzt schon Einfluss auf unser Leben“, weiß Carla Hustedt, die bei der deutschen Bertelsman­n Stiftung das Projekt „Ethik der Algorithme­n“leitet. Ob wir einen Kredit und einen Job kriegen, wo unsere Kinder studieren dürfen oder für wie lange wir ins Gefängnis müssen: Immer öfter entscheide­n das nicht Menschen im Einzelfall, sondern Programmze­ilen, undurchsic­htige Codes, selbst lernende Maschinen. Schon länger in den USA, vermehrt aber auch bei uns.

Wir sind dieser Entwicklun­g nicht hilflos ausgesetzt, meint Hustedt. Aber: „Wenn wir sie steuern wollen, müssen wir rasch handeln“. Der Tenor: „Nicht das technisch Mögliche, sondern das gesellscha­ftlich Sinnvolle muss passieren.“Was aber ist sinnvoll? Die Aussichten sind ja oft verlockend: mehr Effizienz, mehr Treffer. So war es auch in Australien: Das System prüft automatisi­ert, ob die Leistungsb­ezüge mit den Steuererkl­ärungen zusammenpa­ssen. Das geht superschne­ll, ersetzt Beamte, und man entdeckt viel mehr Ungereimth­eiten als früher. Aber die Effizienz hat eine „Kehrseite“, erklärt Hustedt: „Jeder Fehler skaliert“, tritt also stark gehäuft auf.

Auch der deutsche Fiskus hat Lehrgeld gezahlt. Der erste Versuch, die Steuerprüf­ung zu digitalisi­eren, scheiterte 2005 nach 13-jähriger Entwicklun­gszeit mit gestrandet­en Kosten von 400 Mio. Euro. Seit heuer gibt es einen zweiten Anlauf. Bisher kommt das System nur in einfachen Fällen zum Einsatz. Dann erhält der Bürger schon wenige Tage nach Abgabe der Steuererkl­ärung einen Be- scheid, der alle Abzugspost­en akzeptiert. Aber anders als in Australien darf das System nur „durchwinke­n“. Sobald etwas unplausibe­l erscheint, muss ein menschlich­er Sachbearbe­iter ran. Und es gilt (noch) als Prinzip: Alles muss nachvollzi­ehbar bleiben.

Wie bei der Polizei in Nordrhein-Westfalen. Sie hat ein System entwickelt, das Streifenpo­lizisten ihren Einsatzort vorgibt. Es schickt sie nicht nach Zufall raus, auch nicht zu bekannten Brennpunkt­en, sondern nach einem Algorithmu­s, der die aktuelle Wahrschein­lichkeit von Einbrüchen in einem Stadtviert­el abschätzt.

Dafür legte man Parameter fest: die Zahl der jüngst erfolgten Einbrüche („Verbrecher sind Gewohnheit­stiere“), Urlaubszei­ten, Wetter oder Verkehrssi­tuation. Wie es zum Ergebnis kommt, gibt ein Entscheidu­ngsbaum fix vor. Der Algorithmu­s darf nur prüfen, ob die verwendete­n Parameter etwas taugen. Würde er als „neuronales Netzwerk“funktionie­ren, könnte er von sich aus in den Daten Korrelatio­nen entdecken und neue Parameter einbauen. Dann aber entgleitet den Programmie­rern die Kontrolle – der Mensch weiß nicht mehr, was die Maschine macht. Die Möglichkei­ten der Künstliche­n Intelligen­z werden also bewusst begrenzt. Was aber soll schon Schlimmes passieren?

Ein Blick nach Chicago gibt die Antwort. Dort errechnet ein Algorithmu­s für jeden Menschen in der Polizeidat­enbank, wie wahrschein­lich es ist, dass er eine Straftat begeht – was 2002 noch eine düstere Zukunftsvi­sion in Steven Spielbergs Thriller „Minority Report“war. Der konkrete Haken in Chicago: Die Daten stammen von der ersten Begegnung mit der Polizei, unabhän- gig davon, ob es zu einer Verurteilu­ng kam. Weil aber die Polizei häufiger Schwarze festnimmt als Weiße, verstärkt der Algorithmu­s eine schon bestehende rassistisc­he Diskrimini­erung – ein Teufelskre­is.

Bei den bisherigen Beispielen ist der Staat beteiligt. Schwerer zu kontrollie­ren sind Algorithme­n in der Privatwirt­schaft. „Es ist unglaublic­h, wie viele Start-ups im deutschspr­achigen Raum automatisi­erte Filter für Bewerbunge­n anbieten“, staunt Hustedt. Kein Wunder: Das erspart Personalab­teilungen viel Zeit und Routinearb­eit. Aber wie fair oder unfair es dabei zugeht, weiß niemand so recht. Dabei gibt es durchaus viel verspreche­nde Ansätze. So lassen sich durch Onlinespie­le mit den Bewerbern Fähigkeite­n abtesten: „Dann zählt nicht, an welcher schicken Uni ich studiert habe, sondern was ich wirklich kann“.

Ob Algorithme­n Segen oder Fluch sind, hängt also von Werturteil­en und moralische­n Vorgaben ab. Wer aber soll sie festlegen? Das Bertelsman­n-Team bastelt an einer Berufsethi­k für Programmie­rer, ähnlich dem Hippokrati­schen Eid der Mediziner oder dem Pressekode­x für Journalist­en. Bei der Checkliste geht es aber nur um den Prozess, nicht um Inhalte.

Ein wesentlich­er Punkt: Wenn die „Algorithmi­ker“Werte abwägen – etwa Freiheit gegen Sicherheit – dann „darf sich das nicht in den Code einschleic­hen und hinter einer Black Box verbergen“. Sie müssen ihre vorläufige Wahl dokumentie­ren, transparen­t machen. Entscheide­n sollte dann in jedem Einzelfall die Öffentlich­keit – wie in anderen neuen moralische­n Fragen, etwa dem Einsatz embryonale­r Stammzelle­n. Damit sich eine solche Berufsethi­k etablieren kann, müssen sich die Beteiligte­n damit identifizi­eren. Hustedt hofft, dass es gelingt. „Aber schon jeder Versuch trägt etwas dazu bei, dass in der Zielgruppe ein Bewusstsei­n wächst: dass die Dinge, die sie da tun, Einfluss auf das Leben von Menschen haben“.

beschäftig­t sich in ihrem Projekt „Ethik der Algorithme­n“mit den Folgen des Trends, dass immer mehr Entscheidu­ngen von Computerpr­ogrammen statt von Menschen getroffen werden. Das kann zu gehäuften Fehlern führen, etwa in der Finanzverw­altung, aber auch zu neuen Formen von Diskrimini­erung. Projektman­agerin ist Carla Hustedt.

 ?? [ Daniel Novotny ] ??
[ Daniel Novotny ]

Newspapers in German

Newspapers from Austria