Wie der Mensch die Maschine zähmt
Technologie. Algorithmen bestimmen über unser Leben. Damit wir nicht die Kontrolle verlieren, bastelt Carla Hustedt von der Bertelsmann Stiftung an einer Berufsethik für Programmierer.
erscheint ausnahmsweise in der „Presse am Sonntag“am 23. September.
Die Maschine hat entschieden. Sie schickt Mahnschreiben aus, viele kurz vor Weihnachten. So erfahren die Betroffenen: Sie schulden dem Staat Geld. Laut Algorithmus haben sie mehr Sozialtransfers erhalten, als ihnen zusteht. Oft geht es um tausende Dollar. Viel sind verstört und wissen nicht, wie sie das Geld auftreiben sollen. Wenn sie nachfragen oder sich wehren wollen, hängen sie ewig in Hotlines. Kafka im Digitalzeitalter. Später stellt sich heraus: Von 200.000 Mahnungen, die über zehn Monate versandt wurden, waren 20.000 falsch. Ihre Empfänger schulden dem Staat gar nichts oder viel weniger als angegeben.
Der „Robo-Debt“-Skandal in Australien schlug voriges Jahr hohe Wellen. Er zeigte: Computeralgorithmen spielen mit uns Schicksal. „Das ist keine ScienceFiction: Die Systeme haben jetzt schon Einfluss auf unser Leben“, weiß Carla Hustedt, die bei der deutschen Bertelsmann Stiftung das Projekt „Ethik der Algorithmen“leitet. Ob wir einen Kredit und einen Job kriegen, wo unsere Kinder studieren dürfen oder für wie lange wir ins Gefängnis müssen: Immer öfter entscheiden das nicht Menschen im Einzelfall, sondern Programmzeilen, undurchsichtige Codes, selbst lernende Maschinen. Schon länger in den USA, vermehrt aber auch bei uns.
Wir sind dieser Entwicklung nicht hilflos ausgesetzt, meint Hustedt. Aber: „Wenn wir sie steuern wollen, müssen wir rasch handeln“. Der Tenor: „Nicht das technisch Mögliche, sondern das gesellschaftlich Sinnvolle muss passieren.“Was aber ist sinnvoll? Die Aussichten sind ja oft verlockend: mehr Effizienz, mehr Treffer. So war es auch in Australien: Das System prüft automatisiert, ob die Leistungsbezüge mit den Steuererklärungen zusammenpassen. Das geht superschnell, ersetzt Beamte, und man entdeckt viel mehr Ungereimtheiten als früher. Aber die Effizienz hat eine „Kehrseite“, erklärt Hustedt: „Jeder Fehler skaliert“, tritt also stark gehäuft auf.
Auch der deutsche Fiskus hat Lehrgeld gezahlt. Der erste Versuch, die Steuerprüfung zu digitalisieren, scheiterte 2005 nach 13-jähriger Entwicklungszeit mit gestrandeten Kosten von 400 Mio. Euro. Seit heuer gibt es einen zweiten Anlauf. Bisher kommt das System nur in einfachen Fällen zum Einsatz. Dann erhält der Bürger schon wenige Tage nach Abgabe der Steuererklärung einen Be- scheid, der alle Abzugsposten akzeptiert. Aber anders als in Australien darf das System nur „durchwinken“. Sobald etwas unplausibel erscheint, muss ein menschlicher Sachbearbeiter ran. Und es gilt (noch) als Prinzip: Alles muss nachvollziehbar bleiben.
Wie bei der Polizei in Nordrhein-Westfalen. Sie hat ein System entwickelt, das Streifenpolizisten ihren Einsatzort vorgibt. Es schickt sie nicht nach Zufall raus, auch nicht zu bekannten Brennpunkten, sondern nach einem Algorithmus, der die aktuelle Wahrscheinlichkeit von Einbrüchen in einem Stadtviertel abschätzt.
Dafür legte man Parameter fest: die Zahl der jüngst erfolgten Einbrüche („Verbrecher sind Gewohnheitstiere“), Urlaubszeiten, Wetter oder Verkehrssituation. Wie es zum Ergebnis kommt, gibt ein Entscheidungsbaum fix vor. Der Algorithmus darf nur prüfen, ob die verwendeten Parameter etwas taugen. Würde er als „neuronales Netzwerk“funktionieren, könnte er von sich aus in den Daten Korrelationen entdecken und neue Parameter einbauen. Dann aber entgleitet den Programmierern die Kontrolle – der Mensch weiß nicht mehr, was die Maschine macht. Die Möglichkeiten der Künstlichen Intelligenz werden also bewusst begrenzt. Was aber soll schon Schlimmes passieren?
Ein Blick nach Chicago gibt die Antwort. Dort errechnet ein Algorithmus für jeden Menschen in der Polizeidatenbank, wie wahrscheinlich es ist, dass er eine Straftat begeht – was 2002 noch eine düstere Zukunftsvision in Steven Spielbergs Thriller „Minority Report“war. Der konkrete Haken in Chicago: Die Daten stammen von der ersten Begegnung mit der Polizei, unabhän- gig davon, ob es zu einer Verurteilung kam. Weil aber die Polizei häufiger Schwarze festnimmt als Weiße, verstärkt der Algorithmus eine schon bestehende rassistische Diskriminierung – ein Teufelskreis.
Bei den bisherigen Beispielen ist der Staat beteiligt. Schwerer zu kontrollieren sind Algorithmen in der Privatwirtschaft. „Es ist unglaublich, wie viele Start-ups im deutschsprachigen Raum automatisierte Filter für Bewerbungen anbieten“, staunt Hustedt. Kein Wunder: Das erspart Personalabteilungen viel Zeit und Routinearbeit. Aber wie fair oder unfair es dabei zugeht, weiß niemand so recht. Dabei gibt es durchaus viel versprechende Ansätze. So lassen sich durch Onlinespiele mit den Bewerbern Fähigkeiten abtesten: „Dann zählt nicht, an welcher schicken Uni ich studiert habe, sondern was ich wirklich kann“.
Ob Algorithmen Segen oder Fluch sind, hängt also von Werturteilen und moralischen Vorgaben ab. Wer aber soll sie festlegen? Das Bertelsmann-Team bastelt an einer Berufsethik für Programmierer, ähnlich dem Hippokratischen Eid der Mediziner oder dem Pressekodex für Journalisten. Bei der Checkliste geht es aber nur um den Prozess, nicht um Inhalte.
Ein wesentlicher Punkt: Wenn die „Algorithmiker“Werte abwägen – etwa Freiheit gegen Sicherheit – dann „darf sich das nicht in den Code einschleichen und hinter einer Black Box verbergen“. Sie müssen ihre vorläufige Wahl dokumentieren, transparent machen. Entscheiden sollte dann in jedem Einzelfall die Öffentlichkeit – wie in anderen neuen moralischen Fragen, etwa dem Einsatz embryonaler Stammzellen. Damit sich eine solche Berufsethik etablieren kann, müssen sich die Beteiligten damit identifizieren. Hustedt hofft, dass es gelingt. „Aber schon jeder Versuch trägt etwas dazu bei, dass in der Zielgruppe ein Bewusstsein wächst: dass die Dinge, die sie da tun, Einfluss auf das Leben von Menschen haben“.
beschäftigt sich in ihrem Projekt „Ethik der Algorithmen“mit den Folgen des Trends, dass immer mehr Entscheidungen von Computerprogrammen statt von Menschen getroffen werden. Das kann zu gehäuften Fehlern führen, etwa in der Finanzverwaltung, aber auch zu neuen Formen von Diskriminierung. Projektmanagerin ist Carla Hustedt.