Wer wird zum Mörder?
Wie der berechnende Blick uns das Vertrauen in die Menschen raubt
»Der Algorithmus ist zur Religion geworden.« Kavé Salamatian, Informatikprofessor an der Université Savoie
Algorithmen helfen Polizei und Justiz. Sie machen den Staat effizient und gerecht, heißt es. Warum wir uns dem Computerurteil trotzdem nicht ausliefern sollten. Wenn alle sich einig sind, hat irgendjemand zu denken vergessen.
Es ist der 24. Mai 2016. Im Verhandlungsaal der Strafkammer von Harris County in Texas treten nacheinander eine Richterin, eine Staatsanwältin, ein Strafverteidiger und der Bürgermeister vors Mikrofon. In Zukunft wird man dem Gericht eine neuartige Software zur Seite stellen.
»Es gibt heute nur Gewinner«, verkündet Bürgermeister Gene Locke mit bewegtem Tremolo. Gewinner Nummer eins sei der Richter, sagt er. Von nun an besäße der ein Instrument, um »akkurate« Entscheidungen zu treffen. Zweiter Gewinner sei der Verdächtige. Dank Software urteilten Richter von nun an ohne Rücksicht auf Hautfarbe und Milieu. Und dritter Gewinner, das sei – na klar – Harris County selbst. Sein Landkreis zahle » huuuge sums of mo
ney«, riesengroße Geldsummen, um Gefängnisse zu betreiben. Die auf Effizienz getrimmte Software reduziere die Zahl der Gefängnisinsassen erheblich, und zwar ohne Gefährdung der öffentlichen Sicherheit – eine » win-win-situation«. Richterin Harris nickt, Staatsanwältin Anderson nickt, und Strafverteidiger Alex Bunin, der nickt auch.
Es ist eine wahrhaft geschliffene Pressekonferenz, die man sich im Video noch heute auf der Website der Arnold-Foundation anschauen kann. Die Stiftung hat die Entwicklung der Software »Public Safety Assessment«, kurz »PSA«, finanziert. Gegründet von den »Philanthropen« Laura Arnold, Ex-Managerin eines Ölkonzerns, und Ehemann John Arnold, einem Investor, beschreibt die Stiftung ihre Mission wie folgt: Systematisch untersuche sie leistungsschwache und ineffiziente Teile der Gesellschaft, in denen sich Macht konzentriere und deshalb Haftung, Transparenz und Interessenausgleich fehlten. Die Arnold-Foundation setzt also die Hemmnisse des zivilisatorischen Fortschritts einer nüchternen Evaluation aus. Der die Justiz nicht standhielt. Inzwischen wird die Software von Gerichten in fast 40 Landkreisen eingesetzt. »PSA« bietet Richtern für die Entscheidung zwischen Freigang auf Kaution und Untersuchungshaft glasklare Risikobewertungen: Erscheint der Verdächtige zum Gerichtstermin? Wird er in der Zwischenzeit für ein anderes Verbrechen verhaftet werden? Und zusätzlich markiert »PSA« Verdächtige mit einem Warnsignal, bei denen ein hohes Risiko besteht, dass sie in Freiheit eine besonders schwere Gewalttat begehen.
Staatsanwältin Devon Anderson frohlockt: »PSA ermöglicht uns ein objektives Urteil.« Es sind nicht mehr Menschen, die Urteile sprechen. Es ist ein vermeintlich objektiver Computeralgorithmus.
Auch in Europa schreitet die Entgrenzung von Mensch und Maschine voran. Im Juni schrieb die Polizeitechniker-Arbeitsgruppe »Enlets«, die dem EU-Ministerrats untersteht, sie strebe ein »symbiotisches Verhältnis zwischen Polizist und Smartphone« an. Smartphones denken demnach: Noch bevor ein Polizist sich überhaupt bewusst werde, was er über einen Verdächtigen wissen will, könne ihm sein Handy die Informationen ungefragt zusammenstellen. »Enlets« plant, das Denken von Menschen in den Computer auszulagern. Der Algorithmus würde die Informationen zubereiten, auf deren Grundlage der Mensch handelt.
Womit sich die Frage stellt, ob man dieses Abwandern des Denkens vom Hirn in den Computer aufhalten sollte.
Nein, meint Facebook-Gründer Mark Zuckerberg. Wer gegen kluge Algorithmen argumentiere, der argumentiere auch gegen sicherere Autos und bessere Diagnosen für Kranke – wer könne das guten Gewissens tun?
Auch Katharina Anna Zweig, Professorin für Graphentheorie an der Uni Kaiserslautern und Mit-Gründerin der Nichtregierungsorganisation »Algorithm Watch« anerkennt kein Eigenrecht des Denkens. Einige sich die Gesellschaft auf ein »Qualitätsmaß« und ein »Fairnessmaß« für Algorithmen und ließe sich nachweisen, dass ein digitales Entscheidungssystem besser funktioniere als das menschliche Urteil, dann, sagt Zweig, spräche doch nichts dagegen, sich auf den Algorithmus zu verlassen.
Angenommen, dies ließe sich nachweisen. Gäbe es dennoch einen Grund, das Denken im Menschen zu halten?
»Eine uralte Frage«, seufzt Kavé Salamatian, Informatikprofessor an der Universität in Savoie nahe Lyon und leidenschaftlicher Leser Platons. »Es die Frage danach, was die Freiheit ist.«
In der »Politeia« unterschied der antike Philosoph zwei Ordnungen. In der Tyrannis herrschte ein einziger Mensch, er allein entschied. Die Demokratie hingegen zeichnete Platon als geschwätzige Ordnung, beinah chaotisch, ein einziges Durcheinander. Endlos stritt man. Ohne Ergebnis. In der Tyrannis herrschte Sicherheit. In der Demokratie aber lebten Menschen in Freiheit.
Und was ist das, Freiheit? »Freiheit«, raunt Salamatian beinah sokratisch, »ist das, was uns zum Menschen macht.« Womit sich wiederum die Frage stellt, was uns denn zum Menschen macht.
Vielleicht, das ist eine Antwort, die Salamatian vorschlägt, dass der Mensch die Rätsel der Welt zu erklären versucht.
Als der Mensch zum Mensch wird, erklärt er die Rätsel durch die Götter der Mythologie. Sie schicken Blitz, Donner und Fluten. Später erklärt er sie durch den Gott der monotheistischen Religionen. Und schließlich, mit Fortentwicklung des Wissens über die Natur, durch die moderne Wissenschaft. All dies Systeme, um das Unerklärliche zu erklären.
Doch ein Rätsel blieb.
Es ist der Mensch.
Denn »wer jemand ist« , das hat bis heute niemand klären können. Einem Menschen zu vertrauen – das bleibt ein Wagnis.
»Bis heute«, würden Laura und John Arnold an dieser Stelle einhaken.
Ihre Software soll auch dieses letzte Rätsel lösen. Den Einzelmenschen spaltet sie in die Summe seiner Eigenschaften auf, um anhand bestimmter Kriterien zu entscheiden, ob er zum Verbrecher wird.
Doch ein Algorithmus kann künftiges Verhalten nicht voraussagen, insistiert Kavé Salamatian. Wie umfassend die Datenbasis auch sei, die Zukunft bleibe unberechenbar. »Wenn Sie endlos oft eine Münze werfen und darüber Buch führen, wie oft Kopf und Zahl fällt, könnten Sie dann voraussagen, wie der nächste Wurf ausgehen wird?« Natürlich nicht.
Wenn es um die Vorhersage der Zukunft geht, stochert also auch ein Algorithmus im Nebel.
Und trotzdem glaubt man im tiefsten Texas und nicht nur dort an seine Macht. »Er ist zur Religion geworden«, konstatiert Salamatian. Selbst wenn eine statistische Erhebung belegen könnte, dass sich die Zahl der Straftaten in Harris County nicht erhöht, obwohl »PSA« die Gefängnispopulation zugleich signifikant vermindert, bewiese dies doch nur die Überlegenheit des Algorithmenurteils auf quantitativer Ebene – und nicht auf individueller.
Es müsste nur ein »risikoarmer« Verdächtiger auf offener Straße jäh seinen Nächsten erschießen, um die Ahnungslosigkeit der Software zu entlarven.
Es ist mathematisches Denken, das die Unberechenbarkeit des Menschen in Abrede stellt, indem es das Individuum zum Risiko erklärt. Die Wahrscheinlichkeitsrechnung wird im 17. Jahrhundert erfunden – eben zu jener Zeit, in der sich die Vorstellung einer von göttlichen Gesetzen geprägten Welt auflöst. Von nun an werden Wissenschaftler menschliches Verhalten als Folge ursächlicher Einflussfaktoren begreifen.
Viele Jahre später, im Zweiten Weltkrieg werden die Vereinigten Staaten nach Kriegseintritt Japans die japanisch-stämmigen Amerikaner in Internierungslager sperren. Man unterstellt ihnen ihrer Herkunft wegen ein »erhöhtes Sicherheitsrisiko«. Mathematisch richtig. Und trotzdem himmelschreiendes Unrecht. Heute bezeichnen Sicherheitspolitiker Flüchtlinge als »Risiko«, weil einige Straftaten begehen. Und neuerdings proklamieren Feministinnen ihr Recht auf Safespaces, sichere Räume, zu denen Männern der Zutritt verwehrt ist. Frauen soll das »Risiko« einer Vergewaltigung erspart werden.
Der Algorithmus vervollkommnet diese Kurzschlüsse vom Einfluss einer Eigenschaft auf das künftige Verhalten eines Menschen. Der Computer kann in seinem Vorurteil mehr Eigenschaften berücksichtigen, als es ein Hirn je könnte. Hautfarbe, Geschlecht und Milieu verlieren neben Tausenden anderen verhaltenserklärenden Eigenschaften an Gewicht. Der Algorithmus urteilt tendenziell gerecht. Er »verwissenschaftlicht« das Ressentiment. Aus Sicht von Emanzipationsbewegungen ein durchaus fortschrittliches Szenario.
Das Problem ist nur, dass der Algorithmus das Verbrechen nicht besiegt. Wir bleiben ja unberechenbar. Er raubt uns bloß die Fähigkeit, mit dem Verbrechen fertig zu werden.
Mit Schrecken hat man in Harris County die Nachricht eines gewaltsamen Todes aufgenommen. Der alte Edward French war auf einen Hügel im fernen San Francisco geklettert, um dort im Morgengrauen die Skyline zu fotografieren, als von hinten zwei junge Männer heranschlichen und sich beim Versuch, ihm die Kamera zu entreißen, ein Schuss aus ihrer Waffe löste. Ein Raubmord. Doch die Wut richtete sich nicht auf die Täter. Auch nicht auf den Richter, der die beiden zuvor auf freien Fuß gesetzt hatte. Es richtete sich eine neuartige und unstillbare Wut auf »PSA«, jene nun schuldhafte Software, die die beiden Männer als risikoarm eingestuft hatte. Wie – for god’s sake – soll man einem Algorithmus seine Schuld vergeben?
Letztlich zeichnet sich der Mensch durch zwei Freiheiten aus, schrieb Hannah Arendt. Wenn er denn will, kann er versprechen und vergeben. Doch vergibt er nicht, warnt die Philosophin, geistern seine Vergehen ewig durch die Welt.
Das berechnende Denken löst das verantwortliche Individuum auf. Es verschwand im Kollektiv, neuerdings verschwindet es in seinem algorithmischen Zerrbild. Man möchte diese Welt wachrütteln. Da ist der Mensch. Sieh. Sprich doch mit ihm. Vertraut einander. Doch wir sind blind.
Vielleicht erfordert der zivilisatorische Fortschritt, das Miteinander in die Hand eines Algorithmus zu legen.
Doch wir sollten erinnern, was dabei verloren geht.