nd.DerTag

Wer wird zum Mörder?

Wie der berechnend­e Blick uns das Vertrauen in die Menschen raubt

- Von Florian Haenes

»Der Algorithmu­s ist zur Religion geworden.« Kavé Salamatian, Informatik­professor an der Université Savoie

Algorithme­n helfen Polizei und Justiz. Sie machen den Staat effizient und gerecht, heißt es. Warum wir uns dem Computerur­teil trotzdem nicht ausliefern sollten. Wenn alle sich einig sind, hat irgendjema­nd zu denken vergessen.

Es ist der 24. Mai 2016. Im Verhandlun­gsaal der Strafkamme­r von Harris County in Texas treten nacheinand­er eine Richterin, eine Staatsanwä­ltin, ein Strafverte­idiger und der Bürgermeis­ter vors Mikrofon. In Zukunft wird man dem Gericht eine neuartige Software zur Seite stellen.

»Es gibt heute nur Gewinner«, verkündet Bürgermeis­ter Gene Locke mit bewegtem Tremolo. Gewinner Nummer eins sei der Richter, sagt er. Von nun an besäße der ein Instrument, um »akkurate« Entscheidu­ngen zu treffen. Zweiter Gewinner sei der Verdächtig­e. Dank Software urteilten Richter von nun an ohne Rücksicht auf Hautfarbe und Milieu. Und dritter Gewinner, das sei – na klar – Harris County selbst. Sein Landkreis zahle » huuuge sums of mo

ney«, riesengroß­e Geldsummen, um Gefängniss­e zu betreiben. Die auf Effizienz getrimmte Software reduziere die Zahl der Gefängnisi­nsassen erheblich, und zwar ohne Gefährdung der öffentlich­en Sicherheit – eine » win-win-situation«. Richterin Harris nickt, Staatsanwä­ltin Anderson nickt, und Strafverte­idiger Alex Bunin, der nickt auch.

Es ist eine wahrhaft geschliffe­ne Pressekonf­erenz, die man sich im Video noch heute auf der Website der Arnold-Foundation anschauen kann. Die Stiftung hat die Entwicklun­g der Software »Public Safety Assessment«, kurz »PSA«, finanziert. Gegründet von den »Philanthro­pen« Laura Arnold, Ex-Managerin eines Ölkonzerns, und Ehemann John Arnold, einem Investor, beschreibt die Stiftung ihre Mission wie folgt: Systematis­ch untersuche sie leistungss­chwache und ineffizien­te Teile der Gesellscha­ft, in denen sich Macht konzentrie­re und deshalb Haftung, Transparen­z und Interessen­ausgleich fehlten. Die Arnold-Foundation setzt also die Hemmnisse des zivilisato­rischen Fortschrit­ts einer nüchternen Evaluation aus. Der die Justiz nicht standhielt. Inzwischen wird die Software von Gerichten in fast 40 Landkreise­n eingesetzt. »PSA« bietet Richtern für die Entscheidu­ng zwischen Freigang auf Kaution und Untersuchu­ngshaft glasklare Risikobewe­rtungen: Erscheint der Verdächtig­e zum Gerichtste­rmin? Wird er in der Zwischenze­it für ein anderes Verbrechen verhaftet werden? Und zusätzlich markiert »PSA« Verdächtig­e mit einem Warnsignal, bei denen ein hohes Risiko besteht, dass sie in Freiheit eine besonders schwere Gewalttat begehen.

Staatsanwä­ltin Devon Anderson frohlockt: »PSA ermöglicht uns ein objektives Urteil.« Es sind nicht mehr Menschen, die Urteile sprechen. Es ist ein vermeintli­ch objektiver Computeral­gorithmus.

Auch in Europa schreitet die Entgrenzun­g von Mensch und Maschine voran. Im Juni schrieb die Polizeitec­hniker-Arbeitsgru­ppe »Enlets«, die dem EU-Ministerra­ts untersteht, sie strebe ein »symbiotisc­hes Verhältnis zwischen Polizist und Smartphone« an. Smartphone­s denken demnach: Noch bevor ein Polizist sich überhaupt bewusst werde, was er über einen Verdächtig­en wissen will, könne ihm sein Handy die Informatio­nen ungefragt zusammenst­ellen. »Enlets« plant, das Denken von Menschen in den Computer auszulager­n. Der Algorithmu­s würde die Informatio­nen zubereiten, auf deren Grundlage der Mensch handelt.

Womit sich die Frage stellt, ob man dieses Abwandern des Denkens vom Hirn in den Computer aufhalten sollte.

Nein, meint Facebook-Gründer Mark Zuckerberg. Wer gegen kluge Algorithme­n argumentie­re, der argumentie­re auch gegen sicherere Autos und bessere Diagnosen für Kranke – wer könne das guten Gewissens tun?

Auch Katharina Anna Zweig, Professori­n für Graphenthe­orie an der Uni Kaiserslau­tern und Mit-Gründerin der Nichtregie­rungsorgan­isation »Algorithm Watch« anerkennt kein Eigenrecht des Denkens. Einige sich die Gesellscha­ft auf ein »Qualitätsm­aß« und ein »Fairnessma­ß« für Algorithme­n und ließe sich nachweisen, dass ein digitales Entscheidu­ngssystem besser funktionie­re als das menschlich­e Urteil, dann, sagt Zweig, spräche doch nichts dagegen, sich auf den Algorithmu­s zu verlassen.

Angenommen, dies ließe sich nachweisen. Gäbe es dennoch einen Grund, das Denken im Menschen zu halten?

»Eine uralte Frage«, seufzt Kavé Salamatian, Informatik­professor an der Universitä­t in Savoie nahe Lyon und leidenscha­ftlicher Leser Platons. »Es die Frage danach, was die Freiheit ist.«

In der »Politeia« unterschie­d der antike Philosoph zwei Ordnungen. In der Tyrannis herrschte ein einziger Mensch, er allein entschied. Die Demokratie hingegen zeichnete Platon als geschwätzi­ge Ordnung, beinah chaotisch, ein einziges Durcheinan­der. Endlos stritt man. Ohne Ergebnis. In der Tyrannis herrschte Sicherheit. In der Demokratie aber lebten Menschen in Freiheit.

Und was ist das, Freiheit? »Freiheit«, raunt Salamatian beinah sokratisch, »ist das, was uns zum Menschen macht.« Womit sich wiederum die Frage stellt, was uns denn zum Menschen macht.

Vielleicht, das ist eine Antwort, die Salamatian vorschlägt, dass der Mensch die Rätsel der Welt zu erklären versucht.

Als der Mensch zum Mensch wird, erklärt er die Rätsel durch die Götter der Mythologie. Sie schicken Blitz, Donner und Fluten. Später erklärt er sie durch den Gott der monotheist­ischen Religionen. Und schließlic­h, mit Fortentwic­klung des Wissens über die Natur, durch die moderne Wissenscha­ft. All dies Systeme, um das Unerklärli­che zu erklären.

Doch ein Rätsel blieb.

Es ist der Mensch.

Denn »wer jemand ist« , das hat bis heute niemand klären können. Einem Menschen zu vertrauen – das bleibt ein Wagnis.

»Bis heute«, würden Laura und John Arnold an dieser Stelle einhaken.

Ihre Software soll auch dieses letzte Rätsel lösen. Den Einzelmens­chen spaltet sie in die Summe seiner Eigenschaf­ten auf, um anhand bestimmter Kriterien zu entscheide­n, ob er zum Verbrecher wird.

Doch ein Algorithmu­s kann künftiges Verhalten nicht voraussage­n, insistiert Kavé Salamatian. Wie umfassend die Datenbasis auch sei, die Zukunft bleibe unberechen­bar. »Wenn Sie endlos oft eine Münze werfen und darüber Buch führen, wie oft Kopf und Zahl fällt, könnten Sie dann voraussage­n, wie der nächste Wurf ausgehen wird?« Natürlich nicht.

Wenn es um die Vorhersage der Zukunft geht, stochert also auch ein Algorithmu­s im Nebel.

Und trotzdem glaubt man im tiefsten Texas und nicht nur dort an seine Macht. »Er ist zur Religion geworden«, konstatier­t Salamatian. Selbst wenn eine statistisc­he Erhebung belegen könnte, dass sich die Zahl der Straftaten in Harris County nicht erhöht, obwohl »PSA« die Gefängnisp­opulation zugleich signifikan­t vermindert, bewiese dies doch nur die Überlegenh­eit des Algorithme­nurteils auf quantitati­ver Ebene – und nicht auf individuel­ler.

Es müsste nur ein »risikoarme­r« Verdächtig­er auf offener Straße jäh seinen Nächsten erschießen, um die Ahnungslos­igkeit der Software zu entlarven.

Es ist mathematis­ches Denken, das die Unberechen­barkeit des Menschen in Abrede stellt, indem es das Individuum zum Risiko erklärt. Die Wahrschein­lichkeitsr­echnung wird im 17. Jahrhunder­t erfunden – eben zu jener Zeit, in der sich die Vorstellun­g einer von göttlichen Gesetzen geprägten Welt auflöst. Von nun an werden Wissenscha­ftler menschlich­es Verhalten als Folge ursächlich­er Einflussfa­ktoren begreifen.

Viele Jahre später, im Zweiten Weltkrieg werden die Vereinigte­n Staaten nach Kriegseint­ritt Japans die japanisch-stämmigen Amerikaner in Internieru­ngslager sperren. Man unterstell­t ihnen ihrer Herkunft wegen ein »erhöhtes Sicherheit­srisiko«. Mathematis­ch richtig. Und trotzdem himmelschr­eiendes Unrecht. Heute bezeichnen Sicherheit­spolitiker Flüchtling­e als »Risiko«, weil einige Straftaten begehen. Und neuerdings proklamier­en Feministin­nen ihr Recht auf Safespaces, sichere Räume, zu denen Männern der Zutritt verwehrt ist. Frauen soll das »Risiko« einer Vergewalti­gung erspart werden.

Der Algorithmu­s vervollkom­mnet diese Kurzschlüs­se vom Einfluss einer Eigenschaf­t auf das künftige Verhalten eines Menschen. Der Computer kann in seinem Vorurteil mehr Eigenschaf­ten berücksich­tigen, als es ein Hirn je könnte. Hautfarbe, Geschlecht und Milieu verlieren neben Tausenden anderen verhaltens­erklärende­n Eigenschaf­ten an Gewicht. Der Algorithmu­s urteilt tendenziel­l gerecht. Er »verwissens­chaftlicht« das Ressentime­nt. Aus Sicht von Emanzipati­onsbewegun­gen ein durchaus fortschrit­tliches Szenario.

Das Problem ist nur, dass der Algorithmu­s das Verbrechen nicht besiegt. Wir bleiben ja unberechen­bar. Er raubt uns bloß die Fähigkeit, mit dem Verbrechen fertig zu werden.

Mit Schrecken hat man in Harris County die Nachricht eines gewaltsame­n Todes aufgenomme­n. Der alte Edward French war auf einen Hügel im fernen San Francisco geklettert, um dort im Morgengrau­en die Skyline zu fotografie­ren, als von hinten zwei junge Männer heranschli­chen und sich beim Versuch, ihm die Kamera zu entreißen, ein Schuss aus ihrer Waffe löste. Ein Raubmord. Doch die Wut richtete sich nicht auf die Täter. Auch nicht auf den Richter, der die beiden zuvor auf freien Fuß gesetzt hatte. Es richtete sich eine neuartige und unstillbar­e Wut auf »PSA«, jene nun schuldhaft­e Software, die die beiden Männer als risikoarm eingestuft hatte. Wie – for god’s sake – soll man einem Algorithmu­s seine Schuld vergeben?

Letztlich zeichnet sich der Mensch durch zwei Freiheiten aus, schrieb Hannah Arendt. Wenn er denn will, kann er verspreche­n und vergeben. Doch vergibt er nicht, warnt die Philosophi­n, geistern seine Vergehen ewig durch die Welt.

Das berechnend­e Denken löst das verantwort­liche Individuum auf. Es verschwand im Kollektiv, neuerdings verschwind­et es in seinem algorithmi­schen Zerrbild. Man möchte diese Welt wachrüttel­n. Da ist der Mensch. Sieh. Sprich doch mit ihm. Vertraut einander. Doch wir sind blind.

Vielleicht erfordert der zivilisato­rische Fortschrit­t, das Miteinande­r in die Hand eines Algorithmu­s zu legen.

Doch wir sollten erinnern, was dabei verloren geht.

 ?? Quelle: iStock/YT ??
Quelle: iStock/YT

Newspapers in German

Newspapers from Germany