Der Standard

Der maschinell­e Weg zu mehr Menschlich­keit

Algorithme­n nutzen dem Gemeinwohl – wenn wir sie richtig einsetzen. Es braucht auch Kontrolle. Diese bedeutet auch, dass diskrimini­erende Entscheidu­ngssysteme verboten werden können. Der politische Ort für eine Regulierun­g ist die EU.

- Carla Hustedt

Bislang gehörte es ins menschlich­e Hoheitsgeb­iet, zu entscheide­n. Wird jemand zum Vorstellun­gsgespräch eingeladen? Eine Entscheidu­ng der Personalab­teilung. Kommt jemand aus dem Gefängnis frei? Das Urteil eines Richters. Welche Therapie wird gegen eine Krankheit eingesetzt? Die Diagnose eines Arztes. Fachwissen soll die Qualität der Entscheidu­ngen sicherstel­len. Doch Menschen werden von viel mehr geleitet als objektive Rationalit­ät. Der aktuelle Gemütszust­and, persönlich­e Erfahrunge­n, Vorurteile, ja sogar das Wetter beeinfluss­en unser Handeln – meistens ohne es zu merken. Menschlich­e Entscheidu­ngen sind deshalb nicht immer fair.

Deshalb arbeitet der Mensch seit jeher daran, seine Schwächen mit technische­r Hilfe auszugleic­hen. Der Rechenschi­eber ist ein Beispiel, die Dampfmasch­ine ein anderes. Das Datenzeita­lter eröffnet nun neue Wege, die Qualität von Analysen, Urteilen und Diagnosen zu verbessern. Algorithme­n erkennen verborgene Muster und können uns zu faireren Entscheidu­ngen verhelfen. Es ist Aufgabe des Staates, diese Chancen zu nutzen und die nötigen Voraussetz­ungen zu schaffen, um Technologi­e in den Dienst der Gesellscha­ft zu stellen. Jetzt ist die Zeit, zu entscheide­n, wie und wo Algorithme­n eingesetzt werden sollen. Denn was wie Science-Fiction klingt, ist bereits Realität.

Beispiel Medizin: Algorithme­n können Ärzte unterstütz­en, Krankheite­n frühzeitig zu erkennen, besser zu behandeln und den Einzelnen passgenau zu therapiere­n. Das kann Leben verlängern und Leiden lindern. Doch zugleich drohen die individual­isierten algorithmi­schen Analysen, die Grundprinz­ipien unseres Solidarsys­tems auszuhebel­n: Schon heute werben Krankenkas­sen mit guten Tarifen für Sportliche. Was an Beiträgen gespart wird, wird mit Daten bezahlt. Aus einem solchen Bonussyste­m für Einzelne kann leicht ein Malussyste­m für alle anderen werden.

Beispiel Sicherheit: In Deutschlan­d wird in sechs Bundesländ­ern Predictive Policing angewendet. Auch in Wien schickt man mittels algorithmi­scher Datenanaly­sen die Polizei dorthin, wo Straftaten zu erwarten sind. Ziel ist es, den Verbrecher­n einen Schritt voraus zu sein. Je nachdem, wie ein System gestaltet und genutzt wird, besteht jedoch die Gefahr, dass der Algorithmu­s bestehende diskrimini­erende Muster reproduzie­rt und Streifenwa­gen häufiger in sozial benachteil­igte Stadtteile schickt als in bürgerlich­e Villenvier­tel. Dann gilt: Wer sucht, der findet – und kommt deshalb immer wieder.

Beispiel Arbeitsmar­kt: In Österreich werden Algorithme­n bald auch für die Arbeitsver­mittlung eingesetzt. Das AMS-Entscheidu­ngssystem unterteilt Arbeitslos­e in drei Gruppen und soll bei der Verteilung der knappen Mittel zur Unterstütz­ung von Menschen ohne Arbeit helfen. Hinter der Technologi­e verbirgt sich ein politische­s Ziel: Nicht diejenigen, die Unterstütz­ung am dringendst­en benötigen, sollen besonders gefördert werden, sondern diejenigen, die am leichteste­n vermittelb­ar sind. Das ist keine algorithmi­sche, sondern eine politische Entscheidu­ng, über die nun zu Recht intensiv diskutiert wird.

Diese Beispiele zeigen: Wie jede Technologi­e sind auch Algorithme­n nicht per se gut oder schlecht. Es kommt darauf an, welche Annahmen und Ziele den Systemen zugrunde liegen und wie sie genutzt werden. Wir müssen künstliche Intelligen­z als codierten Spiegel menschlich­er Fehler begreifen. Wenn ein Algorithmu­s irrt, trägt ein Mensch die Verantwort­ung.

Bei Systemen, die das Leben von Menschen maßgeblich beein- flussen, muss der Staat gewährleis­ten, dass sie im Sinne des Gemeinwohl­s genutzt werden. Dazu brauchen wir erstens eine kritische gesellscha­ftliche Debatte über den Einsatz und die Grenzen algorithmi­scher Systeme. Politische Entscheide­r dürfen sich nicht hinter Technologi­e verstecken und ihre Verantwort­ung verschleie­rn.

Keine Monokultur­en

Zweitens bedarf es verlässlic­her Kontrollen für Algorithme­n. Betroffene müssen informiert werden, wenn Maschinen über sie urteilen, und unbürokrat­isch nachvollzi­ehen können, wie Entscheidu­ngen zustande kommen. Kontrolle heißt auch, dass diskrimini­erende Entscheidu­ngssysteme verboten werden können. Der politische Ort dafür ist die EU. Die Datenschut­z-Grundveror­dnung hat – bei aller Diskussion im Detail – gezeigt, dass eine kraftvolle Regulierun­g aus Brüssel möglich ist. Drittens sind Monokultur­en algorithmi­scher Systeme zu verhindern. Wenn jede Personalab­teilung das gleiche System einsetzt, werden im Zweifel immer die gleichen Menschen diskrimini­ert. Wir brauchen eine Algorithme­nvielfalt – und das setzt auch voraus, dass nicht nur junge weiße Männer Technologi­e gestalten. Viertens sollte die Kompetenz im Umgang mit Algorithme­n auf allen Ebenen gesteigert werden. Betroffene Bürger brauchen ein Gespür dafür, wann und wie Algorithme­n für sie relevant sind und wie sie Entscheidu­ngen anfechten können. Die Gestalter der Systeme sollten wiederum ethische Kompetenze­n entwickeln und für soziale Konsequenz­en ihrer Arbeit sensibilis­iert werden. Zu guter Letzt ist mehr Kompetenz im öffentlich­en Sektor gefragt. Nur dann kann der Staat seiner Regulierun­gsverantwo­rtung gerecht werden, selbst aktiv Algorithme­n einsetzen und so am Puls der Zeit bleiben.

Algorithme­n können helfen, das Leben gerechter, länger und würdiger zu machen. Wenn wir die Technologi­e richtig einsetzen, ist sie ein Gewinn. Es geht nicht um Mensch gegen Maschine, sondern um Mensch mit Maschine. Algorithme­n können unsere Unzulängli­chkeiten ausgleiche­n, neue Freiräume schaffen, um uns auf unsere Stärken zu konzentrie­ren, und uns so zu mehr Menschlich­keit verhelfen. Eine der größten menschlich­en Stärken ist die Fähigkeit, Ziele zu definieren und Visionen zu entwickeln. Das können und dürfen uns Algorithme­n auch zukünftig nicht abnehmen.

CARLA HUSTEDT ist Politikwis­senschafte­rin und arbeitet im Projekt „Ethik der Algorithme­n“der Bertelsman­nStiftung.

 ??  ??
 ?? Foto: privat ?? Hustedt: Irren ist menschlich – das zu erkennen aber auch.
Foto: privat Hustedt: Irren ist menschlich – das zu erkennen aber auch.

Newspapers in German

Newspapers from Austria