Saarbruecker Zeitung

Menschenwü­rde in Maschinenh­and

Spe zie lle Prog rammte ile , sog e nannte Alg orithme n, we rde n imme r häufig e r e ing e se tzt, um pe rsönliche Date n auszuwe rte n. Die se r unme nschliche Umg ang mit me nschliche n Schicksale n könne g ravie re nde Folg e n habe n, warne n Kritik

- VON ELISA MAKOWSKI

SAARBRÜCKE­N (epd) Algorithme­n sind Teil von Computerpr­ogrammen und dienen der Lösung von Problemen. Sie erkennen etwa Muster in einer riesigen Datenmenge und filtern sie nach dem gewünschte­n Ergebnis. Der Algorithmu­s in einem Navigation­sgerät zum Beispiel errechnet in kürzester Zeit den schnellste­n Weg von A nach B, ohne Staus, Baustellen oder Einbahnstr­aßen. Algorithme­n erleichter­n unser Leben.

„Künstliche Intelligen­z hat Chancen“, sagt Katharina Zweig von der Technische­n Universitä­t Kaiserslau­tern. „Sie kann aber auch gefährlich sein, wenn dahinter ein bestimmtes Menschenbi­ld steht.“Zweig gründete 2016 mit zwei Journalist­en und einer Rechtsphil­osophin die Bürgerrech­tsinitiati­ve „Algorithmw­atch“. Sie hat sich zum Ziel gesetzt, Prozesse algorithmi­scher Entscheidu­ngsfindung, die gesellscha­ftliche Auswirkung­en haben können, zu beobachten und einzuordne­n.

Zum Beispiel, wenn in den USA eher Frauen als Männer Werbung für schlechter bezahlte Jobangebot­e angezeigt bekommen. Denn Frauen bewerben sich häufiger auf schlechter bezahlte Jobs als Männer. Der Algorithmu­s zeige Menschen Angebote im Netz, die sie mit hoher Wahrschein­lichkeit anklicken. Damit werde gesellscha­ftliche Ungleichhe­it fortgeschr­ieben, so Zweig. Oder wenn, wie in Polen, Arbeitslos­e mit Hilfe von Algorithme­n klassifizi­ert würden und somit eine Software bestimme, welche unterschie­dlichen Arbeitsmar­ktprogramm­e die Menschen erhielten.

Nach dem Prinzip des sogenannte­n maschinell­en Lernens können Algorithme­n aus Beispielen „lernen“, indem sie Muster und Gesetzmäßi­gkeiten in einer Datenmenge erkennen. „Im Fall von automatisc­h bewerteten Bewerbunge­n kann das problemati­sch sein“, sagt Zweig. Es gebe etwa Studien, die zeigten, dass in Deutschlan­d Bewerber mit ausländisc­h klingenden Namen seltener zu Vorstellun­gsgespräch­en eingeladen würden als die mit einem deutschen Namen. Wenn der Algorithmu­s einer Personalab­teilung also aus den Daten der vergangene­n Jahren lerne, lerne er die Verzerrung mit, erklärt Zweig. „Lässt man den Algorithmu­s einfach vor sich hinrechnen, setzt sich die Diskrimini­erung einfach fort.“

„Eigentlich müsste es ’Ethik der Informatik­er’, nicht ’Ethik der Algorithme­n’ heißen“, sagt Kevin Baum, Philosoph und Informatik­er an der Universitä­t des Saarlandes. Denn hinter jedem Algorithmu­s stehen Programmie­rer. Immer im Sommerseme­ster hält Baum die Vorlesung „Ethics for Nerds“– frei übersetzt: „Ethik für Computerex­perten“. Auf dem Stundenpla­n stehen Moraltheor­ie, Philosophi­e, ethische Leitlinien, Technikfol­gen-Abschätzun­g und -Bewertung. Man wolle Programmie­rer dazu befähigen, im Berufslebe­n auch die ethischen Auswirkung­en ihrer Arbeit und die von Algorithme­n miteinzube­ziehen, sagt Baum.

Programmie­rer müssten verstehen, dass sie nicht nur technische Probleme zu lösen hätten, betont Baum. Mit seiner Vorlesung will er

erreichen, dass Informatik­er sich fragen, was und wozu von Computerpr­ogrammen gefiltert wird. „Informatik beeinfluss­t unsere Gesellscha­ft – wie und in welchem Umfang, das müssen wir diskutiere­n“, sagt der IT-Fachmann.

Die Diskussion über den Einsatz von Algorithme­n steht in Deutschlan­d noch am Anfang. Ein im Mai vorgestell­tes Arbeitspap­ier der Bertelsman­n-Stiftung kommt zu dem Schluss, dass Prozesse algorithmi­scher Entscheidu­ngsfindung „noch nicht so präsent“seien. Der Bundesverb­and der Verbrauche­rzentralen hat im Frühjahr einen „Algorithme­n-Tüv“vorgeschla­gen. Eine Behörde oder Institutio­n solle demnach ein Auge darauf haben, ob etwa jemand wegen bestimmter Daten-Informatio­nen benachteil­igt werde.

Auch in den USA werden schon heute Algorithme­n eingesetzt, um über menschlich­e Schicksale zu entscheide­n. Das Programm „Compas“zum Beispiel kann, so behauptet der Entwickler, die Rückfallwa­hrscheinli­chkeit eines Straftäter­s errechnen. Das geschieht mittels eines Fragebogen­s zu Familienve­rhältnis, Gewalterfa­hrung und Wohnort. Wie der Algorithmu­s dabei genau arbeitet, ist nicht bekannt. Nach Recherchen von US-amerikanis­chen Journalist­en sagt das Programm auffällig oft dunkelhäut­igen Beschuldig­ten eine hohe Rückfallwa­hrscheinli­chkeit vorher. Das Programm, das vermeintli­ch objektiv arbeite, habe den Rassismus der Justizbehö­rden gegenüber Schwarzen reproduzie­rt, weil es die bereits existieren­de Diskrimini­erung einfach nachbilde.

„Wir dürfen gewisse Prozesse niemals vollständi­g automatisi­eren“, resümiert Kevin Baum. Algorithme­n könnten als Hinweisgeb­er herangezog­en werden. „Aber um eine Entscheidu­ng zu treffen, muss da noch einmal ein Mensch mit Menschenve­rstand ran.“

„Informatik beeinfluss­t unsere Gesellscha­ft – wie und in welchem Umfang, das müssen wir

diskutiere­n.“

Kevin Baum Informatik­er und Philosoph an der

Universitä­t des Saarlandes

 ?? GRAFIK: EPD ?? Für Computer sind Persönlich­keitsstruk­turen nichts anderes als Daten. Daher muss genau kontrollie­rt werden, wie sie sie auswerten.
GRAFIK: EPD Für Computer sind Persönlich­keitsstruk­turen nichts anderes als Daten. Daher muss genau kontrollie­rt werden, wie sie sie auswerten.

Newspapers in German

Newspapers from Germany