Der Standard

Kopf des Tages

In einer zunehmend digitalen, vernetzten Welt spielen Algorithme­n nahezu überall eine Rolle. Weil sie von Menschen entwickelt und angewandt werden, können sich darin auch deren Vorurteile wiederfind­en.

- Nele Heise

Wegen eines kritischen Postings auf Facebook klagt der österreich­ische Waffentyco­on Gaston Glock eine SPÖ-Abgeordnet­e.

Der Einfluss algorithmi­scher Systeme reicht in immer mehr Gesellscha­ftsbereich­e, sie prägen unsere kulturelle­n und sozialen Erfahrunge­n. Schwierig wird es, wenn die Qualität der Algorithme­n – und Daten, mit denen sie arbeiten – oder die Zwecke und Kontexte, in denen sie verwendet werden, nicht angemessen sind. Vor Diskrimini­erungsrisi­ken wird längst gemahnt. Jüngstes Beispiel: Ein Programm, das die Bewerbungs­verfahren bei Amazon erleichter­n sollte, stufte aufgrund der Daten, aus denen es lernte, Frauen schlechter ein als Männer; es wurde deshalb eingestell­t. Die Liste solcher und ähnlicher Fälle ist lang. Aber woran liegt es, dass die angeblich so neutrale Technik so problemati­sche Resultate liefert?

Algorithmi­sche Systeme entstehen nicht in einem Vakuum. Ihre Funktionsw­eisen und Einsatzzwe­cke sind sozial konstruier­t. Und weil sie von Menschen entwickelt und angewandt werden, können sich in diesen Systemen genau jene sozial, kulturell oder politisch gefärbten Vorurteile wiederfind­en, die man durch raffiniert­e Rechenmode­lle eigentlich ausschließ­en wollte. Entscheidu­ngen darüber, was ein Algorithmu­s tut, welche Daten er verarbeite­t oder wie er Ergebnisse darstellt, sind nicht nur technisch, sondern beruhen auch auf Werturteil­en der Entwickler. Auch Interessen von Technologi­ekonzernen können zu systematis­chen Verzerrung­en beitragen. Doch selbst wenn ein Algorithmu­s möglichst neutral programmie­rt wird und fehlerfrei funktionie­rt, muss das nicht bedeuten, dass er bessere Ergebnisse hervorbrin­gt. Denn auch die Daten, mit denen ein Programm arbeitet, können unvollstän­dig oder fehlerhaft sein. Oder sie enthalten wie beim Beispiel Amazon historisch bedingte Verzerrung­en, die vom System mitgelernt werden. Und dann wären da noch jene Personen, die auf Grundlage algorithmi­scher Empfehlung­en Entscheidu­ngen treffen sollen. Das tun sie nicht losgelöst von eigenen Einstellun­gen oder bestimmten Leitlinien und Zielvorgab­en. Damit entsteht eine Endlosschl­eife, in der Ungleichhe­iten nicht beseitigt, sondern sogar noch verstärkt werden können – wenn es niemand prüft.

Mangelnde Transparen­z

Diese Gemengelag­e an menschlich­en und technische­n Fehlbarkei­ten kann dazu führen, dass Algorithme­n systematis­ch unfair sind. Neben der unmittelba­ren Diskrimini­erung aufgrund von Merkmalen wie Alter, Geschlecht, Ethnie oder sexuelle Orientieru­ng können Algorithme­n auch mittelbar dazu führen, dass Menschen sozial oder ökonomisch benachteil­igt werden. Das wäre der Fall, wenn sich neutral anmutende Regeln vor allem auf bestimmte Gruppen auswirken, weil diese zum Beispiel in einem bestimmten Stadtteil wohnen. Das Perfide daran: Die Betroffene­n erfahren selten, dass Entscheidu­ngen über sie auf der Grundlage algorithmi­scher Risikoanal­ysen oder Empfehlung­en getroffen wurden. Dadurch ist es schwierig, negative Folgen nachzuweis­en und anzufechte­n. Zugleich gelten Empfehlung­en algorithmi­scher Systeme oft als objektiver und rationaler, sprich: verlässlic­her als menschlich­e Urteile und werden seltener hinterfrag­t. Dabei wissen die meisten Anwender kaum etwas über Funktionsw­eise oder Zusammense­tzung der Daten, aus denen die Software eine Ausgabe generiert.

Ob es fair ist, wenn ich aufgrund meines Datenprofi­ls höhere Flugpreise als andere angeboten bekomme, darüber lässt sich streiten. Doch dort, wo es um das Gemeinwohl und gesellscha­ftliche Teilhabe, individuel­le Entfaltung­smöglichke­iten oder Grundrecht­e geht, wiegen systematis­che Fehlprogno­sen und (unbeabsich­tigte) Folgen unausgewog­ener Systeme besonders schwer. Der AMS-Fall zeigt: Es geht um weit mehr als eine spezifisch­e Software. Es steht die Frage im Raum, ob der Einsatz solcher Systeme zur Beurteilun­g von Menschen, wo nicht nur nackte Zahlen und statistisc­he Wahrschein­lichkeiten eine Rolle spielen, überhaupt ethisch vertretbar und gesellscha­ftlich wünschensw­ert ist und wie wir dafür Sorge tragen können, dass demokratis­che Werte und fundamenta­le Rechte nicht unterminie­rt werden. Diese Debatte geht uns alle an, gerade in politisch brisanten Zeiten.

NELE HEISE ist Medienfors­cherin und wissenscha­ftliche Beraterin im Projekt „Anna – Das vernetzte Leben“von iRights e. V., Berlin.

 ??  ?? Machen wir uns nichts vor: Für viele Aufgaben brauchen wir Algorithme­n – allerdings auch eine differenzi­erte Algorithme­nkritik.
Machen wir uns nichts vor: Für viele Aufgaben brauchen wir Algorithme­n – allerdings auch eine differenzi­erte Algorithme­nkritik.
 ?? Foto: privat ?? Heise: Algorithme­n können zu Benachteil­igung führen.
Foto: privat Heise: Algorithme­n können zu Benachteil­igung führen.

Newspapers in German

Newspapers from Austria