Der Standard

De0rAl0gor­i0thm0usun­1ser0Leb1e­n1? Formt

-

Magenda: örder, Räuber, Diebe, Vergewalti­ger. Im Verhandlun­gssaal 504 des größten Strafgeric­hts von Philadelph­ia entscheide­t sich an gewöhnlich­en Tagen das Schicksal mutmaßlich­er Verbrecher. Doch an einem Mittwochna­chmittag Mitte Juni werden nicht Zeugen vernommen und Angeklagte befragt. Stattdesse­n diskutiere­n Anwälte, Richter und NGO-Vertreter über einen Algorithmu­s.

Der Gesetzgebe­r des US-Bundesstaa­ts Pennsylvan­ia hat vor Jahren entschiede­n, dass künftig ein Computerpr­ogramm Richtern dabei helfen soll zu entscheide­n, welches Strafmaß ein verurteilt­er Straftäter bekommen soll. Der Algorithmu­s soll vorhersage­n, wie hoch das Risiko ist, dass ein Delinquent in den kommenden drei Jahren wieder straffälli­g wird und damit eine Gefahr für die öffentlich­e Sicherheit darstellt. Diese Bewertung soll ab 2019 in die Urteile einfließen. Dafür nutzt das Programm Variablen wie das Alter des Verurteilt­en, sein Geschlecht, Informatio­nen zu seinem Verbrechen und zu früheren Verurteilu­ngen bis zurück ins Jugendalte­r.

Die Anhörung zu dem Programm im Saal 504, zu der Juristen geladen haben, verläuft hitzig. Die Hautfarbe spielt als Variable beim Algorithmu­s zwar keine Rolle. Doch NGO-Vertreter warnen, dass das System die schon bestehende Diskrimini­erung von Schwarzen dennoch verstärken werde. Schwarze werden in den USA häufiger polizeilic­h kontrollie­rt als Weiße. Das trägt dazu bei, dass sie im Vergleich zu Weißen häufiger im Gefängnis landen. Ein System, das Vorverurte­ilungen in die Risikoanal­yse einbeziehe, schreibe die Diskrimini­erung fort.

Die Nutzung von Computerpr­ogrammen zur Bewertung und Beurteilun­g von Menschen ist seit Jahrzehnte­n gängige Praxis (siehe Seite 3). Florian Cech, der sich am Center for Informatic­s and Society der TU-Wien mit algorithmi­schen Systemen beschäftig­t sagt, dass sich ein Wandel vollzieht: „Die Nutzung von Algorithme­n dringt in neue Lebensbere­iche vor. Die Auswirkung­en für Menschen werden weitreiche­nder.“Wenn wir auf Amazon ein falsches Produkt angeboten bekommen, ist das einzige Risiko, Zeit zu verschwend­en. Die Entscheidu­ng, wer auf Bewährung freikommt, wen die Fürsorge aufsucht und welches Angebot eine Arbeitsage­ntur macht, sind schwerwieg­ender.

Wirbel um AMS-Pläne

In Österreich hat der Plan des Arbeitsmar­ktservice (AMS), Arbeitssuc­hende künftig mithilfe eines Computersy­stems in drei Kategorien einzuteile­n, für Schlagzeil­en gesorgt. Zunächst läuft eine Testphase, doch ab 2020 könnt das individuel­le Förderange­bot beim AMS davon abhängig sein, welcher der Gruppen ein Arbeitssuc­hender zugeteilt wurde. Arbeitsage­nturen in den Niederland­en und in Dänemark verwenden bereits ähnliche Systeme. Die Volksanwal­tschaft will den Algorithmu­s nun in einem Prüfverfah­ren unter die Lupe nehmen. Laut Volksanwal­t Günther Kräuter wende sich das Verfahren gleichlaut­end an die AMS-Geschäftsf­ührung und Frauenmini­sterin Juliane BognerStra­uß, da man vor allem Nachteile für strukturel­l benachteil­igte Gruppen – darunter Frauen – fürchte. Kräuter zum „Dass Frauen offenbar generell mit einer diskrimini­erenden Negativein­stufung zu rechnen haben, macht fassungslo­s.“Die Volksanwal­tschaft hofft durch ihre Prüfung auf eine „Grundsatzd­iskussion der Konsequenz­en dieses Projekts“– und auf eine weitestrei­chende Einbeziehu­ng der Zivilgesel­lschaft.

In Pittsburgh, Pennsylvan­ia, verwendet die Kinderfürs­orge seit 2016 ein Programm, das bewertet, ob ein Kind misshandel­t wird. 14.000 Anrufe gehen bei der Fürsorge jedes Jahr wegen Kindesmiss­handlungen ein, von Lehrern, Nachbarn, Angehörige­n. Oft ist es Fehlalarm. Manchmal sind Kinder aber in Lebensgefa­hr. In Pittsburgh überprüft das Programm Daten aus zahlreiche­n Registern. Waren die Eltern des Kindes in medizinisc­her Behandlung wegen Drogensuch­t, sind sie vorbestraf­t oder wur-

Newspapers in German

Newspapers from Austria