Die Presse

Alle Macht der Maschine

Welche Gruppen von Arbeitslos­en sollen gefördert werden, welche nicht? In welchen Familien sind Kinder in Gefahr, vernachläs­sigt zu werden? Fragen dieser Art versucht man immer öfter über automatisi­erte Systeme zu klären. Auch in Österreich. Wenn Algorith

- Von Matthias Spielkamp

Stellen Sie sich vor, Sie suchen einen Job. Das Unternehme­n, bei dem Sie sich bewerben, sagt Ihnen, dass das Bewerbungs­verfahren viel einfacher wird, wenn Sie den Nutzername­n und das Passwort Ihres persönlich­en E-Mail-Kontos übermittel­n. Dann könnten nämlich Ihre E-Mails analysiert werden, um daraus ein Persönlich­keitsprofi­l zu erstellen. Sie müssen keinen komplizier­ten Fragebogen ausfüllen, denn das ist langweilig und auch viel weniger zuverlässi­g, als Ihre Mails auszuwerte­n, denn die sind viel schwierige­r zu manipulier­en. Am Ende gewinnen alle: das Unternehme­n, weil es viel exaktere Bewerbungs­profile bekommt und damit passendere Mitarbeite­r, Sie, weil Sie weniger Arbeit haben und einen Job finden, der besser zu Ihnen passt, und die Firma, die das Analysesys­tem anbietet, denn sie kann damit viel Geld verdienen.

Als wir bei der Recherche zu unserem Report „Automating Society“, einer Bestandsau­fnahme von Systemen zum automatisi­erten Entscheide­n in zwölf EU-Ländern, auf dieses Beispiel stießen, waren wir erst einmal sprachlos. Es muss sich um einen Fehler handeln, dachten wir, und die Aussage der Analysefir­ma, dass kein Bewerber je den Zugang zum E-Mail-Konto verwehrt habe, machte die Sache nicht besser. All das sei außerdem nach den hohen Datenschut­zstandards der EU völlig legal.

Es sind Fälle wie diese, die bei vielen Menschen Unbehagen, wenn nicht gar Angst auslösen. Angst davor, ausgespäht und überwacht zu werden, damit andere sich ein genaues Bild von ihnen machen können, ohne dass man dieses Bild selber noch irgendwie unter Kontrolle hätte. Angst davor,

zum Objekt der Entscheidu­ngen solcher Systeme zu werden, deren Funktion man nicht versteht, verstehen kann – zum einen, weil sie so komplex sind, zum anderen, weil diejenigen, die sie verwenden, nichts darüber verraten, wie sie funktionie­ren und zu welchen Zwecken sie eingesetzt werden.

Dass sowohl die Aufmerksam­keit für solche Prozesse als auch die Skepsis ihnen gegenüber in den vergangene­n Jahren gestiegen sind, liegt vor allem daran, dass Anbieter behaupten, Systeme entwickeln und einsetzen zu können, die automatisi­ert Entscheidu­ngen treffen. Oft ist in diesem Zusammenha­ng die Rede von sogenannte­r künstliche­r Intelligen­z. Der Begriff ist äußerst unglücklic­h gewählt. Er erweckt den Eindruck, hier seien Prozesse am Werk, die menschlich­er Intelligen­z vergleichb­ar sind, nur von Maschinen ausgeführt werden. Das ist nicht der Fall. Vielmehr handelt es sich um statistisc­he Verfahren, die mitunter den Eindruck erwecken, als kämen die Ergebnisse ähnlich zustande wie bei menschlich­em Denken. Doch nur weil ein Computer einen Menschen im Schachspie­l besiegen kann, hat er darum noch keine Absichten, besitzt keine Kreativitä­t und keine Autonomie – alles Eigenschaf­ten, die den Menschen erst zum Menschen machen.

Um den falschen Eindruck nicht zu verstärken, sollten wir daher von Systemen zum automatisi­erten oder algorithmi­schen (Vor-)Entscheide­n sprechen, von ADM-Systemen (automated decision-making). Hier werden menschlich­e Entscheidu­ngen an automatisi­erte Systeme übertragen, indem ein von Menschen entwickelt­es Entscheidu­ngsmodell so in Software umgesetzt wird, dass eine Maschine es umsetzen kann. So wird etwa ein automatisi­ertes Auto mit einem System ausgerüste­t, das in der Lage ist, Hinderniss­e zu erkennen und ihnen auszuweich­en. Dass es Hinderniss­en ausweichen sollte hat aber nicht das Auto oder Tatsache nichts, dass immer häufiger sogenannte selbstlern­ende Systeme eingesetzt werden, die im Lauf der Zeit Hinderniss­e immer besser erkennen. Die Entscheidu­ng, diesen Hinderniss­en auszuweich­en, statt sie zu überfahren, bleibt eine menschlich­e.

Was als akademisch­e Spitzfindi­gkeit erscheinen mag, hat entscheide­nde gesellscha­ftliche Konsequenz­en: Die Verantwort­ung dafür, welche Auswirkung­en der Einsatz solcher Systeme hat, tragen immer Menschen, niemals Maschinen. Die Begründung „Das hat der Computer so entschiede­n“kann Ausdruck von Hilflosigk­eit sein und auch das Ergebnis von gezielten (Falsch-) Darstellun­gen derjenigen, die sie einsetzen. Sie bleibt jedoch immer falsch, weshalb wir nicht zulassen dürfen, dass Menschen sich mit dieser Begründung ihrer Verantwort­ung entziehen.

Österreich­s Arbeitsmar­ktservice ist das beste Beispiel. Hier wurde ein statistisc­hes Modell entwickelt, das auf Grundlage von Ausbildung, Geschlecht, Erwerbskar­riere, Alter, Staatsbürg­erschaft und anderen Kriterien berechnen soll, welche Chancen Arbeitslos­e haben, Arbeit zu finden. Dazu werden Menschen in drei Kategorien eingeteilt: solche mit hohen, mittleren und niedrigen Chancen, einen Arbeitspla­tz zu finden. Konkret bedeutet das, dass ab 2020 Menschen in der mittleren Kategorie stärker gefördert werden sollen, während Arbeitssuc­hende mit hohen und niedrigen Chancen auf dem Arbeitsmar­kt weniger unterstütz­t werden.

Die Begründung: Ressourcen der Arbeitsmar­ktpolitik sollen effiziente­r eingesetzt und Arbeitssuc­hende mit höherer Treffsiche­rheit gefördert werden. Ein Ziel, das wahrschein­lich in dieser allgemeine­n Formulieru­ng viele unterstütz­en würden. Das Problem daran: Die Gewichtung der verschiede­nen Faktoren entspricht dem, was bisher der Fall ist. Zum Beispiel haben Frauen mit „Betreuungs­pflichten“schlechter­e Chancen einen Job zu finden als Frau ungspflich­ten erst gar nicht gestellt wird – sicher deshalb, weil die Pflichten so oft von Frauen übernommen werden, dass es sich bei ihnen auf ihre Arbeitssit­uation auswirkt, bei Männern jedoch nicht. Wenn nun aber diese Tatsache zur Grundlage des Modells wird, das über die Zukunft mitentsche­idet, verstärkt es diese Situation.

Wer das als objektive Abbildung der Realität verteidigt, verkennt den gesellscha­ftlichen Sprengstof­f, der darin enthalten ist. Politik sollte die Aufgabe haben, eine gerechtere Welt herzustell­en, mit gleichen Chancen für Teilhabe aller. Beim AMS wurde die Entscheidu­ng getroffen, eine bestehende Ungerechti­gkeit fortzuführ­en und damit zu verstärken – wohlgemerk­t von Menschen. Der zu diesem Zweck entwickelt­e Algorithmu­s ist nichts weiter als der Umsetzungs­mechanismu­s dieser politische­n Entscheidu­ng, für die sich diejenigen rechtferti­gen müssen, die sie getroffen haben.

Es ist die Blindheit für den politische­n Kern vieler Automatisi­erungsproz­esse, der berechtigt­e Kritik hervorruft. Denn die Risiken sind lange bekannt. Als beispielsw­eise IBM 1957 damit begann, die „Halbautoma­tische Umgebung zur Unternehme­nsuntersuc­hung“(Semi-Automated Business Research Environmen­t, SABRE) zu entwickeln, um Tickets für die Flugzeuge von American Airlines zu verkaufen, wurde damit ein gutes Ziel verfolgt: Man wollte den bislang sehr umständlic­hen und fehleranfä­lligen Reservieru­ngsprozess für die Fluglinie und die Kunden verbessern.

Im folgenden Vierteljah­rhundert jedoch kam American Airlines darauf, dass man das System auch für andere Zwecke nutzen kann. Denn nachdem viele andere Fluglinien angefangen hatten, SABRE ebenfalls zu verwenden, begann American Airlines damit, es so zu manipulier­en, dass die Angebote der Firma gegenüber anderen bevorzugt wurden. Reisende bekamen nicht mehr das günstigste Ticket angeboten, sondern jenes, das AA verkaufen wollte. In einer Anhörung des US-Kongresses gab sich AA-Präsident Robert L. Crandall unbeeindru­ckt von Vorwürfen, unfair gehandelt zu haben: „Die bevorzugte Anzeige unserer eigenen Flüge

Die Begründung „Das hat der Computer so entschiede­n“kann Ausdruck von Hilflosigk­eit sein. Sie bleibt jedoch immer falsch.

der wettbewerb­liche Grund dafür, das System überhaupt erst zu entwickeln.“

In ihrer grundlegen­den Untersuchu­ng mit dem Titel „Auditing Algorithms“(Algorithme­n prüfen) haben Christian Sandvig und seine Koautoren diese Sichtweise „Crandalls Klage“getauft: Warum sollte man ein teures algorithmi­sches System entwickeln und einsetzen, wenn man es nicht zu seinen eigenen Gunsten beeinfluss­en kann? Die US-Regierung sah das jedoch anders und erließ 1984 einen heute wenig bekannten Paragrafen, den wohl ersten zur Algorithme­nregulieru­ng weltweit. Unter dem Titel „Darstellun­g von Informatio­nen“schreibt er vor, dass für Reservieru­ngssysteme von Fluggesell­schaften jeder Person auf Anfrage die aktuellen Kriterien offenzuleg­en sind, die diese Systeme nutzen, um Flüge zu klassifizi­eren, wie die Kriterien gewichtet werden und welche Vorgaben bei der Entwicklun­g des Algorithmu­s gemacht wurden.

Erstaunlic­h ist zu sehen, was in den 35 Jahren seit Verabschie­dung dieses Gesetzes geschehen ist. Auf der einen Seite wurden immer bessere Systeme zur Automatisi­erung komplexer Vorgänge entwickelt, die einen gewaltigen Einfluss auf unser aller Leben haben und haben können. Drei Beispiele: In den Niederland­en versucht die öffentlich­e Verwaltung, „Sozialbetr­üger“zu identifizi­eren, indem sie Daten verschiede­ner Behörden kombiniert und von einem Algorithmu­s filtern lässt. In Dänemark will die Regierung ein System einführen, das automatisc­h aus Daten über Familien herauslese­n soll, ob Kinder in Gefahr sind, vernachläs­sigt zu werden. In Polen werden Arbeitslos­en bereits seit 2014 auf Basis einer automatisi­erten Klassifizi­erung Hilfen gewährleis­tet oder vorenthalt­en.

Auf der anderen Seite hat die Regulierun­g nicht Schritt gehalten. Wo 1984 bei einem System aus reinen Verbrauche­rschutzgrü­nden Transparen­z vorgeschri­eben wurde, um erkennen zu können, ob Menschen in ihrer Eigenschaf­t als Konsumente­n benachteil­igt werden, zeigen das AMS-System und die genannten Beispiele, dass es längst um Entscheidu­ngen geht, die viel stärker in unsere Rechte einschneid­en. Doch darüber, wer diese Systeme zu welchem Zweck einsetzt, wer sie mit wem gemeinsam entwickelt, welche politische­n und statistisc­hen Modelle ihre Grundlage bilden und wer auf welche Art davon betroffen ist, darüber wird uns zu oft jegliche Auskunft verweigert.

Transparen­z an sich ist kein Heilmittel. Aber sie ist Voraussetz­ung für den demokratis­chen Umgang mit automatisi­erten Systemen. Erst wenn wir wissen, aus welchem Grund sie eingesetzt werden, zu welchem Zweck sie eingesetzt werden, wer von ihnen auf welche Art betroffen ist, wer sie entwickelt hat und auf welchen Annahmen es beruht, können wir entscheide­n. Entscheide­n, ob wir überhaupt damit einverstan­den sind, dass das System zum angegebene­n Zweck eingesetzt wird – oder ob wir beispielsw­eise niemals die Entscheidu­ng über Freiheitse­ntzug automatisi­ert treffen lassen wollen.

Die Frage, ob Automatisi­erung unseren Gesellscha­ften, uns Bürgerinne­n und Bürgern nützt oder ihnen schadet, ist in erster Linie eine politische Frage. Sie gehört in die Mitte der Gesellscha­ft. Denn selbst, wenn sich nicht herausgest­ellt hätte, dass die finnische Firma, die auf Grundlage privater E-Mails angeblich Persönlich­keitsprofi­le erstellt, niemals auch nur einen Kunden hatte und nur vom Hype um die sogenannte künstliche Intelligen­z profitiere­n wollte – wie es derzeit viele Unternehme­n tun –, wäre die Frage, ob ihr Angebot legitim ist, niemals eine technische Frage gewesen.

 ?? [ Foto: Wolfgang Freitag] ?? Künstliche Intelligen­z?
[ Foto: Wolfgang Freitag] Künstliche Intelligen­z?

Newspapers in German

Newspapers from Austria