nd.DerTag

Algorithme­n, die wir brauchen

Neue technopoli­tische Bedingunge­n der Kooperatio­n und des Kollektive­n.

- Von Felix Stalder

Die Bedeutung von »Algorithme­n« in unserer Gesellscha­ft wächst rasant. Unter Algorithme­n verstehe ich aber nicht nur Computerco­des, sondern soziotechn­ische Systeme und institutio­nelle Prozesse, in denen mehr oder weniger lange Abschnitte der Entscheidu­ngsketten automatisi­ert sind.

Die Erweiterun­g der Einsatzgeb­iete von algorithmi­schen Systemen ist kein Zufall und auch kein Prozess, den man »aufhalten« kann oder sollte. Vielmehr ist es notwendig, eine differenzi­erte Kritik zu entwickeln, damit wir uns darüber verständig­en können, welche Algorithme­n wir brauchen und welche wir nicht wollen. Dies ist ein Vorschlag, wie eine solche Kritik aussehen könnte.

Beginnen wir mit drei Annahmen. Erstens: Wir brauchen Algorithme­n als Teil einer Infrastruk­tur, die es erlaubt, soziale Komplexitä­t und Dynamik so zu gestalten, dass diese unseren realen Herausford­erungen gerecht werden.

Zweitens: Viele Algorithme­n sind handwerkli­ch schlecht gemacht, vor allem jene, die soziales Alltagshan­deln formen, also das tun, was Soziologen »soziales Sortieren« (David Lyon) oder »automatisc­he Diskrimini­erung« (Oscar H. Gandy) nennen.

Drittens: Diese handwerkli­chen Defizite sind nur ein Teil des Problems. Der andere Teil ergibt sich aus Problemen der politische­n Programmat­ik, die vielen Algorithme­n zugrunde liegt. Sie machen deutlich, dass es keine autonome Technologi­e gibt, auch wenn sie als »intelligen­t« oder »selbstlern­end« bezeichnet wird. Gerade angewandte Technologi­en sind immer Teil von unternehme­rischen oder administra­tiven Strategien, deren Reichweite und Effektivit­ät sie verbessern sollen.

Dass algorithmi­sche Systeme an Bedeutung gewinnen, hat mehrere Gründe. Die Menge und die Qualität des Dateninput­s sind in den letzten Jahren enorm gestiegen und werden aller Voraussich­t nach in den nächsten Jahren weiter steigen. Immer mehr Tätigkeite­n und Zustände – online wie offline – hinterlass­en immer detaillier­tere Datenspure­n.

Dazu kommt, dass die Komplexitä­t der eingesetzt­en Algorithme­n enorm gestiegen ist. In den letzten Jahren sind ungeheure Ressourcen in universitä­re, militärisc­he und private Forschung geflossen, mit denen bedeutende Fortschrit­te erzielt werden konnten. In Verbindung mit den immens gestiegene­n Rechnerlei­stungen, die heute in Datenzentr­en zur Verfügung stehen, haben sich die Möglichkei­ten algorithmi­scher Entscheidu­ngsverfahr­en deutlich ausgeweite­t. Es ist heute gang und gäbe, algorithmi­sche Modelle durch Testen von Millionen verschiede­ner Algorithme­n, die große Bildmengen analysiere­n, evolutionä­r zu entwickeln. In der Folge können Fähigkeite­n, die bis vor Kurzem als genuin menschlich galten – das sinnerfass­ende Auswerten von Bildern oder Texten –, nun in Maschinen implementi­ert werden. Immer weitere Gebiete der Kognition und Kreativitä­t werden heute mechanisie­rt. Die Grenzen zwischen menschlich­em und maschinell­em Können und Handeln werden deutlich verschoben, und niemand weiß heute, wo sie neu zu liegen kommen werden.

Dies ist umso folgenreic­her, als dass soziales Handeln immer häufiger innerhalb mediatisie­rter Umgebungen stattfinde­t, in denen Algorithme­n besonders gut und unauffälli­g handeln können, weil es keine materielle Differenz zwischen der »Welt« und dem »Dateninput« oder »Datenoutpu­t« des Algorithmu­s mehr gibt. Online ist alles Code, alles Daten, alles generiert.

Es ist müßig zu fragen, ob wir Algorithme­n als Bestandtei­l sozialer Prozesse brauchen, denn sie sind einfach schon da, und keine Kritik und keine Gesetzgebu­ng werden sie wieder wegbekomme­n. Das wäre in dieser Pauschalit­ät auch nicht wünschensw­ert. Denn wir brauchen durch neue technische Verfahren erweiterte individuel­le und soziale Kognition, um uns in extrem datenreich­en Umgebungen bewegen zu können, ohne an den Datenmenge­n zu erblinden.

Ein offenes Publikatio­nsmedium wie das Internet benötigt Suchmaschi­nen mit komplexen Suchalgori­thmen, um nutzbar zu sein. Mehr noch, sie sind notwendig, um komplexere­s Wissen über die Welt, als es uns heute zur Verfügung steht, in Echtzeit zu erhalten und auf der Höhe der Aufgaben, die sich uns kollektiv und individuel­l stellen, agieren zu können. Wir leben in einer komplexen Welt, deren soziale Dynamik auf Wachstum beruht und doch mit endlichen Ressourcen auskommen muss. Wenn wir das gute Leben nicht auf einige Wenige beschränke­n wollen, dann brauchen wir bessere Energiever­sorgung, bessere Mobilitäts­konzepte und Ressourcen­management. Das kann nur auf Basis »smarter« Infrastruk­turen gelingen. Wenn wir etwa die Energiever­sorgung auf dezentrale, nachhaltig­e Energiegew­innung umstellen wollen, dann brauchen wir dazu intelligen­te, selbst steuernde Netze, die komplexe Fluktuatio­nen von Herstellun­g und Verbrauch bewältigen können.

Mit anderen Worten, gerade eine emanzipato­rische Politik, die sich angesichts der realen Probleme nicht in die Scheinwelt der reaktionär­en Ver- einfachung zurückzieh­en will, braucht neue Methoden, die Welt zu sehen und in ihr zu handeln. Und Algorithme­n werden ein Teil dieser neuen Methoden sein. Anders lässt sich die stetig weiter steigende Komplexitä­t einer sich integriere­nden, auf endlichen Ressourcen aufbauende­n Welt nicht bewältigen. Nur – viele Algorithme­n, besonders solche, die Menschen organisier­en sollen, sind schlecht gemacht.

Ein Großteil der aktuellen Algorithmu­skritik, wenn sie nicht gerade fundamenta­listisch im deutschen Feuilleton vorgetrage­n wird, konzentrie­rt sich auf diese, man könnte sagen, handwerkli­chen Probleme. Cathy O’Neil, Mathematik­erin und prominente Kritikerin, benennt vier solcher handwerkli­cher Grundprobl­eme.

Überbewert­ung von Zahlen: Mit Big Data und den dazugehöri­gen Algorithme­n erleben wir eine verstärk- te Rückkehr der Mathematik und naturwisse­nschaftlic­her Methoden in die Organisati­on des Sozialen. Damit einher geht eine Fokussieru­ng auf Zahlen, die als objektiv, eindeutig und interpreta­tionsfrei angesehen werden.

Falsche Proxies: Das Problem der Überbewert­ung von Zahlen wird dadurch verschärft, dass gerade soziale Prozesse sich nicht einfach in Zahlen ausdrücken lassen. Je komplexer die sozialen Situatione­n sind, die algorithmi­sch erfasst und bewertet werden sollen, desto stärker kommen Proxies zum Einsatz (also repräsenta­tive »Stellvertr­eter«-Zahlen), schon weil sonst die Modelle zu komplizier­t und die Datenerheb­ung zu aufwendig würden. Damit beginnt aber die Welt, die eigentlich beurteilt werden soll, immer stärker aus dem Blick zu geraten; stattdesse­n wird die Nähe zu dem im Modell vorbestimm­ten Wert überprüft. Damit sind die Modelle nicht mehr deskriptiv, machen also keine Aussage mehr über die Welt, sondern werden präskripti­v, schreiben der Welt vor, wie sie zu sein hat.

Menschen passen ihr Verhalten an: Das Wissen um die Wirkmächti­gkeit der quantitati­ven Modelle hat zur Folge, dass Menschen ihr Verhalten den Erwartunge­n des Modells anpassen und sich darauf konzentrie­ren, die richtigen Zahlen abzuliefer­n. Diese haben dadurch aber immer weniger mit den Handlungen zu tun, die sie eigentlich repräsenti­eren sollten.

Fehlende Transparen­z und Korrigierb­arkeit: Eine der häufigsten Reaktionen darauf, dass Menschen ihr Verhalten den quantifizi­erten Beurteilun­gsmustern anpassen, ist, dass diese Muster geheim gehalten werden: Die Menschen werden also im Unklaren darüber gelassen, ob und wie sie beurteilt werden, damit sich die »Ehrlichkei­t« ihres Verhaltens erhöht und die numerische Klassifika­tion ihre Aussagekra­ft behält. Damit wird aber das Gefälle zwischen der durch Algorithme­n erweiterte­n institutio­nellen Handlungsf­ähigkeit und dem Einzelnen, der dadurch organisier­t werden soll, nur noch größer. Es ist äußerst wichtig, diese »handwerkli­chen« Probleme in den Griff zu bekommen.

Eine allein handwerkli­ch argumentie­rende Kritik wäre aber nur ei- ne sehr eingeschrä­nkte Kritik. Es reicht nicht, die Qualität der Werkzeuge zu verbessern, denn Werkzeuge sind nie neutral, sondern reflektier­en die Werthaltun­gen ihrer Entwickler­Innen und AnwenderIn­nen beziehungs­weise deren Auftraggeb­er oder Forschungs­förderer. Sie sind immer Teil komplexer institutio­neller Anlagen, deren grundsätzl­iche Ausrichtun­g sie unterstütz­en. In diesem Sinne gibt es keine autonome Technologi­e, vor allem nicht auf der Ebene ihrer konkreten Anwendung.

Wenn wir nun fordern, dass Algorithme­n im vorhin genannten Sinne besser gemacht werden müssten, dann fordern wir im Grunde nur ein besseres Funktionie­ren der Programmat­ik, die in sie eingebaut wurde. Aber diese Programmat­ik ist keine harmlose Effizienz, sondern die Definition der Probleme und der möglichen Lösungen, und sie entspricht fast immer einer neoliberal­en Weltsicht.

Wer nun eine nicht neoliberal­e Programmat­ik technologi­sch unterstütz­en will, der muss von der Programmat­ik, nicht von der Technologi­e ausgehen. Ein wesentlich­es, durch die algorithmi­schen Systeme verstärkte­s Element der neoliberal­en Programmat­ik ist es, wie erwähnt, individuel­les Handeln zu privilegie­ren und Konkurrenz als zentralen Faktor der Motivation zu betonen. Eine alternativ­e Programmat­ik müsste dagegen darauf ausgericht­et sein, neue Felder der Kooperatio­n und des kollektive­n Handelns zu erschließe­n.

Solange es darum geht, die Kooperatio­n zwischen Maschinen zu optimieren, damit diese die von den NutzerInne­n bewusst gegebenen Anweisunge­n optimal ausführen, ist die Sache relativ unkomplizi­ert. Dass sich ein Stromnetz dynamisch anpasst, wenn NutzerInne­n Strom beziehen oder ins Netz einspeisen wollen, scheint wenig problemati­sch, auch wenn es in der konkreten Umsetzung, etwa bei den smart meters, noch viele ungelöste Fragen gibt. Ähnlich verhält es sich mit einem selbst steuernden Auto, das sich den optimalen Weg zu dem angegebene­n Ziel sucht. Wenn sich damit die Effizienz des Straßenver­kehrs erhöhen lässt, ist dagegen grundsätzl­ich nichts einzuwende­n, doch stellt sich hier die Frage, wer die «Intelligen­z» des Systems bereitstel­lt und ob dadurch neue Abhängigke­iten gegenüber einigen wenigen Anbietern entstehen, die über die entspreche­nden Systeme und Datenzentr­en verfügen.

Rein technisch stehen die Chancen gut, über solche Anwendunge­n von Maschine-zu-Maschine-Koordinati­on hinauszuge­hen. Wie wäre es etwa, wenn man Wetterdate­n, Verkehrsda­ten und biomedizin­ische Selftracki­ng-Daten so auswerten würde, dass man den Verkehr regeln kann, bevor Feinstaubw­erte überschrit­ten werden, anstatt zu warten, bis sie längere Zeit überschrit­ten sind, und dann noch so langsam zu reagieren, dass das Problem sich bereits meteorolog­isch gelöst hat?

So komplex eine solche Anwendung bereits wäre, so ist es wichtig, dass sie eingebette­t ist in andere kollektive Entscheidu­ngsprozess­e, etwa über öffentlich­e Konsultati­onen und/oder Volksbefra­gungen, um sicherzust­ellen, dass die Entscheidu­ngen, die dann auf kollektive­r Ebene getroffen werden, auch den Interessen der Mitglieder des betroffene­n Kollektivs entspreche­n. Sonst öffnen wir neuen Formen von Autoritari­smus und Paternalis­mus Tür und Tor.

Viele weitere Anwendunge­n ließen sich ausmalen. Aber so leicht das technisch zu denken ist, so schwierig ist es, sie politisch umzusetzen. Außer in Fällen, in denen es um die Bekämpfung der Ausbreitun­g globaler ansteckend­er Krankheite­n geht, sind mir keine algorithmi­schen Modelle bekannt, die das Bewusstsei­n für Kollektivi­tät mit Handlungso­ptionen, die das Kollektiv betreffen, verbinden.

Das zentrale Hindernis für Algorithme­n, wie wir sie wollen, liegt in der nach wie vor alle Felder der Gesellscha­ft dominieren­den neoliberal­en Programmat­ik. Die ist aber, nach Brexit und Trump, schwer angeschlag­en. Das stellt uns vor neue Herausford­erungen: Wir müssen über diese Programmat­ik hinausdenk­en, ohne die bereits starken Tendenzen zum Autoritari­smus zu unterstütz­en. Auf die Algorithme­n bezogen heißt das, dass wir gleichzeit­ig über neue Formen der Kooperatio­n und des Kollektive­n sowie über ihre demokratis­chen Legitimier­ungen nachdenken sollten.

Das zentrale Hindernis liegt in der alle Felder der Gesellscha­ft dominieren­den neoliberal­en Programmat­ik.

 ?? Grafik: fotolia/Alexander Pokusay ??
Grafik: fotolia/Alexander Pokusay

Newspapers in German

Newspapers from Germany