Künstliche Intelligenz Was kommt da auf uns zu?
Über Künstliche Intelligenz wird viel geredet, dabei fehlt vielfach das Grundverständnis, um was es bei diesem Begriff überhaupt geht, was wirklich schon um uns herum geschieht und welche Entwicklungen in absehbarer Zeit auf uns zukommen. Drei aktuelle Sachbücher zum Thema werden von Winfried Kretschmer, Tobias Hinterseer und Birgit Bahtić-kunrath vorgestellt.
Über Künstliche Intelligenz wird viel geredet, dabei fehlt vielfach das Grundverständnis, um was es bei diesem Begriff überhaupt geht, was schon um uns herum geschieht und welche Entwicklungen in absehbarer Zeit auf uns zukommen. Drei aktuelle Sachbücher zum Thema stellen Winfried Kretschmer, Tobias Hinterseer und Birgit Bahtić-kunrath vor.
128
Über das Kapital
Über Digitalisierung wird viel geschrieben und debattiert. Die Einschätzungen schwanken zwischen Hype und Panik. Ganz besonders zeigt sich das beim Thema Künstliche Intelligenz (KI): Die einen warnen vor dystopischen Zukunftsszenarien, in denen sich Maschinen und virtuelle Netzwerke selbständig machen und uns Menschen kontrollieren, sie sehen uns kurz vor Massenarbeitslosigkeit. Auf der anderen Seite heißt es, dass KI viele Probleme der Menschheit lösen wird, manche meinen, dass wir vor einer neuen Gesellschaftsordnung stünden. Was stimmt nun? Im Dschungel von Science-fiction, Angst, Hype und Tech-populismus ist dieses Buch fast so etwas wie ein Anker. Timo Daum zeigt, was künstliche Intelligenz überhaupt ist, wie sie sich entwickelt hat und was es da zu unterscheiden gibt. Er beschreibt die wichtigsten Begriffe und macht KI an spannenden Beispielen fest. Damit macht er den Raum frei für etwas, das bei den Debatten beinahe immer fehlt: eine Kritik der Politischen Ökonomie der Digitalisierung im Allgemeinen und der KI im Speziellen. Daum erinnert daran, dass es nicht nur um „Marketing Gags“wie Go-wettkämpfe zwischen Mensch und Maschine oder um „Feigenblätter“wie neue Anwendungen in der Medizin geht. Die Basis all dieser Entwicklung ist vielmehr, dass das Kapital neue Akkumulationsmöglichkeiten sucht und findet. Mit anderen Worten: Auch im Datenkapitalismus liegt die Priorität vorrangig nicht auf Menschen, sondern auf Märkten. Somit stellen sich auch bei der Kritik der Digitalisierung Macht- und Verteilungsfragen.
Wenn uns das klar wird, müssen wir uns nicht vor einer Superintelligenz fürchten, sondern können um ihren richtigen Einsatz kämpfen. Ein Ansatz wäre zum Beispiel laut Daum, bei den Daten, also bei der Quelle des digitalen Kapitalismus, die Eigentumsfrage zu stellen und klarzustellen: „Unsere Daten gehören uns!“(S. 170), und sich danach zu fragen: „Vielleicht lässt sich mit den Datensammlungen ja was Sinnvolles anstellen?“(S. 168) T. H.
Kapitalismus
127 Daum, Timo: Die künstliche Intelligenz des Kapitals. Hamburg: Edition Nautilus, 2019.
192 S., € 16,- [D], 16,50 [A]
2062
Der Weg zu selbst denkenden Maschinen ist nicht mehr weit. Bis Maschinen tatsächlich grundlegende Denkarbeiten des Menschen übernehmen können, wird es aber noch etwas dauern. Das war die zentrale These des Buches „It’s alive“, vorgelegt von dem australischen Informatiker Toby Walsh, Professor für KI an der University of New South Wales. In seinem neuen Buch tastet er sich nun an diesen Zeitpunkt ein Stückchen näher heran. „2062“heißt es, und diese Zahl bezeichnet „das Jahr, in dem die künstliche Intelligenz uns ebenbürtig sein wird“, so der Untertitel. Das Jahr also, in dem die Maschinen, die wir bauen, so intelligent sein werden wie wir. „Das wäre ein Wendepunkt, an dem die Maschinenintelligenz plötzlich beginnen würde, exponentiell zu wachsen, weshalb sie die menschliche Intelligenz rasch um ein Vielfaches übersteigen würde“, schreibt Walsh (S. 51). Das klingt nach technologischer Singularität, nach der vor allem von Ray Kurzweil, dem Us-amerikanischen Autor, Erfinder, Zukunftsforscher und Director of Engineering bei Google, vertretenen Auffassung, der Punkt sei nicht mehr fern, ab dem sich selbst modifizierende Computer intelligenter werden als der Mensch und unsere Spezies überflügeln. Toby Walsh aber hat wie andere Ki-forscher beträchtliche Zweifel an der Unvermeidlichkeit, mit der diese Techno-these auftritt: Die Singularität erscheint als logische Gewissheit, wobei lediglich der Zeitpunkt unklar ist, an dem sie eintritt. Insofern ist es pikant, dass Walsh selbst mit einer Jahreszahl auf dem Cover antritt. In der Sache aber ist er klar: Zehn Gründe führt der Forscher an, die dagegensprechen, dass es zur Singularität kommen wird, und demontiert damit sehr fundiert die Behauptung ihrer Unvermeidlichkeit (vgl. S. 50ff.). Dennoch sei damit nicht bewiesen, dass die Singularität nicht eintreten könnte. „Sie ist eine Möglichkeit“, so Walsh (S. 69). Wie das Jahr 2062 auf dem Cover.
Das ist der entscheidende Punkt: Hinter der Frage „Singularität, ja oder nein?“stehen unterschiedliche Konzeptionen von Zukunft. Für Walsh ist die Zukunft offen, und offen heißt: gestaltbar. Für die Vertreterinnen der Singularitätsthese hingegen ist dies Ergebnis einer zwangsläufigen technologi
„Es ist ein verbreiteter Irrglaube, die Zukunft stehe fest und wir müssten uns ihr einfach anpassen. So ist es nicht. Die Zukunft ist das Ergebnis der Entscheidungen, die wir heute fällen. Daher können wir uns unsere Zukunft aussuchen.“(Toby Walsh in , S. 290)
schen Entwicklung. Bekannt geworden ist Ray Kurzweil ja (unter anderem) mit einer Arbeit über exponentielle Steigerungsraten in unterschiedlichen Technikfeldern. Daraus leitet er eine Art Gesetzmäßigkeit eines neuen, exponentiellen Wachstums ab und schwärmt von einer sich beschleunigenden technologischen Entwicklung. Seine Kurven gehen dann auch alle steil nach oben – und verschleiern mit ihrer Suggestivkraft, dass dahinter ein ziemlich geschlossenes und eindimensionales Zukunftsmodell steht: Die Zukunft ist exponentiell, aber nicht offen.
Gegen dieses von Kurzweil prominent vertretene Zukunftsmodell argumentiert Walsh mit bemerkenswerter Klarheit: „Es ist ein verbreiteter Irrglaube, die Zukunft stehe fest und wir müssten uns ihr einfach anpassen. So ist es nicht. Die Zukunft ist das Ergebnis der Entscheidungen, die wir heute fällen. Daher können wir uns unsere Zukunft aussuchen.“(S. 290) Zukunft muss gestaltet werden. Dies umso mehr, als die Menschheit – Singularität hin oder her – an einem Scheideweg in ihrer Geschichte angekommen ist (vgl. S. 289). Der Autor beschreibt dies als den Übergang vom Homo sapiens zum Homo digitalis: Seine Vision ist die „unseres Übergangs in die digitale Wolke“(S. 35). „Wir werden gleichzeitig in unserem eigenen Gehirn und im größeren digitalen Raum leben“, schreibt er, und es werde uns zunehmend schwer fallen, zu unterscheiden „zwischen dem, was wir denken, und dem, was in der Ki-wolke gedacht wird“(S. 33). Die Künstliche Intelligenz werde unsere Welt vollkommen verändern. Und deshalb, so Walsh, müssen wir über einen umfassenden Umbau unserer Gesellschaft nachdenken, über neue Gesetze, neue Unternehmensformen, politische Neuerungen, eine neue Ökonomie, eine neue Gesellschaft – um eine bessere Zukunft möglich zu machen. W. K. Technischer Fortschritt
128 Walsh, Toby: 2062. Das Jahr, in dem die Künstliche Intelligenz uns ebenbürtig sein wird. München: riva Verl., 2019. 336 S., € 22,- [D], 22,70 [A]
Machine Learning
Die Medienwissenschaftler Christoph Engemann und Andreas Sudmann haben einen umfassenden Sammelband zum hochaktuellen Thema des maschinellen Lernens herausgegeben. Im Zentrum stehen medien- und kulturwissenschaftliche Betrachtungen zu Künstlicher Intelligenz (KI) im Allgemeinen und Künstlichen Neuronalen Netzwerken (KNN) sowie Deep Learning (DL) im Speziellen – also jenen Prozessen, die KI selbststeuernde Lernprozesse ermöglichen: Welche Chancen, Risiken und Grenzen gibt es in diesem Bereich für unsere Gesellschaft?
Der Band richtet sich dabei an ein Fachpublikum, welches zumindest mit Grundzügen von Medientheorie und KI vertraut ist. Die einzelnen Beiträge stehen in der Tradition einer kritischen Kulturwissenschaft und stellen grundsätzliche Fragen zu den Implikationen von DL: Etwa, wie sich die Rolle des Lernens an sich verändert (Beiträge von Hermann Rotermund und Luciana Parsi) und ob dies einen „Kontrollverlust“für die Bildungspolitik bedeute (Jeremias Herberg), wie KI zunehmend in die kreativen Sphären von Musik einbricht und was das für Kreativität heißt (Franziska Kollinger), was die Folgen eines unkontrollierbaren „Datenmeeres“sind (Hito Steyerl) oder was die Weiterentwicklung der Robotik mit sich bringt (Yvonne Förster) – nur um einige der 15 Artikel zu nennen. Der Sammelband wird mit zwei Interviews mit Yoshua Bengio und Roland Memisevic abgerundet, die beide als Koryphäen in der Forschung zu KI gelten.
In der Einleitung betont Andreas Sudmann die unterschiedlichen Konjunkturen, die Ki-forschung durchlaufen hat. Computer sind heute in der Lage, aus Erfahrungen zu lernen, Aufgaben zu lösen und Prognosen zu erstellen (vgl. S. 10). In verschiedenen Lernverfahren werden Maschinen immer intelligenter, dank der KNN – Vernetzungen, die dem menschlichen Gehirn nachempfunden wurden und Maschinen erst intelligent werden lassen. Gleichzeitig betont Sudmann – wie auch eine Reihe weiterer Autorinnen – dass KI nach wie vor weit davon entfernt ist, die menschliche Intelligenz in ihrer Gesamtheit auch nur annähernd zu überbieten. Trotzdem sind die Implikationen riesig, vor allem wenn es um die Zukunft des Lernens geht: „Zu erwarten ist, dass die Lerntheorien der Zukunft wesentlich stärker auf Ansätze des Machine Learning und der KNN zurückgreifen werden. Jedenfalls scheint es kaum abwegig, dass in nicht allzu ferner Zukunft im Klassenzimmer oder im Seminarraum immer mehr mit Hilfe maschineller Lernverfahren gelernt und geforscht wird.“(S. 20)
„Zu erwarten ist, dass die Lerntheorien der Zukunft wesentlich stärker auf Ansätze des Machine Learning und der KNN zurückgreifen werden. Jedenfalls scheint es kaum abwegig, dass in nicht allzu ferner Zukunft im Klassenzimmer oder im Seminarraum immer mehr mit Hilfe maschineller Lernverfahren gelernt und geforscht wird.“(Andreas Sudmann in 129 , S. 20)
„Szenarien des Postdigitalen“
Einen spannenden Blick auf das Phänomen des DL bringt Sudmann in seinem Beitrag „Szenarien des Postdigitalen“. Der Autor argumentiert hier, dass wir mit der KI in eine neue Ära des Postdigitalen eintreten – in dem Sinn, dass die klassische, auf binäre Codes basierende Computerwelt sukzessive von KI abgelöst wird, die wiederum in alle Bereiche unserer Gesellschaft massiv eingreift und
„Die Vorbehalte gegenüber der Mechanik finden in denen gegenüber der Mathematik ihre würdige und kulturell mit vergleichbarer Hartnäckigkeit verankerte Entsprechung. Die Rede ist von einer im Bildungssystem tief verwurzelten Phobie gegenüber formalen und algorithmischen Herangehensweisen. In dieser Phobie manifestiert sich eine gesellschaftliche Haltung, in der sich der Kampf der Kulturen von Geistes- und Naturwissenschaften zum Nachteil aller Formalisierung verdichtet.” (Stefan Rieger in 129 , S. 127)
sich so nicht mehr klar von unserem Alltag abgrenzen lässt. KI bedeutet also einen grundlegenden Technologiewechsel und nicht die Fortschreibung des digitalen Zeitalters, und mit dem Siegeszug von DL durch KNN kündigt sich nichts anderes als ein grundlegender Paradigmenwechsel in der Informationstechnologie an (vgl. S. 58ff.). Dies bringt auch eine Medienrevolution mit sich, welche das „postdigitale Zeitalter“einläutet. Obwohl Technologie spätestens seit der industriellen Revolution unser Leben maßgeblich beeinflusst, bleibt ihr gegenüber ein menschliches Unbehagen: Dieses wird von Stefan Rieger in seinem Beitrag „Bin doch keine Maschine …“thematisiert: „Die Negativsemantik der Maschine hat ihre eigene Geschichte und sie schrieb ihre eigene Geschichte. In deren Zuge wurde das Mechanische zum Adressaten einer ebenso langwierigen wie nachhaltigen Geringschätzung und konnte diese selbst in der Populärkultur mit nachgerade nervender Nachhaltigkeit behaupten.“(S. 117) Rieger zeichnet die menschliche Skepsis gegenüber den selbstgeschaffenen Maschinen durch die Geschichte nach und verweist auf die „Momente des Unheimlichen“. Diese haben angesichts selbst lernender Maschinen und KI derzeit Hochkonjunktur: Fragen nach Maschinen- und Roboterethik tun sich auf, und die Befürchtung, dass eines Tages die Maschinen ihre Schöpfer übertreffen könnten. Rieger verweist darauf, dass diese Befürchtungen häufig aus der Pädagogik kommen und mit einer grundlegenden Skepsis gegenüber der Mathematik einhergehen: „Die Vorbehalte gegenüber der Mechanik finden in denen gegenüber der Mathematik ihre würdige und kulturell mit vergleichbarer Hartnäckigkeit verankerte Entsprechung. Die Rede ist von einer im Bildungssystem tief verwurzelten Phobie gegenüber formalen und algorithmischen Herangehensweisen. In dieser Phobie manifestiert sich eine gesellschaftliche Haltung, in der sich der Kampf der Kulturen von Geistesund Naturwissenschaften zum Nachteil aller Formalisierung verdichtet.“(S. 127)
„Big Data Kriege“
Eine große ethische Schwierigkeit thematisiert Jutta Webers Beitrag „Big Data Kriege“: Vor allem die USA sind in den letzten Jahren dazu übergegangen, Tötungslisten für den „Krieg gegen den Terror“zu erstellen – anhand riesiger Datensätze, die mit Hilfe problematischer Datenanalyseverfahren Verdächtige „ausfindig“machen. Diese „Disposition Matrix“konstruiert Terroristinnen anhand von Merkmalen, die so allgemein gehalten sind, dass zwangsläufig Menschen darin Aufnahme finden, die mit Terror nichts zu tun haben. Ein immenses Problem ist dabei die Intransparenz, wie die Analyseverfahren laufen: Unklar ist, wer warum als terroristisch abgestempelt wird, wie „genau die Informationen der Datenbanken zusammengeführt und welche spezifischen Targeting-methodologien und Algorithmen verwendet werden“(S. 223). Außerordentlich problematisch ist, dass Computer auf eine extrem vage Definition von „terroristischen Verdächtigen“trainiert sind: „Die Datenbanken enthalten zunehmend auch Daten von nicht-gewalttätigen politischen Aktivist_innen und Individuen, welche das herrschende politische System ganz allgemein in Frage stellen. (...) Aus Angst, mögliche potenzielle Verdächtige zu übersehen, werden die Suchkriterien ganz breit konstruiert.“(S. 224) Die Folge: Die Tötungs- und Beobachtungslisten werden immer länger und weniger aussagekräftig. Oft reicht es, im entfernten Dunstkreis eines Verdächtigen aufzutauchen, um selbst verdächtig zu sein – darunter oft auch Journalistinnen, die aufgrund ihrer Recherche-aktivitäten ins Visier geraten. All dies ist Ausdruck einer neuen „Technorationalität“, die sogar Entscheidungen über Leben und Tod den Maschinen überlässt – ohne dass man die Algorithmen durchschaut. Wohl nur ein schwacher Trost dabei: Über die eigentliche Tötung entscheidet der Us-präsident – anhand der Disposition Matrix. B. B.-K. Medientheorie 129 Machine Learning. Medien, Infrastrukturen und Technologien der Künstlichen Intelligenz. Hrsg. v. Christoph Engemann und Andreas Sudmann. Bielefeld: transcript, 2018. 390 S., € 32,99 [D, A]
UNSER BLOG
Auf www.prozukunft.org findet sich ein umfassendes Archiv aller Publikationen, die seit 1987 in diesem Magazin besprochen wurden, auch alle Editorials von Robert Jungk sind dort zu finden. Sie möchten zu einem bestimmten Thema weiterrecherchieren oder vergangene Besprechungen nachlesen? Dann bietet sich eine Suche auf unserem Blog an.
Knapp 5.000 Texte wurden seit der Gründung in diesem Rezensionsmgazin abgedruckt. Mit dem Printabonnement erhalten Sie unsere ausführlichen Rezenionen immer als Erste/r; ein exklusiver Vorteil ist außerdem die thematische Zusammenstellung der Bücher.