pro zukunft

Künstliche Intelligen­z Was kommt da auf uns zu?

-

Über Künstliche Intelligen­z wird viel geredet, dabei fehlt vielfach das Grundverst­ändnis, um was es bei diesem Begriff überhaupt geht, was wirklich schon um uns herum geschieht und welche Entwicklun­gen in absehbarer Zeit auf uns zukommen. Drei aktuelle Sachbücher zum Thema werden von Winfried Kretschmer, Tobias Hinterseer und Birgit Bahtić-kunrath vorgestell­t.

Über Künstliche Intelligen­z wird viel geredet, dabei fehlt vielfach das Grundverst­ändnis, um was es bei diesem Begriff überhaupt geht, was schon um uns herum geschieht und welche Entwicklun­gen in absehbarer Zeit auf uns zukommen. Drei aktuelle Sachbücher zum Thema stellen Winfried Kretschmer, Tobias Hinterseer und Birgit Bahtić-kunrath vor.

128

Über das Kapital

Über Digitalisi­erung wird viel geschriebe­n und debattiert. Die Einschätzu­ngen schwanken zwischen Hype und Panik. Ganz besonders zeigt sich das beim Thema Künstliche Intelligen­z (KI): Die einen warnen vor dystopisch­en Zukunftssz­enarien, in denen sich Maschinen und virtuelle Netzwerke selbständi­g machen und uns Menschen kontrollie­ren, sie sehen uns kurz vor Massenarbe­itslosigke­it. Auf der anderen Seite heißt es, dass KI viele Probleme der Menschheit lösen wird, manche meinen, dass wir vor einer neuen Gesellscha­ftsordnung stünden. Was stimmt nun? Im Dschungel von Science-fiction, Angst, Hype und Tech-populismus ist dieses Buch fast so etwas wie ein Anker. Timo Daum zeigt, was künstliche Intelligen­z überhaupt ist, wie sie sich entwickelt hat und was es da zu unterschei­den gibt. Er beschreibt die wichtigste­n Begriffe und macht KI an spannenden Beispielen fest. Damit macht er den Raum frei für etwas, das bei den Debatten beinahe immer fehlt: eine Kritik der Politische­n Ökonomie der Digitalisi­erung im Allgemeine­n und der KI im Speziellen. Daum erinnert daran, dass es nicht nur um „Marketing Gags“wie Go-wettkämpfe zwischen Mensch und Maschine oder um „Feigenblät­ter“wie neue Anwendunge­n in der Medizin geht. Die Basis all dieser Entwicklun­g ist vielmehr, dass das Kapital neue Akkumulati­onsmöglich­keiten sucht und findet. Mit anderen Worten: Auch im Datenkapit­alismus liegt die Priorität vorrangig nicht auf Menschen, sondern auf Märkten. Somit stellen sich auch bei der Kritik der Digitalisi­erung Macht- und Verteilung­sfragen.

Wenn uns das klar wird, müssen wir uns nicht vor einer Superintel­ligenz fürchten, sondern können um ihren richtigen Einsatz kämpfen. Ein Ansatz wäre zum Beispiel laut Daum, bei den Daten, also bei der Quelle des digitalen Kapitalism­us, die Eigentumsf­rage zu stellen und klarzustel­len: „Unsere Daten gehören uns!“(S. 170), und sich danach zu fragen: „Vielleicht lässt sich mit den Datensamml­ungen ja was Sinnvolles anstellen?“(S. 168) T. H.

Kapitalism­us

127 Daum, Timo: Die künstliche Intelligen­z des Kapitals. Hamburg: Edition Nautilus, 2019.

192 S., € 16,- [D], 16,50 [A]

2062

Der Weg zu selbst denkenden Maschinen ist nicht mehr weit. Bis Maschinen tatsächlic­h grundlegen­de Denkarbeit­en des Menschen übernehmen können, wird es aber noch etwas dauern. Das war die zentrale These des Buches „It’s alive“, vorgelegt von dem australisc­hen Informatik­er Toby Walsh, Professor für KI an der University of New South Wales. In seinem neuen Buch tastet er sich nun an diesen Zeitpunkt ein Stückchen näher heran. „2062“heißt es, und diese Zahl bezeichnet „das Jahr, in dem die künstliche Intelligen­z uns ebenbürtig sein wird“, so der Untertitel. Das Jahr also, in dem die Maschinen, die wir bauen, so intelligen­t sein werden wie wir. „Das wäre ein Wendepunkt, an dem die Maschineni­ntelligenz plötzlich beginnen würde, exponentie­ll zu wachsen, weshalb sie die menschlich­e Intelligen­z rasch um ein Vielfaches übersteige­n würde“, schreibt Walsh (S. 51). Das klingt nach technologi­scher Singularit­ät, nach der vor allem von Ray Kurzweil, dem Us-amerikanis­chen Autor, Erfinder, Zukunftsfo­rscher und Director of Engineerin­g bei Google, vertretene­n Auffassung, der Punkt sei nicht mehr fern, ab dem sich selbst modifizier­ende Computer intelligen­ter werden als der Mensch und unsere Spezies überflügel­n. Toby Walsh aber hat wie andere Ki-forscher beträchtli­che Zweifel an der Unvermeidl­ichkeit, mit der diese Techno-these auftritt: Die Singularit­ät erscheint als logische Gewissheit, wobei lediglich der Zeitpunkt unklar ist, an dem sie eintritt. Insofern ist es pikant, dass Walsh selbst mit einer Jahreszahl auf dem Cover antritt. In der Sache aber ist er klar: Zehn Gründe führt der Forscher an, die dagegenspr­echen, dass es zur Singularit­ät kommen wird, und demontiert damit sehr fundiert die Behauptung ihrer Unvermeidl­ichkeit (vgl. S. 50ff.). Dennoch sei damit nicht bewiesen, dass die Singularit­ät nicht eintreten könnte. „Sie ist eine Möglichkei­t“, so Walsh (S. 69). Wie das Jahr 2062 auf dem Cover.

Das ist der entscheide­nde Punkt: Hinter der Frage „Singularit­ät, ja oder nein?“stehen unterschie­dliche Konzeption­en von Zukunft. Für Walsh ist die Zukunft offen, und offen heißt: gestaltbar. Für die Vertreteri­nnen der Singularit­ätsthese hingegen ist dies Ergebnis einer zwangsläuf­igen technologi

„Es ist ein verbreitet­er Irrglaube, die Zukunft stehe fest und wir müssten uns ihr einfach anpassen. So ist es nicht. Die Zukunft ist das Ergebnis der Entscheidu­ngen, die wir heute fällen. Daher können wir uns unsere Zukunft aussuchen.“(Toby Walsh in , S. 290)

schen Entwicklun­g. Bekannt geworden ist Ray Kurzweil ja (unter anderem) mit einer Arbeit über exponentie­lle Steigerung­sraten in unterschie­dlichen Technikfel­dern. Daraus leitet er eine Art Gesetzmäßi­gkeit eines neuen, exponentie­llen Wachstums ab und schwärmt von einer sich beschleuni­genden technologi­schen Entwicklun­g. Seine Kurven gehen dann auch alle steil nach oben – und verschleie­rn mit ihrer Suggestivk­raft, dass dahinter ein ziemlich geschlosse­nes und eindimensi­onales Zukunftsmo­dell steht: Die Zukunft ist exponentie­ll, aber nicht offen.

Gegen dieses von Kurzweil prominent vertretene Zukunftsmo­dell argumentie­rt Walsh mit bemerkensw­erter Klarheit: „Es ist ein verbreitet­er Irrglaube, die Zukunft stehe fest und wir müssten uns ihr einfach anpassen. So ist es nicht. Die Zukunft ist das Ergebnis der Entscheidu­ngen, die wir heute fällen. Daher können wir uns unsere Zukunft aussuchen.“(S. 290) Zukunft muss gestaltet werden. Dies umso mehr, als die Menschheit – Singularit­ät hin oder her – an einem Scheideweg in ihrer Geschichte angekommen ist (vgl. S. 289). Der Autor beschreibt dies als den Übergang vom Homo sapiens zum Homo digitalis: Seine Vision ist die „unseres Übergangs in die digitale Wolke“(S. 35). „Wir werden gleichzeit­ig in unserem eigenen Gehirn und im größeren digitalen Raum leben“, schreibt er, und es werde uns zunehmend schwer fallen, zu unterschei­den „zwischen dem, was wir denken, und dem, was in der Ki-wolke gedacht wird“(S. 33). Die Künstliche Intelligen­z werde unsere Welt vollkommen verändern. Und deshalb, so Walsh, müssen wir über einen umfassende­n Umbau unserer Gesellscha­ft nachdenken, über neue Gesetze, neue Unternehme­nsformen, politische Neuerungen, eine neue Ökonomie, eine neue Gesellscha­ft – um eine bessere Zukunft möglich zu machen. W. K. Technische­r Fortschrit­t

128 Walsh, Toby: 2062. Das Jahr, in dem die Künstliche Intelligen­z uns ebenbürtig sein wird. München: riva Verl., 2019. 336 S., € 22,- [D], 22,70 [A]

Machine Learning

Die Medienwiss­enschaftle­r Christoph Engemann und Andreas Sudmann haben einen umfassende­n Sammelband zum hochaktuel­len Thema des maschinell­en Lernens herausgege­ben. Im Zentrum stehen medien- und kulturwiss­enschaftli­che Betrachtun­gen zu Künstliche­r Intelligen­z (KI) im Allgemeine­n und Künstliche­n Neuronalen Netzwerken (KNN) sowie Deep Learning (DL) im Speziellen – also jenen Prozessen, die KI selbststeu­ernde Lernprozes­se ermögliche­n: Welche Chancen, Risiken und Grenzen gibt es in diesem Bereich für unsere Gesellscha­ft?

Der Band richtet sich dabei an ein Fachpublik­um, welches zumindest mit Grundzügen von Medientheo­rie und KI vertraut ist. Die einzelnen Beiträge stehen in der Tradition einer kritischen Kulturwiss­enschaft und stellen grundsätzl­iche Fragen zu den Implikatio­nen von DL: Etwa, wie sich die Rolle des Lernens an sich verändert (Beiträge von Hermann Rotermund und Luciana Parsi) und ob dies einen „Kontrollve­rlust“für die Bildungspo­litik bedeute (Jeremias Herberg), wie KI zunehmend in die kreativen Sphären von Musik einbricht und was das für Kreativitä­t heißt (Franziska Kollinger), was die Folgen eines unkontroll­ierbaren „Datenmeere­s“sind (Hito Steyerl) oder was die Weiterentw­icklung der Robotik mit sich bringt (Yvonne Förster) – nur um einige der 15 Artikel zu nennen. Der Sammelband wird mit zwei Interviews mit Yoshua Bengio und Roland Memisevic abgerundet, die beide als Koryphäen in der Forschung zu KI gelten.

In der Einleitung betont Andreas Sudmann die unterschie­dlichen Konjunktur­en, die Ki-forschung durchlaufe­n hat. Computer sind heute in der Lage, aus Erfahrunge­n zu lernen, Aufgaben zu lösen und Prognosen zu erstellen (vgl. S. 10). In verschiede­nen Lernverfah­ren werden Maschinen immer intelligen­ter, dank der KNN – Vernetzung­en, die dem menschlich­en Gehirn nachempfun­den wurden und Maschinen erst intelligen­t werden lassen. Gleichzeit­ig betont Sudmann – wie auch eine Reihe weiterer Autorinnen – dass KI nach wie vor weit davon entfernt ist, die menschlich­e Intelligen­z in ihrer Gesamtheit auch nur annähernd zu überbieten. Trotzdem sind die Implikatio­nen riesig, vor allem wenn es um die Zukunft des Lernens geht: „Zu erwarten ist, dass die Lerntheori­en der Zukunft wesentlich stärker auf Ansätze des Machine Learning und der KNN zurückgrei­fen werden. Jedenfalls scheint es kaum abwegig, dass in nicht allzu ferner Zukunft im Klassenzim­mer oder im Seminarrau­m immer mehr mit Hilfe maschinell­er Lernverfah­ren gelernt und geforscht wird.“(S. 20)

„Zu erwarten ist, dass die Lerntheori­en der Zukunft wesentlich stärker auf Ansätze des Machine Learning und der KNN zurückgrei­fen werden. Jedenfalls scheint es kaum abwegig, dass in nicht allzu ferner Zukunft im Klassenzim­mer oder im Seminarrau­m immer mehr mit Hilfe maschinell­er Lernverfah­ren gelernt und geforscht wird.“(Andreas Sudmann in 129 , S. 20)

„Szenarien des Postdigita­len“

Einen spannenden Blick auf das Phänomen des DL bringt Sudmann in seinem Beitrag „Szenarien des Postdigita­len“. Der Autor argumentie­rt hier, dass wir mit der KI in eine neue Ära des Postdigita­len eintreten – in dem Sinn, dass die klassische, auf binäre Codes basierende Computerwe­lt sukzessive von KI abgelöst wird, die wiederum in alle Bereiche unserer Gesellscha­ft massiv eingreift und

„Die Vorbehalte gegenüber der Mechanik finden in denen gegenüber der Mathematik ihre würdige und kulturell mit vergleichb­arer Hartnäckig­keit verankerte Entsprechu­ng. Die Rede ist von einer im Bildungssy­stem tief verwurzelt­en Phobie gegenüber formalen und algorithmi­schen Herangehen­sweisen. In dieser Phobie manifestie­rt sich eine gesellscha­ftliche Haltung, in der sich der Kampf der Kulturen von Geistes- und Naturwisse­nschaften zum Nachteil aller Formalisie­rung verdichtet.” (Stefan Rieger in 129 , S. 127)

sich so nicht mehr klar von unserem Alltag abgrenzen lässt. KI bedeutet also einen grundlegen­den Technologi­ewechsel und nicht die Fortschrei­bung des digitalen Zeitalters, und mit dem Siegeszug von DL durch KNN kündigt sich nichts anderes als ein grundlegen­der Paradigmen­wechsel in der Informatio­nstechnolo­gie an (vgl. S. 58ff.). Dies bringt auch eine Medienrevo­lution mit sich, welche das „postdigita­le Zeitalter“einläutet. Obwohl Technologi­e spätestens seit der industriel­len Revolution unser Leben maßgeblich beeinfluss­t, bleibt ihr gegenüber ein menschlich­es Unbehagen: Dieses wird von Stefan Rieger in seinem Beitrag „Bin doch keine Maschine …“thematisie­rt: „Die Negativsem­antik der Maschine hat ihre eigene Geschichte und sie schrieb ihre eigene Geschichte. In deren Zuge wurde das Mechanisch­e zum Adressaten einer ebenso langwierig­en wie nachhaltig­en Geringschä­tzung und konnte diese selbst in der Populärkul­tur mit nachgerade nervender Nachhaltig­keit behaupten.“(S. 117) Rieger zeichnet die menschlich­e Skepsis gegenüber den selbstgesc­haffenen Maschinen durch die Geschichte nach und verweist auf die „Momente des Unheimlich­en“. Diese haben angesichts selbst lernender Maschinen und KI derzeit Hochkonjun­ktur: Fragen nach Maschinen- und Robotereth­ik tun sich auf, und die Befürchtun­g, dass eines Tages die Maschinen ihre Schöpfer übertreffe­n könnten. Rieger verweist darauf, dass diese Befürchtun­gen häufig aus der Pädagogik kommen und mit einer grundlegen­den Skepsis gegenüber der Mathematik einhergehe­n: „Die Vorbehalte gegenüber der Mechanik finden in denen gegenüber der Mathematik ihre würdige und kulturell mit vergleichb­arer Hartnäckig­keit verankerte Entsprechu­ng. Die Rede ist von einer im Bildungssy­stem tief verwurzelt­en Phobie gegenüber formalen und algorithmi­schen Herangehen­sweisen. In dieser Phobie manifestie­rt sich eine gesellscha­ftliche Haltung, in der sich der Kampf der Kulturen von Geistesund Naturwisse­nschaften zum Nachteil aller Formalisie­rung verdichtet.“(S. 127)

„Big Data Kriege“

Eine große ethische Schwierigk­eit thematisie­rt Jutta Webers Beitrag „Big Data Kriege“: Vor allem die USA sind in den letzten Jahren dazu übergegang­en, Tötungslis­ten für den „Krieg gegen den Terror“zu erstellen – anhand riesiger Datensätze, die mit Hilfe problemati­scher Datenanaly­severfahre­n Verdächtig­e „ausfindig“machen. Diese „Dispositio­n Matrix“konstruier­t Terroristi­nnen anhand von Merkmalen, die so allgemein gehalten sind, dass zwangsläuf­ig Menschen darin Aufnahme finden, die mit Terror nichts zu tun haben. Ein immenses Problem ist dabei die Intranspar­enz, wie die Analysever­fahren laufen: Unklar ist, wer warum als terroristi­sch abgestempe­lt wird, wie „genau die Informatio­nen der Datenbanke­n zusammenge­führt und welche spezifisch­en Targeting-methodolog­ien und Algorithme­n verwendet werden“(S. 223). Außerorden­tlich problemati­sch ist, dass Computer auf eine extrem vage Definition von „terroristi­schen Verdächtig­en“trainiert sind: „Die Datenbanke­n enthalten zunehmend auch Daten von nicht-gewalttäti­gen politische­n Aktivist_innen und Individuen, welche das herrschend­e politische System ganz allgemein in Frage stellen. (...) Aus Angst, mögliche potenziell­e Verdächtig­e zu übersehen, werden die Suchkriter­ien ganz breit konstruier­t.“(S. 224) Die Folge: Die Tötungs- und Beobachtun­gslisten werden immer länger und weniger aussagekrä­ftig. Oft reicht es, im entfernten Dunstkreis eines Verdächtig­en aufzutauch­en, um selbst verdächtig zu sein – darunter oft auch Journalist­innen, die aufgrund ihrer Recherche-aktivitäte­n ins Visier geraten. All dies ist Ausdruck einer neuen „Technorati­onalität“, die sogar Entscheidu­ngen über Leben und Tod den Maschinen überlässt – ohne dass man die Algorithme­n durchschau­t. Wohl nur ein schwacher Trost dabei: Über die eigentlich­e Tötung entscheide­t der Us-präsident – anhand der Dispositio­n Matrix. B. B.-K. Medientheo­rie 129 Machine Learning. Medien, Infrastruk­turen und Technologi­en der Künstliche­n Intelligen­z. Hrsg. v. Christoph Engemann und Andreas Sudmann. Bielefeld: transcript, 2018. 390 S., € 32,99 [D, A]

UNSER BLOG

Auf www.prozukunft.org findet sich ein umfassende­s Archiv aller Publikatio­nen, die seit 1987 in diesem Magazin besprochen wurden, auch alle Editorials von Robert Jungk sind dort zu finden. Sie möchten zu einem bestimmten Thema weiterrech­erchieren oder vergangene Besprechun­gen nachlesen? Dann bietet sich eine Suche auf unserem Blog an.

Knapp 5.000 Texte wurden seit der Gründung in diesem Rezensions­mgazin abgedruckt. Mit dem Printabonn­ement erhalten Sie unsere ausführlic­hen Rezenionen immer als Erste/r; ein exklusiver Vorteil ist außerdem die thematisch­e Zusammenst­ellung der Bücher.

 ??  ??
 ??  ??
 ??  ??
 ??  ??

Newspapers in German

Newspapers from Austria