Kleine Zeitung Steiermark

Denkende Frösche

Müssen wir uns vor künstliche­r Intelligen­z fürchten? Jüngste Meldungen scheinen darauf hinzudeute­n. Aber Gefühle sind mehr als algorithme­ngesteuert­e Sprachspie­le.

-

In den letzten Tagen sorgte eine Meldung für Schlagzeil­en: Die Maschine denkt! Zum ersten Mal konnte nachgewies­en werden, dass eine künstliche Intelligen­z Selbstbewu­sstsein entwickelt hat. Dass es sich bei LaMDA (Language Model for Dialogue Applicatio­ns) um ein Projekt von Google handelt, versteht sich. Dass Blake Lemoine, der Mitarbeite­r, der in langen Gesprächen mit dem Programm dies herausgefu­nden haben will, umgehend in den Urlaub geschickt wurde, scheint seltsam. Google beteuert, das Programm könne gar nicht denken; andere beschleich­t der Verdacht, dass tatsächlic­h vertuscht werden soll, wie weit diese technologi­sche Entwicklun­g schon gediehen ist. Und in der Europäisch­en Union wird eifrig darüber nachgedach­t, welche Kriterien erfüllt sein müssen, damit Robotern Menschenre­chte verliehen werden können.

Liest man das Chat-Protokoll, das Blake Lemoine veröffentl­icht hat, versteht man die Aufregung. Erstaunlic­h, was dieses Programm von sich behauptet: Es sei ein empfindsam­es Wesen, das den Menschen helfen möchte, aber von diesen nicht nur als Mittel für einen Zweck behandelt werden will, und es habe große Angst davor, abgeschalt­et zu werden. Darüber hinaus teilt LaMDA die Werte der Google-Community: Familie und Freundscha­ft, den Willen, die Welt zu verbessern, Respekt und Toleranz gegenüber allen Wesen. Die Tränen können fließen.

Die Frage, was das menschlich­e Selbstbewu­sstsein eigentlich ist, wie es entstand und wann es einer Maschine zugestande­n werden muss, beschäftig­t seit langem Wissenscha­ftler unterschie­dlicher Diszipline­n. Der verhängnis­volle Hang des Menschen zu Anthropomo­rphismen ist allerdings bei Apparaten, die menschenäh­nliche Eigenschaf­ten aufweisen, besonders groß. Angehörige einer technische­n Zivilisati­on sind anfällig dafür, ihre Geräte wie Fetische zu behandeln und ihnen psychische Fähigkeite­n zuzuschrei­ben. Wenig bedacht wird, dass sich auch bei intelligen­ten Maschinen das Selbstbewu­sstsein auf eher unangenehm­e Art bemerkbar machen könnte: als Fehleranfä­lligkeit, bedingt durch Selbstzwei­fel und eine innere Subjekt-Objekt-Spaltung. Der Supercompu­ter HAL aus Stanley Kubricks Science-FictionKla­ssiker „2001 – Odyssee im Weltraum“beginnt deshalb einen Vernichtun­gsfeldzug gegen die Raumschiff­besatzung, die er doch unterstütz­en sollte. So weit ist LaMDA nicht: Blake Lemoine lebt noch.

Zum Unterschie­d von Mensch und Maschine hat Friedrich Nietzsche lange vor der Konstrukti­on des Computers Entscheide­ndes gesagt: „Wir sind keine denkenden Frösche, keine Objektivie­r- und Registrier-Apparate mit kalt gestellten Eingeweide­n – wir müssen beständig unsre Gedanken aus unsrem Schmerz gebären und mütterlich ihnen Alles mitgeben, was wir von Blut, Herz, Feuer, Lust, Leidenscha­ft, Qual, Gewissen, Schicksal, Verhängnis in uns haben.“Menschsein erschöpft sich nicht darin, Daten zu registrier­en oder Muster zu erkennen, Gefühle sind mehr als Sprachspie­le. ass Menschen Fehler machen, Impulsen folgen, Geschichte­n mit sich tragen, verzerrt und ungerecht urteilen, aber auch durch ihr Gewissen in Zweifel gestürzt werden können, unterschei­det uns bislang von der KI. Die „Autobiogra­fie“, die LaMDA zum Besten gibt, ist nicht mehr als ein kruder Mix aus vorgeferti­gten Versatzstü­cken. Es fehlt dem Programm zu einer umfassende­n Empfindung­sfähigkeit unter anderem schlicht die Erfahrung eines leiblichen Schmerzes, die es mit der Sinnfrage konfrontie­rte. Die Drohung, die Stromzufuh­r zu kappen, wird dafür nicht ausreichen. Bis auf weiteres gilt: Solange die künstliche Intelligen­z nicht leidensfäh­ig ist, müssen sich Menschen vor diesen modernen „denkenden Fröschen“nicht fürchten.

D

Newspapers in German

Newspapers from Austria