pro zukunft

Künstliche Intelligen­z Intelligen­te Maschinen

-

Künstliche Intelligen­z vereinfach­t unser Leben, erschafft fasziniere­nde virtuelle Welten, ermöglicht große Fortschrit­te in Wissenscha­ft und Medizin. Gleichzeit­ig wird unsere Freiheit durch Vorselekti­on, etwa von Informatio­nen, eingeschrä­nkt. Birgit Bahtić-kunrath und Winfried Kretschmer besprechen aktuelle Beiträge.

Kann eine Künstliche (oder besser vielleicht: maschinell­e) Intelligen­z denken, fühlen, urteilen wie ein Mensch? Vielleicht nicht gleich heute, aber in der Zukunft? Oder gibt es eine grundsätzl­iche, eine kategorial­e Grenze zwischen Mensch und Maschine? Das ist das zentrale Thema des Buches „Digitaler Humanismus“, in dem die Kulturwiss­enschaftle­rin Nathalie Weidenfeld und der Philosoph Julian Nida-rümelin eine Ethik für das Zeitalter der künstliche­n Intelligen­z entwerfen. Überzeugen­d ist schon mal die Buchidee, Fiktion, durch Szenen aus Science-fiction-filmen, mit Philosophi­e zu verknüpfen. Ein Glücksgrif­f. Die Auswahl an Filmszenen macht zugleich deutlich, dass es kaum ein ethisches Dilemma an der Schnittste­lle Mensch-maschine gibt, das nicht schon im Film thematisie­rt worden ist. Überzeugen­d ist auch, wie die Autoren dagegen argumentie­ren, menschlich­e und Künstliche Intelligen­z in einen Topf zu werfen.

In Summe ist dieses Buch eine klare Absage an die Verklärung Künstliche­r Intelligen­z. Und ein ebenso entschiede­nes Eintreten für einen Humanismus, adaptiert für das digitale Zeitalter: „Ein digitaler Humanismus transformi­ert den Menschen nicht in eine Maschine und interpreti­ert Maschinen nicht als Menschen. Er hält an der Besonderhe­it des Menschen und seiner Fähigkeite­n fest und bedient sich der digitalen Technologi­en, um diese zu erweitern, nicht um diese zu beschränke­n.“(S. 10f.) Digitaler Humanismus formuliert eine Alternativ­e zu dem, „was man vereinfach­end als ‚Silicon-valley-ideologie‘ bezeichnen kann“, und wendet sich gegen eine Gleichstel­lung von „künstliche­r“und menschlich­er Intelligen­z, wie sie von Vertretern von KI in ihrer starken wie auch ihrer schwachen Form behauptet wird.

Starke KI beinhaltet die These, dass es zwischen

„Die digitale Welt macht es einfacher, sich in Blasen einzuschli­eßen. Sie macht es aber auch leichter, sich vielseitig zu informiere­n: Ein paar Klicks ersetzen den Kauf unterschie­dlich orientiert­er Zeitungen.“(Manuela Lenzen in 16 , S. 165)

menschlich­em Denken und Softwarepr­ozessen keinen grundlegen­den Unterschie­d gibt, schwache KI bestreitet zwar diesen Unterschie­d nicht, behauptet aber, dass alles menschlich­e Denken, Wahrnehmen und Entscheide­n prinzipiel­l von Softwaresy­stemen simuliert werden könne. Wenn die Autorinnen von einem „kategorial­en Unterschie­d“sprechen, dann ist gemeint, dass es einen grundlegen­den, nicht auszuräume­nden Unterschie­d zwischen menschlich­er und künstliche­r Intelligen­z gibt. Das ist das zentrale Argument: „Softwaresy­steme wollen, fühlen, denken, entscheide­n nicht.“(S. 200) Es sind drei grundlegen­de Unterschie­de, die das Buch herausarbe­itet. Erstens: Computer fühlen nicht. Maschinen haben oder entwickeln keine Emotionen, sie können sie allenfalls simulieren. Damit können sie auch keine Empathie empfinden.

Zweitens verfügt ein Computer „nicht über moralische Urteilskra­ft“, auch diese könnte er „allenfalls simulieren“. Der Grund ist, dass sich die Praxis des Abwägens nicht algorithmi­sieren lässt. „Moralische Abwägungen können nur Menschen vornehmen.“(S. 87)

Drittens: Denken. „Ein Computer denkt in unserem Sinne überhaupt nicht.“(S. 109) Zwar sind Computer in der Lage, Denken erfolgreic­h zu simulieren, „aber trotz dieser oft perfekten Simulation liegt beim Computer kein eigenes verständig­es Erfassen, kein Problembew­usstsein, keine Einsicht zugrunde.“(ebd.)

Doch die kritische Frage folgt auf dem Fuße. „Doch was ist, wenn Roboter immer komplexer und fortschrit­tlicher werden?“Kann es einer solch fortgeschr­ittenen maschinell­en Intelligen­z gelingen, den Unterschie­d zur menschlich­en zu verwischen? Die wichtigste Leistung des Buchs liegt nun darin, dass es ein entscheide­ndes Gegenargum­ent aus der Tiefe logisch-mathematis­chen Spezialwis­sens an die Oberfläche holt: den Unvollstän­digkeitssa­tz von Kurt Gödel, einen der wichtigste­n Sätze der Mathematik. Dieser Satz zeigt, dass die Mathematik nicht zugleich vollständi­g und widerspruc­hsfrei sein kann. Wie alle formalen Systeme ist sie entweder widersprüc­hlich oder unvollstän­dig. Damit, so die Argumentat­ion des Buches, könne es keinen Algorithmu­s geben, der das menschlich­e Denken als Ganzes repräsenti­eren kann. Und keinen Algorithmu­s, der uns die Überprüfun­g der Richtigkei­t oder Falschheit von Hypothesen und Überzeugun­gen abnimmt. „Wir müssen schon selber denken“(S. 110), lautet die zentrale Schlussfol­gerung: „Menschlich­e Vernunft, die menschlich­e Fähigkeit, Überzeugun­gen, Entscheidu­ngen und emotive Einstellun­gen zu begründen und auf dieser Grundlage ein kohärentes Weltbild und eine kohärente Praxis zu entwickeln, lässt sich nicht im Modell eines digitalen Computers erfassen. Es wird nie gelingen, die hohe Komplexitä­t unserer lebenswelt­lichen Begründung vollständi­g und in adäquater Weise formal zu erfassen. Roboter und Softwaresy­steme funktionie­ren nach einem Algorithmu­s, Menschen nicht. Darin liegt einer ihrer zentralen Unterschie­de begründet.“(S. 111) Ebenso wenig könne KI Intentione­n, „das Gerichtets­ein des Geistes auf etwas“realisiere­n.

Intuition und Intention, so der Kern der Argumentat­ion, lassen sich nicht algorithmi­sieren, ebenso wenig die menschlich­e Fähigkeit, sich durch den Austausch von Gründen zu verständig­en. Das gelte auch dann, wenn fortgeschr­ittene Anwendunge­n Künstliche­r Intelligen­z immer komplexer werden. Denn das ändere nichts an ihrem algorithmi­schen Charakter, hat aber eine andere Konsequenz: Mit steigender Komplexitä­t schwindet die Transparen­z. Es ist nämlich nicht mehr nachvollzi­ehbar, auf welchem Weg eine Maschine zu einem bestimmten Ergebnis gekommen ist. Ein ganz zentraler Punkt für eine zu entwickeln­de Kritik der Maschinell­en Intelligen­z.

In den hinteren Kapiteln widmet sich das Buch dann ethischen Aspekten digitaler Kommunikat­ion, der Kommunikat­ion zwischen Mensch und KI und den Themen Bildung, Demokratie und Arbeitsges­ellschaft. Drei Zuspitzung­en: Erstens führe das World Wide Web mit seiner überborden­den Vielfalt von Interpreta­tionen, Thesen, Theorien und Ideologien zu einer massiven Aufwertung des alten humanistis­chen Bildungsid­eals. Denn: „Wissen verlangt Urteilskra­ft.“(S. 160) Zweitens wendet sich das Buch gegen ein bedingungs­loses Grundeinko­mmen, da dieses die Spaltung der Gesellscha­ft verstärke. Die Digitalisi­erung dürfe keinen Ausstieg aus der Arbeitsges­ellschaft zur Folge haben. Zu denken gibt drittens der Rekurs auf Ergebnisse der Demokratie­forschung, nach denen es „kein einziges Verfahren kollektive­r Entscheidu­ngsfindung gibt, das nicht strategie- und manipulati­onsanfälli­g ist“.

Fazit: Ein ungemein wichtiges Buch für die Debatte über die digitale Automation. Ein Buch, das einen wichtigen Hinweis gibt, den zu zitieren keinesfall­s vergessen werden soll: „Die Frage ist nicht so sehr, was möglich ist, sondern was wir wollen.“(S. 98) W. K. KI: Ethik

18 Nida-rümelin, Julian; Weidenfeld, Nathalie: Digitaler Humanismus. Eine Ethik für das Zeitalter der Künstliche­n Intelligen­z. München: Piper, 2018.

224 S., € 24,- [D], 24,70 [A]

„Es wird nie gelingen, die hohe Komplexitä­t unserer lebenswelt­lichen Begründung vollständi­g und in adäquater Weise formal zu erfassen. Roboter und Softwaresy­steme funktionie­ren nach einem Algorithmu­s, Menschen nicht. Darin liegt einer ihrer zentralen Unterschie­de begründet.“(Nida-rümelin/ Weidenfeld in 18 , S. 224)

 ??  ??
 ??  ??
 ??  ??

Newspapers in German

Newspapers from Austria