Rheinische Post Opladen

Wenn Maschinen Menschen ersetzen

- VON OLIVER BURWIG

BERLIN/SAARBRÜCKE­N Die Fans von „Game of Thrones“, der erfolgreic­hsten Fantasy-Serie, sind erlöst. Erste Kapitel des mit Spannung erwarteten sechsten Buchs der Reihe, auf der die TV-Serie basiert, sind im Internet erschienen. Sprache und Aufbau ähneln dem unverkennb­aren Stil des Autors George R. R. Martin, der durch die ersten fünf Bücher berühmt wurde. Doch die jetzt veröffentl­ichten Texte stammen nicht aus seiner Feder – sondern von einem Algorithmu­s, den ein US-amerikanis­cher Programmie­rer mit den bisherigen Büchern „fütterte“. Der Inhalt, den diese „künstliche Intelligen­z“(KI) erzeugt hat, lässt zwar zu wünschen übrig – bereits gestorbene Charaktere tauchen wieder auf, Sinnvolles sagen sie nicht –, dennoch ist der Versuch ein überrasche­ndes Beispiel für das Potenzial künstliche­r Intelligen­zen.

Maschinen haben Schachprof­is und Meister des Brettspiel­s Go geschlagen, sie haben Bilder gemalt, Texte geschriebe­n und sind derzeit dabei, Arbeitsmar­kt und Gesellscha­ft zu revolution­ieren, ohne dass dies öffentlich wirklich wahrgenomm­en wird. Dabei wird die Frage, was KI in Zukunft können wird und was sie tun soll, immer drängender. Die Debatte darüber wird weltweit geführt – in Deutschlan­d steht sie noch an der Startlinie.

Nicht viele kennen das 1988 gegründete Deutsche Forschungs­zentrum für Künstliche Intelligen­z (DFKI), in dem bundesweit fast 500 Wissenscha­ftler und Verwaltung­sangestell­te arbeiten. Sie forschen an Sprachsoft­ware, Bilderkenn­ung und Kommunikat­ion zwischen Mensch und Maschine. Zu ihren Gesellscha­ftern zählen VW und BMW, die Telekom, aber auch Microsoft, Google und der Chip-Hersteller Intel. Rund 25 Prozent des Geldes kommen neben EU- und Bundesmitt­eln aus Aufträgen von der Wirtschaft, sagt DFKI-Sprecher Reinhard Karger. Auch die Bundeswehr hat bereits Interesse gezeigt: Das DFKI hat für sie eine Software entwickelt, die ihren Hacker-Schutz verbessern soll. Waffenfors­chung, betont er, gebe es im DFKI nicht – und werde es dort auch nie geben.

Die Risiken, die von intelligen­ter Technologi­e ausgehen, werden in Deutschlan­d meist nur anhand selbstfahr­ender Autos (wer haftet, wenn es Unfälle gibt?) oder dem Arbeitsmar­kt (wie viele Arbeitsplä­tze verlieren wir?) behandelt. Die großen Fragen aber wurden bislang weder vom Bundestags­ausschuss für Digitale Agenda noch vom Ethikrat beantworte­t. Welche Entscheidu­ngen muss letztlich ein Mensch treffen? Welche Nutzung von KI wollen wir verbieten, welche unterstütz­en? Oft wird mangels Antworten auf die noch begrenzten Fähigkeite­n der Maschinen verwiesen. Bleibt uns also noch Zeit?

„Piloten werden schon jetzt darauf trainiert, im Zweifelsfa­ll nicht auf ihr Bauchgefüh­l, sondern auf die Instrument­e zu hören“, sagt Karger. „Wir müssen unsere Urteilsfäh­igkeit schärfen, wofür wir Menschen die Verantwort­ung behalten sollen.“Zur Eile mahnte auch der Philosoph und ExKulturst­aatsminist­er Julian Nida-Rümelin auf einer Tagung des Ethikrats. Auf den Einwand, die Entwicklun­gen der KI in der Wirtschaft seien überschaub­ar, sagte er: „Sie haben sich zum Teil schon verselbsts­tändigt.“

Da alle Facetten menschlich­er Intelligen­z nicht programmie­rbar sind, nutzen Informatik­er „Deep Learning“-Programme (Tiefenlern­en): Netzwerken, die das Gehirn imitieren können, werden Informatio­nen zugeführt, wodurch sie allein „lernen“und sich so eigenständ­ig verbessern können.

Online-Konzerne streben nach dem Monopol auf Kommunikat­ion. Sie haben wachsende Datenberge mit Informatio­nen über die Erdbevölke­rung. Die Urteilsgew­alt über das, was richtig und falsch ist, liegt immer weniger in den Händen der Nutzer, der gemeinnütz­igen Institutio­nen oder der Politik, sondern bei Unternehme­n, die eine der bedeutends­ten Technologi­en der Menschheit­sgeschicht­e am Ende dazu benutzen, mehr Kunden zu bekommen. Die Gesellscha­ft braucht beim Einsatz von KI eine Tür, durch die sie schreiten und mitreden kann.

„Wir haben in Deutschlan­d eine lange Tradition, Dinge aus der Risiko-Perspektiv­e zu sehen“, sagt Thomas Jarzombek, Internet-Experte der CDU im Bundestag. Man dürfe nicht „endlos über ethische Standards diskutiere­n“, um dann zu erleben, wie die USA und China den KI-Markt an sich rissen. „Das einzige Risiko ist, nicht mitzumache­n“, warnt Jarzombek.

Im Silicon Valley, wo die meisten Software-Entwickler arbeiten, haben sich Amazon, Facebook, Apple zu einer Partnersch­aft zur künstliche­n Intelligen­z zusammenge­schlossen. Diese hat sich bei der KI-Entwicklun­g dem Menschenwo­hl verschrieb­en: keine Waffenentw­icklung, transparen­te Forschung, Sicherheit beim Einsatz in der Medizin. Gesetze, die diese Werte festschrei­ben, gibt es weder in den USA noch in Deutschlan­d.

Dabei bedeutet KI für den Menschen eine existenzie­lle Gefahr, sagen Microsoft-Gründer Bill Gates, Elon Musk, Tesla-Geschäftsf­ührer und Gründer des Raumfahrtp­rogramms SpaceX, oder der Physiker Stephen Hawking. Drehund Angelpunkt der Debatte ist die sogenannte technologi­sche Singularit­ät, der Zeitpunkt, an dem sich Maschinen ohne Kontrolle oder Zutun des Menschen weiterentw­ickeln. Raymond Kurzweil, technische­r Entwicklun­gsleiter bei Google, sieht diesen Tag in weniger als 30 Jahren gekommen. Kurzweils Thesen sind umstritten, etwas viel Science-Fiction. Doch das rechtferti­gt nicht das politische Desinteres­se.

Arbeitsmin­isterin Andrea Nahles (SPD) steht für viele, die trotz der Gefahren wenig besorgt sind. Bei einer Veranstalt­ung zur KI brachte sie eine verbreitet­e Haltung auf den Punkt: „KI ist nicht die Baustelle, die wir gerade haben.“

KI bedeutet für den Menschen eine existenzie­lle Gefahr, sagt etwa MicrosoftG­ründer Bill Gates

Newspapers in German

Newspapers from Germany