Moratorium: KI-Entwicklung soll sechs Monate Pause machen
In einem offenen Brief fordern Tech-Größen wie Elon Musk und Steve Wozniak ein sechsmonatiges Entwicklungsmoratorium für Künstliche Intelligenz. Es sei dringend an der Zeit, über die Sicherheit von KI zu diskutieren.
In einem offenen Brief mit dem Titel „Pause Giant AI Experiments: An Open Letter“fordert das US-amerikanische Future of Life Institute (FLI) einen sechsmonatigen Entwicklungsstopp für KI-Systeme, die leistungsfähiger als GPT-4 sind. Die Liste der Unterstützer wird immer länger. Zum Redaktionsschluss am 12. April hatten schon über 20.000 Menschen das Moratorium unterzeichnet.
Zu den Unterzeichnern zählt auch Elon Musk, der als Berater des Instituts fungiert. Glaubt man der Nachrichtenagentur Reuters, so ist Musk ferner der größte Geldgeber der Organisation. Neben dem streitbaren Tesla-Gründer und KIKritiker, der als Dritter den Aufruf unterschrieb, stehen auf der Liste auch Tech-Größen wie der Apple-Mitbegründer Steve Wozniak, der KIPionier Yoshua Bengio, aber auch der bekannte Autor und Professor an der Hebrew University of Jerusalem Yuval Noah Harari sowie Emad Mostaque, CEO von Stability AI, das selbst mit Stable Diffusion einen quelloffenen DeepLearning-Text-zu-Bild-Generator entwickelt hat.
KI-Systeme mit einer dem Menschen ebenbürtigen Intelligenz bildeten ein erhebliches Risiko für die Menschheit und könnten einen tiefgreifenden Wandel in der Geschichte des Lebens auf der Erde darstellen, heißt es in dem Moratorium. Deren Entwicklung sollte daher mit entsprechender Sorgfalt geplant und gesteuert werden. Genau das passiere jedoch nicht. Stattdessen hätten sich KI-Labors auf der ganzen Welt in den vergangenen Monaten auf einen außer Kontrolle geratenen Wettlauf um die Entwicklung und den Einsatz immer leistungsfähigerer KI-Modelle eingelassen – Modelle, die nicht einmal ihre Erfinder verstehen, vorhersagen oder zuverlässig kontrollieren könnten.
Die Autoren fragen:
➜ Sollen wir zulassen, dass Maschinen unsere Informationskanäle mit Propaganda und Unwahrheiten überfluten?
➜ Sollen wir alle Jobs automatisieren, auch
die erfüllenden?
➜ Sollten wir nicht-menschliche Intelligenzen entwickeln, die uns irgendwann zahlenmäßig überlegen sind und uns überflüssig machen?
➜ Sollen wir den Verlust der Kontrolle über
unsere Zivilisation riskieren?
Die Antworten auf diese Fragen dürfe man nicht den großen Tech-Anbietern überlassen, warnen die Unterzeichner. „Leistungsstarke KI-Systeme sollten erst dann entwickelt werden, wenn wir sicher sind, dass ihre Auswirkungen positiv und ihre Risiken überschaubar sind“, steht in dem offenen Brief. „Deshalb fordern wir alle KI-Labors auf, das Training von KISystemen, die leistungsfähiger sind als GPT-4,
sofort für mindestens sechs Monate zu unterbrechen.“Diese Pause sollte öffentlich und überprüfbar sein und alle wichtigen Akteure einbeziehen. Wenn eine solche Pause nicht schnell umgesetzt werden könne, sollten die Regierungen eingreifen und ein Moratorium verhängen.
Als generellen Bann von KI-Systemen wollen die Autoren ihren Aufruf nicht verstanden wissen. Es gehe vielmehr darum, den gefährlichen Wettlauf zu immer größeren, unberechenbaren Black-Box-Modellen zu stoppen. Deshalb sollten die KI-Entwickler die Pause nutzen, um gemeinsam eine Reihe von Sicherheitsprotokollen zu entwickeln und umzusetzen. Diese müssten von unabhängigen externen Experten streng geprüft und beaufsichtigt werden.
Politische Verwerfungen durch KI
Parallel dazu müssten die KI-Schmieden mit den politischen Entscheidungsträgern zusammenarbeiten, um die Entwicklung robuster KI-Governance-Systeme drastisch zu beschleunigen. Diese sollten Folgendes umfassen:
➜ fähige Regulierungsbehörden, die sich
speziell mit KI befassen;
➜ die Überwachung und Verfolgung hoch
leistungsfähiger KI-Systeme;
➜ Herkunfts- und Wasserzeichensysteme, die dabei helfen, echte von synthetischen Daten zu unterscheiden;
➜ ein robustes Prüfungs- und Zertifizierungssystem;
➜ Haftung für durch KI verursachte Schäden;
➜ eine solide öffentliche Finanzierung der technischen KI-Sicherheitsforschung und
➜ gut ausgestattete Institutionen zur Bewältigung der dramatischen wirtschaftlichen und politischen Verwerfungen, die KI verursachen wird – insbesondere für die Demokratie.
Die KI-Forschung und -Entwicklung sollte sich darauf konzentrieren, die heutigen leistungsfähigen, hochmodernen Systeme genauer, sicherer, interpretierbarer, transparenter, robuster, abgestimmter, vertrauenswürdiger und loyaler zu machen, lautet das Fazit des Moratoriums. Dann könne die Menschheit mit KI im Idealfall eine blühende Zukunft genießen.
„Das Moratorium ist selbst ein Risiko“
Der Aufruf des FLI hat in der deutschen Forschungslandschaft viel Kritik hervorgerufen, wie ein Umfrage des Science Media Center gezeigt hat. „Das Moratorium, das Risiken durch KI abwenden will, ist selbst ein Risiko“, sagt Thilo Hagendorff, Forschungsgruppenleiter am Interchange Forum for Reflecting on Intelligent Systems (SRF IRIS) der Universität Stuttgart. Niemand könne wirklich beurteilen, ob es weniger riskant sei, Sprachmodelle vorerst nicht zu verbessern, als sie weiter zu verbessern. Bedenken, dass KI-Systeme in absehbarer Zeit eine existentielle Gefahr für die Menschheit darstellen, nennt Hagendorff übertrieben. „Das Moratorium suggeriert völlig übertriebene Fähigkeiten von KI-Systemen und stilisiert sie zu mächtigeren Werkzeugen, als sie eigentlich sind.“
Kristian Kersting, Leiter des Fachgebiets Maschinelles Lernen an der Technischen Universität Darmstadt, spricht von „Angstmacherei, die den öffentlichen Diskurs auf hypothetische Risiken einer ,Konkurrenzintelligenz‘ lenkt und aktuelle Risiken beim Einsatz von KI-Systemen ignoriert.“Kersting will den Brief aktuell nicht unterschreiben. Eine sechsmonatige Pause werde nicht funktionieren und sei die falsche Maßnahme. Sie bevorteile die Firmen, die solche Modelle bereits haben. „Wir müssen lernen, KI-Systeme sorgfältiger einzusetzen, anstatt die (öffentliche) Forschung daran zu stoppen. Das Problem ist nicht, dass KI-Systeme aktuell oder in naher Zukunft zu intelligent sind – sie sind eher zu dumm.“
Hinrich Schütze, Inhaber des Lehrstuhls für Computerlinguistik und Direktor des Centrums für Informations- und Sprachverarbeitung an der Ludwig-Maximilians-Universität München (LMU), hält das Moratorium für Aktionismus, der nichts bringt. „China wird sich sicher nicht daran halten und die Forschung bei großen Firmen wird auch ungezügelt weitergehen. Man müsse so schnell wie möglich die Large Language Models (LLMs) wissenschaftlich verstehen, um zu lernen, wie man sie zum Wohl der Menschheit einsetzen könne. Das funktioniere allerdings nicht, wenn ihre Weiterentwicklung willkürlich hinausgeschoben werde. „Schließlich sollten wir ehrlich sein“, sagt Schütze. „OpenAI, Microsoft und Google sind zwar Wirtschaftsunternehmen, die primär Geld verdienen wollen. Aber ich habe mehr Vertrauen zu ihnen als zu undemokratischen Regimen und kriminellen Organisationen.“
Ein Witz, dass Elon Musk unterschrieben hat
Vor allem die Beteiligung von Tesla-Gründer Elon Musk an dem Moratorium sorgt für viel Häme. Jessica Heesen, Leiterin des Forschungsschwerpunkts Medienethik und Informationstechnik am Internationalen Zentrum für Ethik in den Wissenschaften der Eberhard Karls Universität Tübingen, hält es für einen „Witz, dass hier Elon Musk unterschrieben hat, der sich als Unternehmer durch besonders unmoralisches Verhalten hervorgetan hat“. Matthias Kettemann, Professor für Innovationsrecht an der Universität Innsbruck hält es für „unauthentisch, dass gerade jene – wie etwa Elon Musk –, die Ethik-Expertise abbauen und KI-EthikTeams auflösen nun nach mehr ethischen Standards rufen.“
„Angstmacherei, die den öffentlichen Diskurs auf hypothetische Risiken einer ‚Konkurrenzintelligenz‘ lenkt und aktuelle Risiken beim Einsatz von KI-Systemen ignoriert.“
Kristian Kersting, Leiter des Fachgebiets Maschinelles Lernen an der Technischen Universität Darmstadt