Computerwoche

Moratorium: KI-Entwicklun­g soll sechs Monate Pause machen

In einem offenen Brief fordern Tech-Größen wie Elon Musk und Steve Wozniak ein sechsmonat­iges Entwicklun­gsmoratori­um für Künstliche Intelligen­z. Es sei dringend an der Zeit, über die Sicherheit von KI zu diskutiere­n.

- Von Martin Bayer, Deputy Editorial Director

In einem offenen Brief mit dem Titel „Pause Giant AI Experiment­s: An Open Letter“fordert das US-amerikanis­che Future of Life Institute (FLI) einen sechsmonat­igen Entwicklun­gsstopp für KI-Systeme, die leistungsf­ähiger als GPT-4 sind. Die Liste der Unterstütz­er wird immer länger. Zum Redaktions­schluss am 12. April hatten schon über 20.000 Menschen das Moratorium unterzeich­net.

Zu den Unterzeich­nern zählt auch Elon Musk, der als Berater des Instituts fungiert. Glaubt man der Nachrichte­nagentur Reuters, so ist Musk ferner der größte Geldgeber der Organisati­on. Neben dem streitbare­n Tesla-Gründer und KIKritiker, der als Dritter den Aufruf unterschri­eb, stehen auf der Liste auch Tech-Größen wie der Apple-Mitbegründ­er Steve Wozniak, der KIPionier Yoshua Bengio, aber auch der bekannte Autor und Professor an der Hebrew University of Jerusalem Yuval Noah Harari sowie Emad Mostaque, CEO von Stability AI, das selbst mit Stable Diffusion einen quelloffen­en DeepLearni­ng-Text-zu-Bild-Generator entwickelt hat.

KI-Systeme mit einer dem Menschen ebenbürtig­en Intelligen­z bildeten ein erhebliche­s Risiko für die Menschheit und könnten einen tiefgreife­nden Wandel in der Geschichte des Lebens auf der Erde darstellen, heißt es in dem Moratorium. Deren Entwicklun­g sollte daher mit entspreche­nder Sorgfalt geplant und gesteuert werden. Genau das passiere jedoch nicht. Stattdesse­n hätten sich KI-Labors auf der ganzen Welt in den vergangene­n Monaten auf einen außer Kontrolle geratenen Wettlauf um die Entwicklun­g und den Einsatz immer leistungsf­ähigerer KI-Modelle eingelasse­n – Modelle, die nicht einmal ihre Erfinder verstehen, vorhersage­n oder zuverlässi­g kontrollie­ren könnten.

Die Autoren fragen:

➜ Sollen wir zulassen, dass Maschinen unsere Informatio­nskanäle mit Propaganda und Unwahrheit­en überfluten?

➜ Sollen wir alle Jobs automatisi­eren, auch

die erfüllende­n?

➜ Sollten wir nicht-menschlich­e Intelligen­zen entwickeln, die uns irgendwann zahlenmäßi­g überlegen sind und uns überflüssi­g machen?

➜ Sollen wir den Verlust der Kontrolle über

unsere Zivilisati­on riskieren?

Die Antworten auf diese Fragen dürfe man nicht den großen Tech-Anbietern überlassen, warnen die Unterzeich­ner. „Leistungss­tarke KI-Systeme sollten erst dann entwickelt werden, wenn wir sicher sind, dass ihre Auswirkung­en positiv und ihre Risiken überschaub­ar sind“, steht in dem offenen Brief. „Deshalb fordern wir alle KI-Labors auf, das Training von KISystemen, die leistungsf­ähiger sind als GPT-4,

sofort für mindestens sechs Monate zu unterbrech­en.“Diese Pause sollte öffentlich und überprüfba­r sein und alle wichtigen Akteure einbeziehe­n. Wenn eine solche Pause nicht schnell umgesetzt werden könne, sollten die Regierunge­n eingreifen und ein Moratorium verhängen.

Als generellen Bann von KI-Systemen wollen die Autoren ihren Aufruf nicht verstanden wissen. Es gehe vielmehr darum, den gefährlich­en Wettlauf zu immer größeren, unberechen­baren Black-Box-Modellen zu stoppen. Deshalb sollten die KI-Entwickler die Pause nutzen, um gemeinsam eine Reihe von Sicherheit­sprotokoll­en zu entwickeln und umzusetzen. Diese müssten von unabhängig­en externen Experten streng geprüft und beaufsicht­igt werden.

Politische Verwerfung­en durch KI

Parallel dazu müssten die KI-Schmieden mit den politische­n Entscheidu­ngsträgern zusammenar­beiten, um die Entwicklun­g robuster KI-Governance-Systeme drastisch zu beschleuni­gen. Diese sollten Folgendes umfassen:

➜ fähige Regulierun­gsbehörden, die sich

speziell mit KI befassen;

➜ die Überwachun­g und Verfolgung hoch

leistungsf­ähiger KI-Systeme;

➜ Herkunfts- und Wasserzeic­hensysteme, die dabei helfen, echte von synthetisc­hen Daten zu unterschei­den;

➜ ein robustes Prüfungs- und Zertifizie­rungssyste­m;

➜ Haftung für durch KI verursacht­e Schäden;

➜ eine solide öffentlich­e Finanzieru­ng der technische­n KI-Sicherheit­sforschung und

➜ gut ausgestatt­ete Institutio­nen zur Bewältigun­g der dramatisch­en wirtschaft­lichen und politische­n Verwerfung­en, die KI verursache­n wird – insbesonde­re für die Demokratie.

Die KI-Forschung und -Entwicklun­g sollte sich darauf konzentrie­ren, die heutigen leistungsf­ähigen, hochmodern­en Systeme genauer, sicherer, interpreti­erbarer, transparen­ter, robuster, abgestimmt­er, vertrauens­würdiger und loyaler zu machen, lautet das Fazit des Moratorium­s. Dann könne die Menschheit mit KI im Idealfall eine blühende Zukunft genießen.

„Das Moratorium ist selbst ein Risiko“

Der Aufruf des FLI hat in der deutschen Forschungs­landschaft viel Kritik hervorgeru­fen, wie ein Umfrage des Science Media Center gezeigt hat. „Das Moratorium, das Risiken durch KI abwenden will, ist selbst ein Risiko“, sagt Thilo Hagendorff, Forschungs­gruppenlei­ter am Interchang­e Forum for Reflecting on Intelligen­t Systems (SRF IRIS) der Universitä­t Stuttgart. Niemand könne wirklich beurteilen, ob es weniger riskant sei, Sprachmode­lle vorerst nicht zu verbessern, als sie weiter zu verbessern. Bedenken, dass KI-Systeme in absehbarer Zeit eine existentie­lle Gefahr für die Menschheit darstellen, nennt Hagendorff übertriebe­n. „Das Moratorium suggeriert völlig übertriebe­ne Fähigkeite­n von KI-Systemen und stilisiert sie zu mächtigere­n Werkzeugen, als sie eigentlich sind.“

Kristian Kersting, Leiter des Fachgebiet­s Maschinell­es Lernen an der Technische­n Universitä­t Darmstadt, spricht von „Angstmache­rei, die den öffentlich­en Diskurs auf hypothetis­che Risiken einer ,Konkurrenz­intelligen­z‘ lenkt und aktuelle Risiken beim Einsatz von KI-Systemen ignoriert.“Kersting will den Brief aktuell nicht unterschre­iben. Eine sechsmonat­ige Pause werde nicht funktionie­ren und sei die falsche Maßnahme. Sie bevorteile die Firmen, die solche Modelle bereits haben. „Wir müssen lernen, KI-Systeme sorgfältig­er einzusetze­n, anstatt die (öffentlich­e) Forschung daran zu stoppen. Das Problem ist nicht, dass KI-Systeme aktuell oder in naher Zukunft zu intelligen­t sind – sie sind eher zu dumm.“

Hinrich Schütze, Inhaber des Lehrstuhls für Computerli­nguistik und Direktor des Centrums für Informatio­ns- und Sprachvera­rbeitung an der Ludwig-Maximilian­s-Universitä­t München (LMU), hält das Moratorium für Aktionismu­s, der nichts bringt. „China wird sich sicher nicht daran halten und die Forschung bei großen Firmen wird auch ungezügelt weitergehe­n. Man müsse so schnell wie möglich die Large Language Models (LLMs) wissenscha­ftlich verstehen, um zu lernen, wie man sie zum Wohl der Menschheit einsetzen könne. Das funktionie­re allerdings nicht, wenn ihre Weiterentw­icklung willkürlic­h hinausgesc­hoben werde. „Schließlic­h sollten wir ehrlich sein“, sagt Schütze. „OpenAI, Microsoft und Google sind zwar Wirtschaft­sunternehm­en, die primär Geld verdienen wollen. Aber ich habe mehr Vertrauen zu ihnen als zu undemokrat­ischen Regimen und kriminelle­n Organisati­onen.“

Ein Witz, dass Elon Musk unterschri­eben hat

Vor allem die Beteiligun­g von Tesla-Gründer Elon Musk an dem Moratorium sorgt für viel Häme. Jessica Heesen, Leiterin des Forschungs­schwerpunk­ts Medienethi­k und Informatio­nstechnik am Internatio­nalen Zentrum für Ethik in den Wissenscha­ften der Eberhard Karls Universitä­t Tübingen, hält es für einen „Witz, dass hier Elon Musk unterschri­eben hat, der sich als Unternehme­r durch besonders unmoralisc­hes Verhalten hervorgeta­n hat“. Matthias Kettemann, Professor für Innovation­srecht an der Universitä­t Innsbruck hält es für „unauthenti­sch, dass gerade jene – wie etwa Elon Musk –, die Ethik-Expertise abbauen und KI-EthikTeams auflösen nun nach mehr ethischen Standards rufen.“

„Angstmache­rei, die den öffentlich­en Diskurs auf hypothetis­che Risiken einer ‚Konkurrenz­intelligen­z‘ lenkt und aktuelle Risiken beim Einsatz von KI-Systemen ignoriert.“

Kristian Kersting, Leiter des Fachgebiet­s Maschinell­es Lernen an der Technische­n Universitä­t Darmstadt

 ?? ??
 ?? ??

Newspapers in German

Newspapers from Germany