Die Angst geht um, die Angst vor der KI
Keine andere Technik polarisiert derzeit so extrem wie KI. Die einen sehen eine paradisische Zukunft, in der Maschinen alle Arbeit erledigen, andere warnen vor dem Ende der Menschheit.
Wir sind nicht vorbereitet. Es gibt keinen Plan, schreibt der KI-Forscher Eliezer Yudkowsky in einem Gastbeitrag für das Time-Magazin. Die Fortschritte bei den KI-Fähigkeiten lägen weit, weit vor dem Verständnis dessen, was in diesen Systemen eigentlich vor sich geht. „Wenn wir dies tatsächlich tun, werden wir alle sterben.“Derzeit warnen viele angesehene Autoren, Forscher und Unternehmer vor den nicht absehbaren Folgen der aktuellen KI-Entwicklungen. Immer größere Modelle und leistungsstärkere Algorithmen würden außer Kontrolle geraten und zwangsläufig das Ende der Menschheit heraufbeschwören. In einem Moratorium fordern sie einen sechsmonatigen KI-Forschungsstop (siehe Seite 30).
Das ist naiv. Wer sollte diesen Stop durchsetzen und auf welcher gesetzlichen Grundlage? Außerdem dürfte es praktisch unmöglich sein, eine solche Anordnung zu überwachen. Zumal Länder wie China, in denen es zur Doktrin des autokratischen Systems gehört, seine Bürgerinnen und Bürger mit Hilfe von Technik zu überwachen und jedweden kritischen Gedanken zu unterdrücken, sich von einem Forschungsverbot kaum beeindrucken lassen dürften.
Forschung zu verbieten ist und bleibt gefährlich. Das Gegenteil sollte passieren. Wir müssen mehr darüber erfahren, wie KI funktioniert und dabei helfen kann, die großen Probleme unserer Zeit zu lösen, und lernen, verantwortungsvoll damit umzugehen. Sicher braucht es dafür Regeln und auch einzelne Konzerne sollten in die Schranken gewiesen werden. Doch deshalb gleich die ganze Forschung lahmzulegen, wäre falsch. Kristian Kersting von der TU Darmstadt hat völlig recht, wenn er sagt: „Das Problem ist nicht, dass KI-Systeme zu intelligent sind – sie sind eher zu dumm.“Daran müssen wir arbeiten.
Herzlich, Ihr
Martin Bayer, Deputy Editorial Director