Gibt es bald Roboterheere?
Wird die künstliche Intelligenz einmal klüger als wir? Und was tut man, damit sie nicht auf blöde Ideen kommt? Lukas Madl ist Experte für Ethik in der Kl.
Künsdiche Intelligenz ist -'., mittlerweile überall: Sie schlägt dir YouTube-Videos vor oder empfiehlt dir Songs, übersetzt Texte und schreibt auch welche (nicht diesen hier, versprochen!). Sie kann Autos steuern und Krebs erkennen. Doch: Sie bringt auch Gefahren mit sich. Lukas Madl beschäftigt sich mit Ethik in der KI. Unsere Kinderreporter Tarek und Vicky haben ihn interviewt (Bild unten).
Tarek und Vicky: Was ist Ethik?
Lukas: Über die Jahrhunderte haben sich Leute Gedanken gemacht, was es heißt, gut und richtig zu handeln, also so, dass es anderen und einem selbst langfristig guttut Jede Handlung kann etwas Gutes oder Schlechtes beitragen in der Welt.
Wie schlau ist die Kl?
Sie kann jedenfalls so tun, als wäre sie schlau. Der Mensch kann sie so benutzen, dass es für ihn Hilfestellungen gibt. Sie kann Dinge erkennen, die der Mensch nicht erkennen kann. Etwas daraus ableiten kann nur der Mensch.
Ein Unfallszenario bei einem autonom fahrenden Autos: Entweder eine alte Frau oder ein Kind wird getötet. Wie entscheidet die Kl?
Das nennt man Trolley-Problem. Wie würdest du dich als Mensch entscheiden? Der Wert eines Menschen kann nicht kalkuliert werden, er hat eine Würde. Egal, ob er jung oder alt ist, Kinder hat oder nicht. Alle haben die gleiche Würde. Man kann das nicht abwä... gen. Die Frage ist aber eine gute wenn es diese Autos gibt, muss die Maschine entscheiden. Und die muss von Menschen trainiert werden. Das ist ethisch sehr problematisch und fast nicht lösbar.
Kann die Kl böse werden, die Weltherrschaft übernehmen und alle Menschen töten?
Das ist eine sehr philosophische Frage. Manche sagen, das ist ein ScienceFiction-Szenario, das nie passieren wird. Andere meinen, das kann schon passieren. Kann die KI ein Bewusstsein, einen freien Willen entwickeln? Das ist die eine Seite der Frage. Die andere Seite ist, ob jemand, der etwas Böses vorhat, ein Diktator oder so, die KI für sich nutzen könnte und beispielsweise Roboterheere zusammenstellt.
Wer entscheidet über die Werte der Kl?
Eine KI darf nicht so handeln, dass sie junge Menschen manipuliert - dass sie auf schlechte Ideen kommen oder ganz traurig werden. Etwa in einer sprechenden Puppe, die eine schlechte Weltanschauung hat. Das wird gerade im Gesetz festgelegt. Oder: Chat GPT könnte eine Anleitung zum Bau einer Bombe geben - soll es aber nicht dürfen.