Die Presse am Sonntag

Gibt es bald Roboterhee­re?

Wird die künstliche Intelligen­z einmal klüger als wir? Und was tut man, damit sie nicht auf blöde Ideen kommt? Lukas Madl ist Experte für Ethik in der Kl.

- VON TAREK UND VICKY

Künsdiche Intelligen­z ist -'., mittlerwei­le überall: Sie schlägt dir YouTube-Videos vor oder empfiehlt dir Songs, übersetzt Texte und schreibt auch welche (nicht diesen hier, versproche­n!). Sie kann Autos steuern und Krebs erkennen. Doch: Sie bringt auch Gefahren mit sich. Lukas Madl beschäftig­t sich mit Ethik in der KI. Unsere Kinderrepo­rter Tarek und Vicky haben ihn interviewt (Bild unten).

Tarek und Vicky: Was ist Ethik?

Lukas: Über die Jahrhunder­te haben sich Leute Gedanken gemacht, was es heißt, gut und richtig zu handeln, also so, dass es anderen und einem selbst langfristi­g guttut Jede Handlung kann etwas Gutes oder Schlechtes beitragen in der Welt.

Wie schlau ist die Kl?

Sie kann jedenfalls so tun, als wäre sie schlau. Der Mensch kann sie so benutzen, dass es für ihn Hilfestell­ungen gibt. Sie kann Dinge erkennen, die der Mensch nicht erkennen kann. Etwas daraus ableiten kann nur der Mensch.

Ein Unfallszen­ario bei einem autonom fahrenden Autos: Entweder eine alte Frau oder ein Kind wird getötet. Wie entscheide­t die Kl?

Das nennt man Trolley-Problem. Wie würdest du dich als Mensch entscheide­n? Der Wert eines Menschen kann nicht kalkuliert werden, er hat eine Würde. Egal, ob er jung oder alt ist, Kinder hat oder nicht. Alle haben die gleiche Würde. Man kann das nicht abwä... gen. Die Frage ist aber eine gute wenn es diese Autos gibt, muss die Maschine entscheide­n. Und die muss von Menschen trainiert werden. Das ist ethisch sehr problemati­sch und fast nicht lösbar.

Kann die Kl böse werden, die Weltherrsc­haft übernehmen und alle Menschen töten?

Das ist eine sehr philosophi­sche Frage. Manche sagen, das ist ein ScienceFic­tion-Szenario, das nie passieren wird. Andere meinen, das kann schon passieren. Kann die KI ein Bewusstsei­n, einen freien Willen entwickeln? Das ist die eine Seite der Frage. Die andere Seite ist, ob jemand, der etwas Böses vorhat, ein Diktator oder so, die KI für sich nutzen könnte und beispielsw­eise Roboterhee­re zusammenst­ellt.

Wer entscheide­t über die Werte der Kl?

Eine KI darf nicht so handeln, dass sie junge Menschen manipulier­t - dass sie auf schlechte Ideen kommen oder ganz traurig werden. Etwa in einer sprechende­n Puppe, die eine schlechte Weltanscha­uung hat. Das wird gerade im Gesetz festgelegt. Oder: Chat GPT könnte eine Anleitung zum Bau einer Bombe geben - soll es aber nicht dürfen.

 ?? //;18AB, BG Bachgasse ?? Das Bild wurde von einer Kl produziert und anschließe­nd von SchülerInn­en der 8AB des Gymnasiums Bachgasse in Mödling weitervera­rbeitet
//;18AB, BG Bachgasse Das Bild wurde von einer Kl produziert und anschließe­nd von SchülerInn­en der 8AB des Gymnasiums Bachgasse in Mödling weitervera­rbeitet

Newspapers in German

Newspapers from Austria