»Wir wissen nicht, was Maschinen lernen«
Seit 50 Jahren beschäftigt sich Klaus Mainzer mit der künstlichen Intelligenz. Nun ist sie greifbar nah, und der Mathematiker mahnt: Der Mensch darf die Kontrolle über die Maschinen nie verlieren.
Als Klaus Mainzer zum ersten Mal mit künstlicher Intelligenz (KI) zu tun hatte, galt das Farbfernsehen gerade als Höhepunkt des technologischen Fortschritts. Seit einem knappen halben Jahrhundert beschäftigt sich der deutsche Mathematiker und Philosoph damit, wie der Mensch die Maschinen intelligenter machen könnte. Noch Anfang der 2000er-Jahre winkten die Ingenieure an der TU München ab, als er ihnen mit leuchtenden Augen von seinen neuronalen Netzwerken erzählte. Heute werden seine Visionen langsam Realität. Anlass für blinde Euphorie sieht die KI-Koryphäe darin nicht. Bei allem Enthusiasmus ist Klaus Mainzer ein wacher Warner geblieben. Das Thema künstliche Intelligenz erlebt gerade wieder einen Hype. Zu Recht? Klaus Mainzer: Ich beschäftige mich seit fast einem halben Jahrhundert mit Algorithmen und künstlicher Intelligenz. Daher weiß ich, dass sich die Bedeutung des Begriffs oft verändert hat. Heute versteht man unter KI Maschinenlernen. Das ist im Wesentlichen Statistik, betrieben auf Rechenmodellen von neurona- len Netzwerken. Theoretiker wie ich kennen all das seit den 1980er-Jahren. Heute haben wir schlicht und ergreifend die Technik, um unsere Ideen von damals real werden zu lassen. Die Computer rechnen also endlich schnell genug, um intelligenter zu werden? Wir haben gewaltige Datenmassen. Vor einem Jahrzehnt hätte man die nie verarbeiten können. Heute gibt es superschnelle Algorithmen, die in Windeseile Korrelationen und Datenmuster suchen und abgleichen können. Und die sind überall. Kein Astronom blickt mehr wie Kepler in den Himmel. Er schickt Software los, um bestimmte Muster zu erkennen. Genauso passiert es im Teilchenbeschleuniger in Cern. Theoretisch ist das alles überschaubar. Es gibt schwierigere Probleme in der Mathematik als künstliche Intelligenz. Das Spannende ist, dass wir es auch in der Praxis anwenden können. Wissen wir eigentlich, was die Maschinen genau aus den Datenmassen lernen? Sie haben es auf den Punkt gebracht! Da gibt es weitgehend blinde Flecken. Wir wissen nicht genau, was die Maschinen lernen und was in diesen neuronalen Netzen abgeht. Das ist aber entscheidend, wenn es um moralische, ethische oder auch schlichte Haftungsfragen geht. Die Branche müht sich, Licht in die dunklen Kästen der neuronalen Netze zu bringen. Wenn wir nicht wissen, was die künstlichen Intelligenzen lernen: Wie können wir sie unter Kontrolle halten? Und sollen wir das überhaupt? Die Menschen müssen die Kontrolle behalten. Und zwar deshalb, weil es sonst zu Situationen wie bei der Finanz-