„Niemand will humanoide Roboter bauen“
Maschinelle Intelligenz ist nur im kognitiven Bereich besser als die menschliche. Aus Erfahrung lernen können nur Menschen, sagt Wolfgang Wahlster, der Roboter nicht als Gefahr für Arbeitsplätze sieht.
INTERVIEW:
Standard: Glauben Sie, dass ein Roboter jemals eine mit Menschen vergleichbare Intelligenz entwickeln kann? Wahlster: Intelligenz hat viele Dimensionen. Es gibt die kognitive, die sensomotorische, es gibt die emotionale und die soziale Intelligenz. Im kognitiven Bereich ist es schon möglich, dass eine Maschine den Menschen übertrifft. Das haben wir bei Brettspielen gesehen, etwa bei Schach oder zuletzt bei Go. Jetzt kommt Poker, da braucht es weit mehr noch als kombinatorische Logik, da geht es auch um Psychologie. Ein Artificial-Intelligence-System kann man auch zum Bluffen bringen, aber das funktioniert noch nicht so gut wie bei Menschen, das haben wir bereits gesehen. Es gibt einige kognitive Aufgaben, wo die Maschine besser als der Mensch ist. Wenn es etwa darum geht, einen Chip mit mehreren Milliarden Transistoren zu scannen, ob er einen Fehler hat, da kann der Mensch auch nicht mithalten.
Standard: Wenn das so gut funktioniert: Warum sind Robotersysteme in der Sensomotorik so viel schlechter als Menschen? Wahlster: Es gibt ein Paradoxon der künstlichen Intelligenz. Was für den Menschen oft sehr schwierig erscheint, Mathematik, Massenspektrogramm in der Chemie auswerten – das können diese Systeme besser. Was der Mensch als leicht empfindet, da haben Maschinen aber Schwierigkeiten. Wissenschafter arbeiten seit vielen Jahren an einer künstlichen Hand, wir haben aber noch keine, die die Vielzahl an menschlichen Handbewegungen, vom Nähen zum Paukenschlag oder zum Boxkampf, ähnlich gut durchführt, wie das der Mensch kann. Wir bauen seit etlichen Jahren Fußballroboter, aber so gut wie ein Mensch kann diese Maschine immer noch nicht spielen. Computer können auch nicht emotional sein. Sie können nur Gefühle erkennen und zuordnen. In der Deutschen Telekom hat man ein solches System, um Anrufer, die stark frustriert sind, vorzureihen.
Standard: Ist es gar nicht möglich, Roboter die menschliche Sensomotorik zu lehren? Wahlster: Es gibt kein Naturgesetz, das besagt, dass das nicht funktionieren kann. Ich frage mich, ob es überhaupt notwendig ist: Das menschliche Gehirn ist ja nur zu einem Teil elektrisch determiniert. Es ist ja vor allem eine chemische Maschine, da laufen zahlreiche Prozesse ab, die von Hormonen überlagert sind. Kein Informatiker der Welt hat im Sinn, das nachzubauen. Niemand will einen humanoiden Roboter entwickeln, wie er einst in Perry Rhodan- Groschenromanen beschrieben wurde. Menschen gibt es genug. Die Forschung bemüht sich eher um Assistenzsysteme, um die Defizite des Menschen auszugleichen. Zum Beispiel, was Multitasking betrifft. Wir können zwei, drei Dinge gleichzeitig machen. Wenn es mehr wird, muss die künstliche Intelligenz helfen. Es geht um die sinnvolle Ergänzung von Mensch und Maschine.
Standard: Angesichts von Begriffen wie Industrie 4.0 herrscht ja große Sorge, Jobs an Roboter zu verlieren. Ist die Sorge nicht berechtigt? Wahlster: Ich habe eine Gegenthese. Überall dort, wo es viele Roboter gibt, haben wir eine geringe Arbeitslosigkeit. In Deutschland zum Beispiel haben wir eine hohe Roboterdichte. Überall dort, wo es wenige Roboter gibt, ist die Arbeitslosigkeit höher. Es ist ja auch klar: Durch die Verbindung von menschlicher und maschineller Intelligenz wird die Produktivität gesteigert. Das war zuletzt auch in Deutschland so. Der Roboter wartet als Butler, bis der Mensch fertig ist, und reicht ihm dann das nächste Teil.
Standard: Woran fehlt es Robotersystemen eigentlich noch? Wahlster: Roboter können zwar lernen, aber sie können nicht wie der Mensch ein episodisches Gedächtnis aufbauen und auf vorige Erfahrungen aufbauen. Nur so könnte man sie darauf einstellen, sich auch bei seltenen Ereignissen zurechtzufinden. Wenn wir auf der Straße fahren, und ein Kind läuft plötzlich zwischen den parkenden Autos hervor, bremsen wir hoffentlich rechtzeitig: Diese Erfahrung brennt sich in unser Gedächtnis ein. Die selbstfahrende Maschine merkt sich das nicht. Ein anderes Problem ist: Hochgezüchtete Systeme bieten zwar eine Lösung an, sie können es aber nicht erklären, warum das die beste aller Lösungen sein soll. Bei einem Schachspiel ist das egal, aber was machen wir beim Vorschlag, eine bestimmte ausdifferenzierte Chemotherapie anzuwenden? Das muss der Arzt verantworten. Da braucht es dann eine nachvollziehbare Erklärung.
WOLFGANG WAHLSTER (63) ist Professor für Künstliche Intelligenz an der Universität des Saarlandes. Er hat den Begriff Industrie 4.0 geprägt Vergangene Woche hielt er die Keynote zur Abschlussveranstaltung der Uni-WienSemsterfrage zur digitalen Zukunft.