Roboter mit menschlichen Zügen
Künstliche Intelligenz. Anthropomorphe Maschinen vermitteln überraschend einfach das Gefühl, sie seien aus Fleisch und Blut. Damit können sie unser Verhalten beeinflussen.
Anthropomorphe Maschinen können unser Verhalten beeinflussen.
Als es nur noch zwei Hersteller von Waschmaschinen gab, gingen sie in den Endkampf. Mit Intelligenz hatten sie ihre Maschinen schon lange ausgestattet, nun folgten Emotionen, sexuelle Verlockungen bald auch, die Körper der Maschinen waren von denen der Menschen bald nicht mehr zu unterscheiden. Und ihre Verhaltensweisen auch nicht: Sie griffen nach der Macht. In ihrer Not trafen sich die letzten Menschen zu einem Kongress, er sollte Abhilfe bringen, ein Redner nach dem anderen tritt mit flammenden Reden ans Pult. Aber der Teilnehmer, der davon berichtet, muss bald lernen, dass er der einzige Mensch im Saal ist, alle anderen sind Waschmaschinen.
Das imaginierte Stanislaw Lem 1971 in den „Sterntagebüchern“, er war, wie immer, seiner Zeit voraus: Heute werden die Kühlschränke immer intelligenter und sorgen für Nachschub, wenn ein Joghurt aufgegessen ist; vollautomatische Autos sollen bald miteinander parlieren; und wenn Alexa, die beredte Haushaltshilfe, außer Rand und Band gerät, muss schon einmal die Polizei anrücken. Ja, warum stellen denn die Besitzer so ein Gerät nicht einfach ab?
Weil es so viel Menschliches an sich hat, dass sie sich nicht mehr als seine Herren fühlen. Das vermuteten 1996 die Psychologen Byron Reeves und Clifford Nass, sie nannten das Phänomen „media equation“und meinen damit, dass Menschen auch Nichtmenschliches so behandeln, als wäre es von ihrem Fleisch und Blut. Als Beispiel zogen sie Figuren in Filmen heran, vor allem aber Computer, die mit ihren Usern plaudern konnten und sie in Bann zogen, weibliche Stimmen wirkten besonders stark.
Und die waren noch längst nicht so anthropomorphisiert wie Nao, ein Roboter in Menschengestalt, klein wie ein Säugling, dem ähnelt er auch mit einem runden Gesicht, das dem Kindchenschema entspricht. Und er sieht nicht nur aus wie ein Menschlein, er kann reden, denken, lernen. Die Verbesserung des Letzteren war der offizielle Zweck eines Experiments, zu dem Sozialpsychologin Aike Horstmann (Duisburg) 89 Testpersonen in ihr Labor gebeten hat: Sie sollten Nao Aufgaben mit wachsendem Schwierigkeitsgrad stellen und damit helfen, den Lernalgorithmus zu optimieren.
Angst vor Dunkelheit weckt Mitgefühl
Der wirkliche und verdeckte Zweck war ein ganz anderer, um ihn ging es nach Abschluss des offiziellen Experiments. Da wiesen die Experimentatoren die Probanden an, den Nao abzustellen. Der hörte es natürlich auch, und der Hälfte der Probanden ging er verbal ans Gemüt, er fürchte sich vor der kommenden Dunkelheit: „Bitte schalt mich nichts aus!“
Von den 43 Testpersonen, die das hörten, folgten 13 dem Appell – und widersetzten sich damit der Anweisung der Experimentatoren –, viele der restlichen zögerten vor dem Abschalten. Im Durchschnitt brauchten sie doppelt so lange wie Mitglie- der der Kontrollgruppe, bei der Nao nicht bettelte (PLoS One 31. 7.). Na ja, allzu elaboriert war das Experiment nicht. Aber es zeigt doch, wie blind wir in eine Welt stolpern, in der die natürliche Intelligenz mit der künstlichen konfrontiert ist, und in der nicht nur intellektuell die Grenzen verschwimmen, sondern auch emotional. Soll man über Rechte nicht nur von Menschen, sondern auch von von ihnen gemachten Kreaturen nachdenken, über Pflichten natürlich auch, und endlich über die Grenzen der Entwicklung der Technik? Bei Nao mag ja alles noch niedlich sein, auf einem anderen Feld ist die Kunstintelligenz schon viel weiter, auf dem es nicht um das Ausschalten von Robotern durch Menschen geht, sondern umgekehrt um autonome Kampfmaschinen, die Menschen töten.
Gegen sie formiert sich gerade wieder einmal Widerstand, ausgerechnet um Technikfreaks wie Elon Musk, Skype-Mitentwickler Jan Tallin und die Gründer von DeepMind, das ist ein AI-Unternehmen, das breit dadurch bekannt wurde, dass sein Programm den weltbesten Go-Spieler schlagen konnte. Sie lancierten auf der International Joint Conference on Artificial Intelligence in Stockholm einen offenen Brief, in dem sie nicht beim Grundsätzlichen blieben – „die Entscheidung über Menschenleben sollte nie an eine Maschine delegiert werden“–, sondern ans Konkrete gingen: „Wir werden weder an der Entwicklung noch an der Herstellung, dem Handel oder dem Gebrauch tödlicher autonomer Waffen teilnehmen.“