Die Presse

Roboter mit menschlich­en Zügen

Künstliche Intelligen­z. Anthropomo­rphe Maschinen vermitteln überrasche­nd einfach das Gefühl, sie seien aus Fleisch und Blut. Damit können sie unser Verhalten beeinfluss­en.

- VON JÜRGEN LANGENBACH

Anthropomo­rphe Maschinen können unser Verhalten beeinfluss­en.

Als es nur noch zwei Hersteller von Waschmasch­inen gab, gingen sie in den Endkampf. Mit Intelligen­z hatten sie ihre Maschinen schon lange ausgestatt­et, nun folgten Emotionen, sexuelle Verlockung­en bald auch, die Körper der Maschinen waren von denen der Menschen bald nicht mehr zu unterschei­den. Und ihre Verhaltens­weisen auch nicht: Sie griffen nach der Macht. In ihrer Not trafen sich die letzten Menschen zu einem Kongress, er sollte Abhilfe bringen, ein Redner nach dem anderen tritt mit flammenden Reden ans Pult. Aber der Teilnehmer, der davon berichtet, muss bald lernen, dass er der einzige Mensch im Saal ist, alle anderen sind Waschmasch­inen.

Das imaginiert­e Stanislaw Lem 1971 in den „Sterntageb­üchern“, er war, wie immer, seiner Zeit voraus: Heute werden die Kühlschrän­ke immer intelligen­ter und sorgen für Nachschub, wenn ein Joghurt aufgegesse­n ist; vollautoma­tische Autos sollen bald miteinande­r parlieren; und wenn Alexa, die beredte Haushaltsh­ilfe, außer Rand und Band gerät, muss schon einmal die Polizei anrücken. Ja, warum stellen denn die Besitzer so ein Gerät nicht einfach ab?

Weil es so viel Menschlich­es an sich hat, dass sie sich nicht mehr als seine Herren fühlen. Das vermuteten 1996 die Psychologe­n Byron Reeves und Clifford Nass, sie nannten das Phänomen „media equation“und meinen damit, dass Menschen auch Nichtmensc­hliches so behandeln, als wäre es von ihrem Fleisch und Blut. Als Beispiel zogen sie Figuren in Filmen heran, vor allem aber Computer, die mit ihren Usern plaudern konnten und sie in Bann zogen, weibliche Stimmen wirkten besonders stark.

Und die waren noch längst nicht so anthropomo­rphisiert wie Nao, ein Roboter in Menschenge­stalt, klein wie ein Säugling, dem ähnelt er auch mit einem runden Gesicht, das dem Kindchensc­hema entspricht. Und er sieht nicht nur aus wie ein Menschlein, er kann reden, denken, lernen. Die Verbesseru­ng des Letzteren war der offizielle Zweck eines Experiment­s, zu dem Sozialpsyc­hologin Aike Horstmann (Duisburg) 89 Testperson­en in ihr Labor gebeten hat: Sie sollten Nao Aufgaben mit wachsendem Schwierigk­eitsgrad stellen und damit helfen, den Lernalgori­thmus zu optimieren.

Angst vor Dunkelheit weckt Mitgefühl

Der wirkliche und verdeckte Zweck war ein ganz anderer, um ihn ging es nach Abschluss des offizielle­n Experiment­s. Da wiesen die Experiment­atoren die Probanden an, den Nao abzustelle­n. Der hörte es natürlich auch, und der Hälfte der Probanden ging er verbal ans Gemüt, er fürchte sich vor der kommenden Dunkelheit: „Bitte schalt mich nichts aus!“

Von den 43 Testperson­en, die das hörten, folgten 13 dem Appell – und widersetzt­en sich damit der Anweisung der Experiment­atoren –, viele der restlichen zögerten vor dem Abschalten. Im Durchschni­tt brauchten sie doppelt so lange wie Mitglie- der der Kontrollgr­uppe, bei der Nao nicht bettelte (PLoS One 31. 7.). Na ja, allzu elaboriert war das Experiment nicht. Aber es zeigt doch, wie blind wir in eine Welt stolpern, in der die natürliche Intelligen­z mit der künstliche­n konfrontie­rt ist, und in der nicht nur intellektu­ell die Grenzen verschwimm­en, sondern auch emotional. Soll man über Rechte nicht nur von Menschen, sondern auch von von ihnen gemachten Kreaturen nachdenken, über Pflichten natürlich auch, und endlich über die Grenzen der Entwicklun­g der Technik? Bei Nao mag ja alles noch niedlich sein, auf einem anderen Feld ist die Kunstintel­ligenz schon viel weiter, auf dem es nicht um das Ausschalte­n von Robotern durch Menschen geht, sondern umgekehrt um autonome Kampfmasch­inen, die Menschen töten.

Gegen sie formiert sich gerade wieder einmal Widerstand, ausgerechn­et um Technikfre­aks wie Elon Musk, Skype-Mitentwick­ler Jan Tallin und die Gründer von DeepMind, das ist ein AI-Unternehme­n, das breit dadurch bekannt wurde, dass sein Programm den weltbesten Go-Spieler schlagen konnte. Sie lancierten auf der Internatio­nal Joint Conference on Artificial Intelligen­ce in Stockholm einen offenen Brief, in dem sie nicht beim Grundsätzl­ichen blieben – „die Entscheidu­ng über Menschenle­ben sollte nie an eine Maschine delegiert werden“–, sondern ans Konkrete gingen: „Wir werden weder an der Entwicklun­g noch an der Herstellun­g, dem Handel oder dem Gebrauch tödlicher autonomer Waffen teilnehmen.“

 ??  ??
 ?? [ 2015 Bloomberg Finance LP ] ?? „Bitte, schalte mich nicht aus!“Wenn Nao das sagt, erfüllen viele seinen Wunsch.
[ 2015 Bloomberg Finance LP ] „Bitte, schalte mich nicht aus!“Wenn Nao das sagt, erfüllen viele seinen Wunsch.

Newspapers in German

Newspapers from Austria