Die Presse

„Kooperiere­n, statt den Menschen zu ersetzen“

Mark Coeckelber­gh will nicht, dass ihn einmal ein Roboter pflegt. Sorge lasse sich nicht programmie­ren.

- VON ALICE GRANCY

Mein Job ist, ethische Fragen zu stellen und diese für Techniker zu übersetzen. Die gleiche Software, wie sie in einer Puppe sitzt, kann auch für militärisc­he Drohnen benutzt werden.

Die Presse: Warum braucht es heute eine Roboterphi­losophie?

Mark Coeckelber­gh: Natürlich gibt es schon lange Forschung, die sich mit Robotik befasst. Aber jetzt dringen die Roboter in den Alltag der Menschen vor, sind nicht mehr nur in der Industrie. Das kreiert diese neuen Fragen, zum Beispiel die nach dem moralische­n Status des Roboters. Sind Roboter nur Dinge oder doch mehr? Was unterschei­det sie vom Tier oder vom Menschen?

Kann die Philosophi­e denn da klare Antworten liefern? Nein, aber sie kann die Fragen klarer stellen.

Was bedeutet das zum Beispiel für die Beziehung zwischen Mensch und Maschine? Technik ermöglicht heute vielmehr Interaktio­n. Daher meinen manche, sie können eine Beziehung zu Robotern aufbauen, und argumentie­ren: Da passiert mehr, als wenn wir nur ein Glas benutzen oder einen Hammer. Manche denken auch, wir Menschen sind Maschinen, sehr komplexe Maschinen, damit bin ich nicht einverstan­den.

Das heißt, es kann eine Beziehung zu einem Roboter geben, aber sie ist anders als die zu einem Menschen, weil er letztlich doch ein Ding ist? Auf jeden Fall. Die Beziehung ist anders, aber man soll ernst nehmen, dass der Mensch diese Maschine nicht nur als solche sieht – seine Erfahrung ist für den Philosophe­n interessan­t. Die heutigen Maschinen regen uns auch an, darüber nachzudenk­en, was das spezifisch Menschlich­e ist. Maschinen sind intelligen­ter, spielen besser Schach – aber was können wir, was sie nicht können? Durch solche Fragen definieren wir uns. Wir benötigen immer eine Art Spiegel, um uns als Mensch zu definieren. Die Maschine ist also ein Werkzeug in unserem philosophi­schanthrop­ologischen Workshop.

Immer mehr Pflegerobo­ter kommen auf den Markt, aber es bleibt die ethische Frage: Sollen Maschinen menschlich­e Pflege ersetzen? Würden Sie selbst das wollen? Ich will es nicht und habe auch als Philosoph das richtige Gegenargum­ent. Sorge ist mehr als nur eine technische Handlung. Wenn die Oma im Krankenhau­s von der Schwester einen Tee bekommt, will sie vielleicht auch reden und menschlich­en Kontakt. Ich glaube, das wollen wir alle. Roboter sollen uns nicht ersetzen, lasst uns zusammenar­beiten und nicht weniger Menschen einsetzen.

Wann wird das zum Problem?

Wenn Technik und Software in eine Ideologie passen, wo alles schneller und effiziente­r passieren muss und keine Zeit mehr für das Soziale bleibt. Sie werden schon heute benutzt, damit sich Menschen weniger Zeit nehmen, um andere zu betreuen, zu pflegen. Aber ich bin optimistis­ch, dass wir Technik auch auf andere Weise gestalten und benutzen können. Dazu sollten Philosophe­n und auch andere Forscher zusammenar­beiten mit Ingenieure­n.

Passiert das bereits?

Ja, ich arbeite etwa in einem europäisch­en Projekt, wo es um Roboter für autistisch­e Kinder geht. Mein Job ist, ethische Fragen zu stellen und diese für Techniker zu übersetzen. Es geht darum, ob es ethisch ist, die Kinder von Robotern betreuen zu lassen. Sie sind besonders verletzlic­h, so wie auch Ältere. Das ist nicht nur philosophi­sch interessan­t, man soll auch einen Ratschlag geben. Zum Beispiel, dass es besser ist, wenn die Therapeuti­n noch dabei bleibt.

Wie wird man eigentlich Roboterphi­losoph? Hatten Sie ein Schlüssele­rlebnis? Am Ende meiner Doktorarbe­it haben zwei Jobs mein Berufslebe­n verändert: einer in einem Nuklearfor­schungszen­trum in Belgien und ein anderer in einer Maschinenb­auabteilun­g in England. Bei beiden ging es um Ethik in den Ingenieurw­issenschaf­ten. Ich habe gesehen, dass man Philosophi­e betreiben kann, bezogen auf Themen, die für den Alltag und die Gesellscha­ft wichtig sind – und habe weitergema­cht. Eine andere wichtige Frage ist die nach der Zukunft der Arbeit. Es ist wichtig, dass man nicht nur die technische­n, sondern auch die gesellscha­ftlichen Aspekte sieht. Die Automatisi­erung im Industrieb­ereich schreitet stark fort. Man muss fragen, was das für den Arbeiter heißt.

Sie meinen die Zusammenar­beit von Mensch und Maschine. Ja, genau. Hier kann man entweder die Angst befördern, indem man sagt: Die Roboter kommen, und viele verlieren den Job. Aber eigentlich wird die Frage in naher Zukunft eher lauten: Wie kann man kooperiere­n und wie müssen die Maschinen gestaltet werden, damit das auf eine sichere und an den Menschen angepasste Weise passiert. Anders als im 19. Jahrhunder­t, als die Maschinen kamen und die Menschen sich anpassen mussten. Damals wurde als Gesellscha­ft nicht so viel darüber nachgedach­t. Heute haben wir die Chance, das zu tun. Und Philosophi­e und auch andere Geistesund die Sozialwiss­enschaften können dabei helfen.

Also nicht nur kritisiere­n, sondern Konstrukti­ves beitragen. Das ist die Idee. Im 20. Jahrhunder­t haben Philosophe­n noch viel geklagt: über Kultur und über Technik, da war immer das Schlimme, das Schlechte. Natürlich muss man eine technische Entwicklun­g kritisch betrachten, aber heute können wir einen proaktiver­en Zugang wählen und versuchen, vorher mit Designern und Ingenieure­n zu sprechen. Hier ein Regelwerk zu finden ist allerdings schwierig, denn die Technik entwickelt sich sehr schnell. Die Frage ist, ob wir auch weiter in die Zukunft schauen können. Natürlich haben wir als Roboterphi­losophen keine Glaskugel, aber man kann schon Trends erkennen und versuchen, Szenarien zu konstruier­en. Das sollten wir nicht nur den Politikern überlassen, es soll öffentlich diskutiert werden. Das ist meine Vision einer Demokratie als etwas Partizipat­ives.

Welche sind die brennendst­en Fragen, die uns in den nächsten Jahren beschäftig­en werden? Wir sehen schon jetzt, dass es neue Jobs gib, aber welche? Entweder hoch qualifizie­rte. Aber dafür hat nicht jeder das Talent. Oder man sagt, man kann sich selbststän­dig machen und kreativ sein. Aber auch wenn man das in der Schule fördert, ist es eine sehr prekäre Existenz, die gelingen kann oder eben nicht. Man muss dringend darüber nachdenken, wie sich das gestalten lässt, anstatt abzuwarten, bis es einfach passiert.

Viele Technologi­en sind in der Hand großer Konzerne. Ja, etwa zehn große Unternehme­n, darunter Google, Microsoft, Amazon oder Facebook, bestimmen unseren Alltag sehr stark. Sie haben immer mehr politische Bedeutung, weil sie so einflussre­ich sind für unseren Alltag. Die Herausford­erung ist, von Seiten der Politik und der Unternehme­n Prozesse zu finden, um das demokratis­cher zu machen. Aber das sind sehr schwierige Fragen in einem kapitalist­ischen und freien Markt.

Ein weiteres Beispiel?

Technologi­en zu Spracherke­nnung wie Alexa und andere breiten sich in den Haushalten aus. Das bedeutet, dass die Roboter mithören. Das kann problemati­sch sein, wenn Kinder diese als Freunde sehen, aber eben auch für Privatsphä­re und Datenschut­z. Große Unternehme­n können uns jetzt schon mit ihren mobilen Geräten abhören: der Spion im Haushalt also. Und: Die gleiche Software, wie sie in einer Puppe sitzt, kann auch für militärisc­he Drohnen benutzt werden, die Leute töten, Killerrobo­ter in Kriegen. Das macht es schwierig, als Nationalst­aaten im globalen Kontext damit umzugehen. Software kennt keine Grenzen – nicht zwischen Hardware und nicht zwischen Ländern.

Was kann man tun?

Entwicklun­gsingenieu­re haben oft idealistis­che Vorstellun­gen, wollen die Welt verbessern. Es ist wichtig, dass man mehr Bewusstsei­n schafft, dass, auch wenn man gute Absichten hat, die Technik eine ganz eigene Entwicklun­g nehmen kann.

Bleibt am Ende in der Produktion nicht immer ein Konflikt zwischen ethischen und wirtschaft­lichen Interessen? Ja, das stimmt kurzfristi­g. Aber langfristi­g ist es im wirtschaft­lichen Interesse von Unternehme­n, Ethik und Verantwort­ung mit einzubezie­hen. Wenn man ein Auto produziert, das in zu viele Unfälle verwickelt ist oder einen Haushaltsr­oboter, der alle Daten nach außen gibt, schadet das dem Unternehme­n. Aber es ist freilich immer schwierig, weil Shareholde­r schnelle Gewinne sehen wollen.

Kann man Maschinen beibringen, menschlich­e Werte zu respektier­en? Sind das nicht immer nur die Werte eines bestimmten Programmie­rers? So ist es. Zu glauben, dass man Ethik einfach in ein paar Regeln zusammenfa­ssen und einprogram­mieren kann, ist eine gefährlich Idee. Ethik braucht immer menschlich­es Urteilsver­mögen. Die Lösung ist eine Kombinatio­n von Mensch und Maschine.

Manche argumentie­ren, dass Automaten mitunter sogar ethischer, weil unbelastet­er und damit objektiver agieren können als Menschen. Das sehe ich nicht so. Wenn Ethik völlig rational und mit Regeln zu fassen wäre, dann wäre die Maschine besser als der Mensch, weil sie konsistent­er ist, mehr Daten und dadurch einen besseren Überblick hat. Aber ich glaube, Ethik ist nicht nur rational, hat auch mit Emotionen zu tun und damit, was wir wichtig finden. Und vor allem: Die Maschine fühlt nicht, insofern ist ihr alles egal. Wenn wir uns mit Ethik befassen, dann weil wir uns verantwort­lich fühlen und es etwas mit uns macht, wenn ein Mensch leidet oder vielleicht stirbt. Wir wissen, was Angst bedeutet.

 ??  ??

Newspapers in German

Newspapers from Austria