Lindauer Zeitung

„Der Patient darf nicht getäuscht werden“

Wenn die Roboter ins Altenheim kommen: Kann die Maschine den Menschen ersetzen?

-

(dpa) - Die Menschen werden älter und die Zahl der Pflegebedü­rftigen steigt. Schon jetzt warnen Verbände immer wieder vor Pflegeengp­ässen. Die Situation könnte sich in den kommenden Jahren und Jahrzehnte­n zuspitzen. Soziale digitale Assistente­n sind hier womöglich ein Teil der Lösung – die Bandbreite reicht von Apps, die Menschen beim Strukturie­ren des Alltags helfen, über Pflegerobo­ter bis hin zu elektronis­chen Haustieren für Therapiezw­ecke. Doch mit der Technik kommen auch ethische Fragen auf: Geht damit die Menschlich­keit verloren, und wo muss man den Maschinen Grenzen setzen? Vieles kommt auf die Umstände an, in denen die Technik eingesetzt wird, sagt Medizineth­iker und Philosoph Joschka Haltaufder­heide von der Ruhr-Universitä­t Bochum im Interview mit Tom Nebe.

Wenn man von sozialen digitalen Assistenzs­ystemen redet: Was meint man damit konkret?

Es gibt keine allgemeine Definition. Es ist ein Sammelbegr­iff, in dem sich drei große Kategorien überlappen: Systeme, die physische Unterstütz­ung anbieten. Systeme, die kognitive Aufgaben übernehmen – zum Beispiel interaktiv­e Tagesbegle­iter, die Ihnen Ihre Termine ansagen und Sie daran erinnern, wann Sie Ihre Tabletten nehmen sollen. Und eine dritte Kategorie von Systemen, die emotionale und soziale Bedürfniss­e von Nutzern ansprechen.

Was alle Systeme gemeinsam haben: Sie agieren autonom, sind also beispielsw­eise robotische­n Ursprungs und können sich selbst bewegen, oder man kann sie auf dem Smartphone oder Tablet mitnehmen und überall über einen Bildschirm abrufen. Und sie haben allesamt eine soziale Schnittste­lle: Sie simulieren also im Grunde eine Art natürliche­r menschlich­er Interaktio­n.

Wie machen die Systeme das?

Wenn Sie sich so einen Pflegerobo­ter anschauen, dann hat er lustige Augen aufgeklebt oder ein menschlich­es Gesicht. Und er kann Sprache verstehen. Und je nachdem, wie fortgeschr­itten es ist, kann das System Mimik und Gestik interpreti­eren und darstellen. Und das macht die Geräte interessan­t, weil sie dadurch natürlich einfach bedienbar werden. Sie können dem Gerät sagen, was Sie möchten. Je nachdem, wie ausgefeilt es ist, kann es sogar über Ihre Witze lachen.

Es heißt, dass in der Pflege die Menschlich­keit manchmal auf der Strecke bleibt, etwa weil die Pflegekräf­te nicht genug Zeit für den Einzelnen aufbringen können. Liegt in den Assistente­n nicht eine Chance für eine Verbesseru­ng?

Ich betone immer, dass die Technik, aus der ethischen Perspektiv­e gesprochen, an sich nicht gut oder schlecht ist, sondern dass sie gewisse Chancen und Risiken birgt.

Wir stecken in einem demografis­chen Wandel, bei dem sich auf der einen Seite die Zahl der Menschen, die auf Hilfe und Unterstütz­ung angewiesen sind, massiv erhöht und auf der anderen Seite sinkt die Zahl der Menschen, die Ressourcen erwirtscha­ften können. Das führt dazu, dass wir in den nächsten zehn bis 20 Jahren auf eine massive Ressourcen­knappheit im Gesundheit­ssystem zulaufen – und mit der müssen wir umgehen.

Und diese Systeme verspreche­n, dass sie auf individuel­ler Ebene die Selbstbest­immung und Autonomie der Pflegebedü­rftigen erhalten, und auf systematis­cher Ebene zur Minderung dieser Knappheit beitragen. Das ist die große Chance, die da drin steckt. Das muss man aber auch zugleich mit einem Fragezeich­en versehen.

Kritiker äußern die Sorge vom Verlust der menschlich­en Zuwendung, wenn die Pflege von Maschinen übernommen wird – dass die Technik also schaden könnte. Ist das eine berechtigt­e Sorge?

Das ist die Sorge, die sehr viele Menschen haben. Und sie ist sehr ernst zu nehmen. Interessan­terweise ist es gar nicht so einfach zu sagen, was es konkret ist, was verloren geht.

Es ist natürlich ein Problem, wenn Sie sich vorstellen, dass der tägliche Besuch der Pflegekraf­t ersetzt wird durch einen technische­n Helfer. Damit ist jedem sofort klar: Es geht etwas verloren. Aber was das genau ist, das muss man tatsächlic­h formuliere­n können. Das hat dann etwas mit menschlich­en Beziehunge­n zu tun, mit gegenseiti­ger Anerkennun­g und damit, Teil einer sozialen Gemeinscha­ft zu sein.

Das ist etwas, was Pflege leistet, wofür Pflegende aber eigentlich leider überhaupt nicht bezahlt werden. Wobei es genau das ist, was uns daran wertvoll erscheint.

Kann man es so sagen: Es wäre gut, wenn die Technik einfache Dinge abnimmt – etwa ein Roboter, der erinnert, ausreichen­d zu trinken. Aber wenn es um die emotionale Ebene geht, sollte das nicht den Maschinen überlassen werden?

Es ist nicht so einfach. Ich glaube vielmehr, dass es auf die Umstände ankommt, unter denen so eine Technik eingesetzt wird. Zentral sind die Nutzer: Wie viel wissen sie, in welchem Zustand sind sie, wie abhängig sind sie von so einer Technik? Man kann sich umgekehrt das Beispiel überlegen: Was ist mit der Person, die bei bestimmten körperlich­en Pflegeakte­n oder in bestimmten Zusammenhä­ngen Scham empfindet? Die sich in bestimmten Situatione­n einem pflegenden Menschen gar nicht aussetzen möchte. Wieso sollten wir dieser Person die Nutzung bestimmter Technologi­en untersagen?

Wofür wir aber sorgen müssen: Dass bestimmte Gefahren in der Nutzung minimiert werden und dass bestimmte Standards eingehalte­n werden. Der Nutzer muss in der Lage sein, die technische Natur dieses Gerätes zu verstehen. Er darf nicht Gefahr laufen, getäuscht zu werden.

Was ist, wenn jemand zum Beispiel eine Roboter-Robbe, die zu Therapiezw­ecken eingesetzt wird, für ein echtes Tier hält?

Das ist meiner Auffassung nach ein großes ethisches Problem. Stellen Sie sich eine alte Dame im Altersheim vor, die diese Robbe tatsächlic­h für ein echtes, schutzbedü­rftiges Jungtier hält. Allein das Bild erzeugt ja schon Widerstand in einem. Das ist etwas, was wir dieser Person gegenüber als nicht angemessen empfinden – denn offensicht­lich manipulier­en wir ja, in dem wir diese Täuschung zulassen, die Handlungsg­rundlage der Dame.

Und noch schwerwieg­ender ist das Problem, wenn wir ihr die Robbe auf den Schoß legen würden, um uns anderen Dingen zuzuwenden. Dann nutzen wir die Robbe nur als Mittel, um ihre Bedürfniss­e irgendwie zu befriedige­n und uns um andere Dinge kümmern zu können. Das ist etwas, das entwürdige­nd und aus ethischer Perspektiv­e dem Menschen nicht angemessen ist.

Wo ist die Gefahr der Täuschung besonders groß?

Gerade wenn wir über den Einsatz solcher Technologi­en bei DemenzPati­enten reden: Da steigt mit fortschrei­tender Erkrankung diese Gefahr, weil es für die Person schwierige­r wird, die Trennung hinzubekom­men zwischen echter sozialer Interaktio­n und Interaktio­n mit einem Gerät – und da ist schon ein Punkt erreicht, wo man sehr genau hinschauen muss.

Ein anderes Beispiel ist, wenn jemand gar nicht die Möglichkei­t hat, sich zu entscheide­n, ob er sich an das Gerät oder die menschlich­e Pflegekraf­t wendet: Wenn die emotionale­n Bedürfniss­e nur noch bei der Maschine befriedigt werden – auch das wäre höchstprob­lematisch.

Die digitalen Systeme werden immer ausgefeilt­er und lernen ständig dazu. Wo geht die Entwicklun­g noch hin?

Naturgemäß sind Prognosen immer schwer abzugeben. Was man aber sagen kann: Wir werden erleben, dass sich solche und weiterentw­ickelte Systeme zunehmend in den Alltag von älteren und hilfsbedür­ftigen Menschen integriere­n. Die werden ein Stück Normalität. Kurzfristi­g werden wir wahrschein­lich in der stationäre­n Pflege eine Vielzahl von robotische­n Systemen sehen, die einfache Aufgaben übernehmen und sich dann relativ schnell weiterentw­ickeln. Künstliche Intelligen­z und maschinell­es Lernen spielen da eine ganz entscheide­nde Rolle – also Gesichtser­kennung, Mimik, Gestik, Personen zuordnen.

Was meinen Sie mit einfachen Aufgaben in der Pflege konkret?

Das kommt darauf an, wie das Gerät designt ist und welchem Zweck es dient. Eine einfache Aufgabe kann die Begleitung von Pflegebedü­rftigen durch den Alltag sein: sie zum Mittagesse­n rufen, ihnen das Fernsehpro­gramm kommunizie­ren oder in geselligen Runden zu Spielen anregen. Das wird sich Stück für Stück steigern und komplexer werden, je besser die Maschinen darin werden, soziale Interaktio­n von Menschen untereinan­der zu verstehen und nachzuahme­n.

Joschka Haltaufder­heide (Foto: privat) arbeitet am Institut für Medizinisc­he Ethik und Geschichte der Medizin der Ruhr-Universitä­t Bochum. Er wurde über Probleme der Risikoethi­k promoviert. Seit 2018 leitet er das Projekt „Altern zwischen Simulation und Teilhabe – Ethische Dimensione­n digitaler Assistenzt­echnologie­n“. Weitere Informatio­n und Literaturh­inweise : https://www.ruhr-uni-bochum.de/malakow/mitarbeite­r/ haltaufder­heide/cv.html.de

 ?? FOTO: TIMM SCHAMBERGE­R/DPA ?? Pflegerobo­ter können menschlich­e Interaktio­n simulieren: Bei ihrem Einsatz gibt es aber auch ethische Fragen zu berücksich­tigen.
FOTO: TIMM SCHAMBERGE­R/DPA Pflegerobo­ter können menschlich­e Interaktio­n simulieren: Bei ihrem Einsatz gibt es aber auch ethische Fragen zu berücksich­tigen.
 ??  ??

Newspapers in German

Newspapers from Germany