In Zu­kunft mit Ge­fühl

Ro­bo­ter kön­nen er­staun­li­che Din­ge. Doch un­ser Tast­sinn ist ih­nen noch über­le­gen. War­um sich das bald än­dern könn­te – und was das heißt

Augsburger Allgemeine (Land West) - - Wissen -

Wenn man spon­tan die mensch­li­chen Sin­ne nach ih­rer Be­deu­tung für das täg­li­che Le­ben ord­nen müss­te, kä­me er wohl nicht an ers­ter Stel­le: un­ser Tast­sinn. Da­bei wä­re un­ser Le­ben oh­ne ihn gar nicht mög­lich. Kein Mensch kommt oh­ne Tast­sinn auf die Welt, so­gar bei Em­bry­os in ei­ner ganz frü­hen Ent­wick­lungs­pha­se kann man ihn nach­wei­sen. Dem Tast­sinn ver­dan­ken wir ent­wick­lungs­psy­cho­lo­gisch so be­deut­sa­me Din­ge wie die Er­kennt­nis, wo un­ser Kör­per auf­hört und die Um­welt be­ginnt. Dar­über denkt man im All­tag nicht nach, wenn man sei­ne Kat­ze strei­chelt oder mit ei­nem Druck auf ei­nen Pfir­sich prüft, ob er schon reif ist. Blin­de kön­nen mit­tels der Braille­schrift Text le­sen. Wenn wir den Wind auf der Haut spü­ren, wis­sen wir, dass wir bes­ser ei­ne Ja­cke an­zie­hen, um nicht krank zu wer­den. Stän­dig ver­ar­bei­ten wir ei­ne rie­si­ge Men­ge an tak­ti­len In­for­ma­tio­nen – oh­ne sie wä­ren wir ziem­lich hilf­los.

For­scher wol­len nun auch Com­pu­tern und Ro­bo­tern zu ei­ner hap­ti­schen Wahr­neh­mung ver­hel­fen. Da­durch sol­len sie ei­ne grö­ße­re Zahl von Auf­ga­ben er­le­di­gen kön­nen. Vor al­lem aber soll dies hel­fen, die In­ter­ak­ti­on von Mensch und Ma­schi­ne ein­fa­cher und in­tui­ti­ver zu ge­stal­ten. Ei­ne der welt­weit füh­ren­den Wis­sen­schaft­le­rin­nen auf die­sem Ge­biet ist die Ame­ri­ka­ne­rin Ka­the­ri­ne J. Ku­chen­be­cker, die seit we­ni­gen Wo­chen als Di­rek­to­rin am Max-Planck-In­sti­tut für In­tel­li­gen­te Sys­te­me in Stuttgart forscht.

In ei­nem Vor­trag vor der Roy­al So­cie­ty, der im In­ter­net ab­ruf­bar ist, zeigt sie das Vi­deo ei­nes be­rühm­ten Ex­pe­ri­ments aus den 70er Jah­ren: Ei­ne Frau, der für die­sen Ver­such drei Fin­ger der rech­ten Hand be­täubt wur­den, soll­te mit die­ser Hand ein Streich­holz aus ei­ner of­fe­nen Pa­ckung neh­men und es an der fi­xier­ten Schach­tel an­rei­ßen. Sie fin­gert um­ständ­lich in der Schach­tel her­um, mehr­mals fällt ihr das Hölz­chen aus der Hand. Es dau­ert, bis sie es in der rich­ti­gen Po­si­ti­on hält – aber sie schafft es letzt­end­lich doch. Das Ex­pe­ri­ment zeigt sehr plas­tisch die Be­deu­tung des Tast­sinns. Und, so sagt es Ku­chen­be­cker, es zeigt, war­um auch Ro­bo­ter so viel bes­ser sein könn­ten, wenn sie ei­nen Tast­sinn be­kom­men.

Rund zehn Jah­re lang hat Ku­chen­be­cker an der Uni­ver­si­tät von Penn­syl­va­nia in Phil­adel­phia ge­nau dar­an ge­ar­bei­tet. Ei­nes der Pro­jek­te, das sie dort ent­wi­ckel­te, hat sie nun auch nach Stuttgart be­glei­tet. Ku­chen­be­cker ar­bei­tet an ro­bo­ter­un­ter­stütz­ten Ope­ra­ti­ons­sys­te­men, wie sie längst in vie­len Kli­ni­ken ein­ge­setzt wer­den. Sol­che Sys­te­me er­lau­ben scho­nen­de, mi­ni­mal-in­va­si­ve Ein­grif­fe. Der Chir­urg ist wei­ter­hin im OP. Er steht aber nicht am OP-Tisch, son­dern sitzt vor ei­nem Schirm und blickt auf ein 3D-Bild der Ope­ra­ti­ons­stel­le. Mit­tels Hand­steue­rung und Da­ten­lei­tung fern­steu­ert er sei­ne Werk­zeu­ge, die am Pa­ti­en­ten schnei­den, nä­hen oder scha­ben. Das Pro­blem: Bis­lang hat der Chir­urg kei­ne hap­ti­sche Rück­mel­dung, er sieht nur, spürt aber nicht, wenn er zu tief schnei­det oder auf wie viel Wi­der­stand im Ge­we­be er stößt. Da setzt Ku­chen­be­ckers Team an. Ihr Ziel: die Ma­schi­nen um hap­ti­sche Kom­po­nen­ten zu er­wei­tern, um das Ope­rie­ren prä­zi­ser und leich­ter er­lern­bar zu ma­chen.

In ih­rem neu­en, noch et­was lee­ren La­bor in Stuttgart zeigt Ku­chen­be­ckers Mit­ar­bei­ter Gun­hyuk Park die neu­es­te Ent­wick­lungs­stu­fe der Tech­nik. Mit­tels Be­we­gungs­sen­so­ren und Mo­to­ren – Bau­tei­len, die seit der Smart­pho­ne-Re­vo­lu­ti­on viel bes­ser und güns­ti­ger ge­wor­den sind – kann der Ope­ra­ti­ons­ro­bo­ter dem Chir­ur­gen nun hap­ti­sche und akus­ti­sche Rück­mel­dun­gen ge­ben. Un­ter Parks An­lei­tung darf man so­gar selbst Chir­urg spie­len und die Grei­fer, die in der ak­tu­el­len Kon­fi­gu­ra­ti­on an den Ro­bo­ter­ar­men mon­tiert sind, be­we­gen.

Der Kopf muss tief in ei­ne Art Hau­be ge­scho­ben wer­den, bis man mit der Stirn an ei­ne Ver­tie­fung stößt. Auf ei­nem Schirm sieht man drei­di­men­sio­nal vor sich die Zan­gen – die in Wirk­lich­keit über ei­nem klei­nen Tisch hin­ter dem Ope­ra­teurs­platz schwe­ben – so­wie ei­ne Art Mi­ni­na­gel­brett mit bun­ten Plas­tik­for­men, die man mit den Grei­fern pa­cken und von ei­nem Na­gel auf den an­de­ren bug­sie­ren kann. Auch ein klei­nes Me­tall­git­ter liegt da, das man mit et­was Übung von der ei­nen in die an­de­re Zan­ge ge­ben kann. So­gar als An­fän­ger hat man den Dreh schnell raus, nur ab und zu stößt man ir­gend­wo ge­gen – und hört dann ein Scha­ben oder Schep­pern. Zu­sam­men mit den Vi­bra­tio­nen und den Wi­der­stän­den, die man von der Hand­steue­rung be­kommt, fühlt sich das tat­säch­lich so an als hät­te man die In­stru­men­te selbst in der Hand.

Ist das al­so die Zu­kunft des Ope­rie­rens? Sitzt bald ir­gend­wo in ei­nem Nied­rig­lohn­land ein Ope­ra­teur, der über In­ter­net am Fließ­band Blind­där­me und Tu­mo­re her­aus­schnei­det? „Das ist nicht un­ser Ziel und das wür­de mo­men­tan auch nicht funk­tio­nie­ren, da die Ver­zö­ge­run­gen bei der Da­ten­wei­ter­lei­tung noch viel zu groß sind“, sagt Park. Prin­zi­pi­ell aus­schlie­ßen will er so ein Sze­na­rio aber nicht. Vor al­lem aber könn­ten Ro­bo­ter so ler­nen, ir­gend­wann selbst zu ope­rie­ren…

Die Me­di­zin­tech­nik ist nur ei­nes der Ge­bie­te, auf de­nen Ku­chen­be­cker forscht. Ih­re Plä­ne für die Ro­bo­ter der Zu­kunft ge­hen viel wei­ter. Sie prä­sen­tiert sie am En­de des Vor­trags vor der Roy­al So­cie­ty: Al­lein durch das An­schau­en von Bil­dern ha­ben wir ei­ne Vor­stel­lung da­von, wie sich die Din­ge in der ech­ten Um­welt an­füh­len. Wenn wir ein Ei se­hen, wis­sen wir, wir dür­fen beim Grei­fen nicht zu fest zu­drü­cken. Wenn wir Glatt­eis se­hen, wis­sen wir, wir müs­sen vor­sich­tig lau­fen. Ro­bo­ter kön­nen auf Bil­dern nur For­men und Far­ben wahr­neh­men. Bis­lang. Aber die For­scher tas­ten sich vor­an. Mat­thi­as Zim­mer­mann

Fo­to: MPI für In­tel­li gen­te Sys­te­me/Ku chen­be­cker

Ka­the­ri­ne J. Ku chen­be­cker an ih rem di­gi­ta­len OP Tisch. Im Hin­ter grund die Ro­bo ter­ar­me mit den fern­ge­steu­er­ten In­stru­men­ten.

Newspapers in German

Newspapers from Germany

© PressReader. All rights reserved.