Sen­si­ble KI-Sys­te­me

Computerwoche - - Inhalt - Von An­net­te Zim­mer­mann, Re­se­arch Di­rec­tor bei Gart­ner (ba)

Ma­schi­nen, die auf mensch­li­che Emo­tio­nen re­agie­ren, könn­ten un­ser Le­ben bald er­leich­tern. Die Ge­sund­heits­bran­che so­wie die Au­to­in­dus­trie sei­en hier die Vor­rei­ter, schreibt Gart­ner-Ana­lys­tin An­net­te Zim­mer­mann.

Ma­schi­nen, die auf mensch­li­che Emo­tio­nen re­agie­ren, könn­ten un­ser Le­ben bald er­leich­tern. Die Ge­sund­heits­bran­che so­wie die Au­to­in­dus­trie sei­en hier die Vor­rei­ter, schreibt Gart­ner-Ana­lys­tin An­net­te Zim­mer­mann in ei­nem Aus­blick.

Dank künst­li­cher In­tel­li­genz (Ar­ti­fi­ci­al In­tel­li­gence = AI) und Af­fec­tive Com­pu­ting wer­den künf­tig im­mer mehr in­tel­li­gen­te Ge­rä­te in der La­ge sein, mensch­li­che Ge­füh­le und Stim­mun­gen an­hand be­stimm­ter Da­ten und Fak­ten zu er­fas­sen und Si­tua­tio­nen ent­spre­chend zu ana­ly­sie­ren.

Schon heute er­freu­en sich „in­tel­li­gen­te Agen­ten“, die in Form vir­tu­el­ler As­sis­ten­ten ver­brei­tet sind, zu­neh­men­der Be­liebt­heit. Hier­zu zäh­len Si­ri von App­le, Corta­na von Mi­cro­soft, Goog­le As­sis­tant und Ama­zon Echo. Sie al­le kön­nen mit na­tür­lich ge­spro­che­ner Spra­che um­ge­hen, sind aber noch nicht im­stan­de, auch die mensch­li­chen Ge­füh­le da­hin­ter zu er­ken­nen. Künst­li­che emo­tio­na­le In­tel­li­genz („Emo­ti­on AI“) könn­te hier den Durch­bruch brin­gen. Da­zu müss­ten die Sys­te­me die Ge­fühls­la­ge des An­wen­ders er­ken­nen und ent­spre­chend re­agie­ren. Zu­gleich soll­ten sie aber auch mensch­li­cher er­schei­nen, um ei­ne kom­for­ta­ble­re, na­tür­li­che­re In­ter­ak­ti­on mit dem Nut­zer zu er­mög­li­chen. An­ge­mes­se­ne Re­ak­ti­on auf mensch­li­che Ge­füh­le

In­tel­li­gen­te Agen­ten – das kön­nen al­le Ge­rä­te sein, die ih­re Um­ge­bung über Sen­so­ren wahr­neh­men und mit­tels Ak­tua­to­ren auf sie re­agie­ren. Ma­schi­nen, die als Per­so­nal As­sis­tant Ro­bots (PAR) auf­tre­ten wie bei­spiels­wei­se San­bot von Qi­han Tech­no­lo­gy oder Pep­per von Soft­bank Ro­bo­tics, wer­den auf „Men­sch­lich­keit“trai­niert. Sie ler­nen, zwi­schen Ge­fühls­zu­stän­den zu un­ter­schei­den und an­ge­mes­se­ne Re­ak­tio­nen zu zei­gen. Ziel ist es, dass die PARs so­wohl per Kör­per­spra­che als auch ver­bal auf die Emo­tio­nen der Men­schen re­agie­ren, mit de­nen sie im Kon­takt sind. Er­kennt der Ro­bo­ter Pep­per zum Bei­spiel, dass sein Ge­gen­über von ei­ner In­ter­ak­ti­on ent­täuscht ist, soll­te sei­ne Re­ak­ti­on ei­ne Ent­schul­di­gung aus­drü­cken.

Emo­ti­on AI – die ers­ten Schrit­te sind ge­tan

Die in­tel­li­gen­ten Ge­rä­te der Zu­kunft wer­den die Ge­füh­le ih­rer An­wen­der deut­lich bes­ser ana­ly­sie­ren und auf sie re­agie­ren kön­nen, als das heute mög­lich ist. Die­se Fä­hig­kei­ten ver­dan­ken sie AI-Sys­te­men, die die Mi­mik und den ver­ba­len Aus­druck be­stimm­ter Emo­tio­nen

mit­tels De­ep-Le­arning-Tech­no­lo­gi­en mes­sen. Die­se Sys­te­me spie­len ei­ne im­mer wich­ti­ge­re Rol­le bei der In­ter­ak­ti­on zwi­schen Mensch und Ma­schi­ne.

Die ers­ten Schrit­te sind be­reits ge­tan: So setzt das Vi­deo­spiel „Ne­ver­mind“auf ei­ne emo­ti­ons­ba­sier­te „Bi­o­feed­back“-Tech­no­lo­gie von Af­fec­tiva und In­tel, um die Stim­mung des Spie­lers zu er­mit­teln und das Ni­veau und den Schwie­rig­keits­grad ent­spre­chend an­zu­pas­sen. Je wei­ter ein Spie­ler in die vir­tu­el­le Welt ein­dringt, des­to düs­te­rer wird die Stim­mung und des­to schwie­ri­ger wer­den die Lo­gik­rät­sel. Das Hor­rorGa­me spürt, wann der Spie­ler Angst hat oder sich ent­spannt, und passt das Ni­veau der je­wei­li­gen Ge­fühls­la­ge an.

Die­se Tech­no­lo­gie wird auch in an­de­ren Be­rei­chen ein­ge­setzt. So wird gera­de an neu­en In-Car-Sys­te­men ge­ar­bei­tet, die das Re­ak­ti­ons­ver­mö­gen der Brems­sys­te­me an den wahr­ge­nom­me­nen Stress­le­vel des Fah­rers an­pas­sen. Er­kennt ein da­mit aus­ge­stat­te­ter Wa­gen beim Fah­rer ei­ne an­ge­spann­te Stim­mung, er­höht er au­to­ma­tisch die Re­ak­ti­ons­fä­hig­keit der Brem­sen, um zu ver­hin­dern, dass das Au­to beim Her­an­fah­ren an ei­ne be­leb­te Kreu­zung ruck­ar­tig zum Ste­hen kommt. So­wohl das Vi­deo­spiel als auch das Fahr­zeug nut­zen Ka­me­ras und ei­ne AI-ba­sier­te Emo­ti­onTracking-Soft­ware, um Emo­tio­nen in Echt­zeit zu mes­sen.

Emo­ti­on AI im Ge­sund­heits­we­sen und der Au­to­in­dus­trie

Die Au­to­mo­bil­in­dus­trie und das Ge­sund­heits­we­sen zäh­len zu den ers­ten Bran­chen, die den Ein­satz von Funk­tio­nen prü­fen, mit de­nen sich Ge­füh­le mes­sen las­sen. Wie das ge­nann­te Bei­spiel zeigt, lo­ten die Au­to­her­stel­ler zur­zeit die Ver­wen­dung von Emo­ti­on-De­tec­tion-Sys­te­men in Fahr­zeu­gen aus. In­dem sie die Stim­mung der Per­son am Steu­er er­fas­sen, kön­nen die Sys­te­me auf Wut, Frus­tra­ti­on, Mü­dig­keit oder An­span­nung re­agie­ren und da­mit die Si­cher­heit im Stra­ßen­ver­kehr er­hö­hen.

Im Be­reich He­alth­ca­re könn­ten trag­ba­re Ge­rä­te die psy­chi­sche Ge­sund­heit der Pa­ti­en­ten rund um die Uhr mes­sen und not­falls die Ärz­te oder das Pfle­ge­per­so­nal be­nach­rich­ti­gen. Die „We­ara­bles“könn­ten hel­fen, die men­ta­le Ver­fas­sung von al­lein­le­ben­den äl­te­ren Men­schen oder von Kin­dern zu über­wa­chen. Über­dies könn­ten Ärz­te oder Pfle­ge­per­so­nal men­ta­le Mus­ter leich­ter er­ken­nen und ent­schei­den, wann und auf wel­chem We­ge sie mit ih­ren Pa­ti­en­ten kom­mu­ni­zie­ren.

Die Tech­no­lo­gi­en, die zur­zeit ein­ge­setzt wer­den, um Ge­füh­le zu er­ken­nen und auf sie zu re­agie­ren, sind über­wie­gend pro­prie­tär und auf we­ni­ge An­wen­dun­gen zu­ge­schnit­ten. Auch zahl­rei­che glo­bal agie­ren­de Mar­ken ha­ben die­se Tech­no­lo­gi­en in den letz­ten Jah­ren für Stu­di­en im Be­reich Pro­dukt- und Mar­ken­wahr­neh­mung ver­wen­det. Doch kön­nen wir da­von aus­ge­hen, dass sich die gro­ßen Tech­no­lo­gie- und Me­dien­un­ter­neh­men in den nächs­ten zwei Jah­ren zu­sam­men­tun wer­den, um die­sen Be­reich aus­zu­bau­en und Lö­sun­gen an­zu­bie­ten, die un­ser Le­ben bald spür­bar ver­bes­sern wer­den.

Bi­o­feed­back beim Ga­ming: Das Hor­ror­spiel Ne­ver­mind passt sich der Stim­mung des Spie­lers an. Es spürt, wann der Spie­ler Angst hat oder sich ent­spannt, und stimmt das Ni­veau auf sei­ne Ge­fühls­la­ge ab.

Newspapers in German

Newspapers from Germany

© PressReader. All rights reserved.