UX De­sign: Neue Na­vi­ga­ti­ons­kon­zep­te

Sprach-, Blick- und Ges­ten­steue­rung eta­blie­ren sich wei­ter, und die Na­vi­ga­ti­on mit­tels Ge­dan­ken und Emo­tio­nen klopft schon mal an die Tür. Wo steu­ert sie hin, die Men­schCom­pu­ter-in­ter­ak­ti­on?

PAGE - - Inhalt -

Spra­che, Bli­cke, Ges­ten bis hin zu Ge­dan­ken oder Emo­tio­nen – noch nie war die Mensch- Com­pu­terIn­ter­ak­ti­on so viel­fäl­tig wie heu­te

● 2018 fei­er­te die gu­te al­te Maus ih­ren Fünf­zigs­ten – und geht 2019 noch lan­ge nicht in Ren­te. Doch ihr Ha­bi­tat schrumpft. Touch-in­ter­faces und VR-/AR-AN­WEN­dun­gen brau­chen sie gar nicht und die Desk­top-nut­zung ist wei­ter rück­läu­fig. Mo­bi­le First ist längst all­seits ak­zep­tier­te De­vi­se. Von hier aus ge­lang­te auch der Trend ins Web, der oft als Con­tent-dri­ven Na­vi­ga­ti­on be­zeich­net wird – so­wohl mo­bil als auch auf Desk­tops: »Lan­ding­pa­ges wer­den zur­zeit so ge­stal­tet, dass der User die Haupt­in­for­ma­ti­on durch ver­ti­ka­les oder ho­ri­zon­ta­les Scrol­ling er­grün­den kann. Da­ge­gen wur­den die In­hal­te frü­her meist in ei­ner Me­nü­leis­te grup­piert«, er­läu­tert Sa­bi­ha Ghel­lal, Pro­fes­so­rin für Ex­pe­ri­ence- und Ga­me De­sign an der Hoch­schu­le der Me­di­en Stutt­gart. In­zwi­schen ord­nen die meis­ten User In­ter­face De­si­gner al­le In­hal­te leicht scroll­bar un­ter­ein­an­der an. Durch ho­ri­zon­ta­les Swi­pen ge­langt man tie­fer in die The­men­be­rei­che hin­ein. Smart­pho­ne-user ha­ben sich oh­ne­hin an­ge­wöhnt, in schnel­lem Tem­po per Touch­ges­te durch die In­hal­te zu scrol­len.

Durch die klei­nen Screens ha­ben sich die sonst eher um­fang­rei­chen Web­site-me­nüs auf ein Mi­ni­mum re­du­ziert: Die drei ho­ri­zon­ta­len Stri­che des Ham­bur­ger-me­nüs fei­er­ten ei­ne Er­folgs­ge­schich­te und er­ober­ten auch die Desk­top-web­sites. »Aber der Bur­ger ist nicht zwangs­läu­fig die prak­tischs­te Lö­sung, um Me­nü­punk­te dar­zu­stel­len«, warnt Sa­bi­ha Ghel­lal. Viel zu oft sei bei der Na­vi­ga­ti­on von ei­ner Un­ter­sei­te zu ei­ner pri­mä­ren Na­vi­ga­ti­ons­op­ti­on über den Bur­ger ein Bruch in der User Ex­pe­ri­ence zu be­ob­ach­ten. »Ei­ne kla­re Con­tent-ar­chi­tek­tur und ei­ne dar­auf auf­bau­en­de Na­vi­ga­ti­ons­lö­sung ist im­mer noch die Grund­la­ge für ei­ne ge­lun­ge­ne pri-

mä­re Na­vi­ga­ti­ons­lö­sung, und der Bur­ger ist hier­bei eben nur ei­ne mög­li­che Op­ti­on.«

Grund­sätz­lich je­doch wird Mo­bi­le De­sign 2019 den Takt vor­ge­ben, denn laut Markt­for­scher Sta­tis­ta lag der An­teil mo­bi­ler End­ge­rä­te bei al­len Sei­ten­auf­ru­fen in Eu­ro­pa 2017 schon bei rund 34 Pro­zent, in Asi­en bei 66 Pro­zent (https://is.gd/sta­tista­mo­bi­le­welt­weit). Die­ser An­teil dürf­te sich 2019 auch in Eu­ro­pa noch ein­mal dras­tisch er­hö­hen, was lang­fris­tig die Stra­te­gie ver­än­dern könn­te, Web­sites für Desk­tops zu op­ti­mie­ren, be­zie­hungs­wei­se ei­nen lang­sa­men Ab­schied vom Re­s­pon­sive Web­de­sign ein­läu­ten könn­te.

Neue Touch­ges­ten, bit­te

Und so wird es Zeit für klü­ge­re Touch­ges­ten. Swi­pen und Pin­chen ha­ben nun al­le ge­lernt. App­les letz­te wirk­li­che Neue­rung, der Force Touch, liegt schon et­was län­ger zu­rück und der Bei­fall der User fiel eher ver­hal­ten aus. Mit dem Force Touch öff­net sich bei an­hal­ten­dem Druck auf ein App-icon ein Vor­schau-wid­get, das Funk­tio­nen und In­hal­te der je­wei­li­gen App an­zeigt. »Die von App­le ver­öf­fent­lich­ten Hu­man Com­pu­ter In­ter­ac­tion (HCI) Gui­de­li­nes oder auch Googles Ma­te­ri­al De­sign be­inhal­ten nicht nur Richt­li­nen für Ges­ten­steue­run­gen, son­dern auch Richt­li­ni­en zum The­ma In­for­ma­ti­ons­ar­chi­tek­tur und Na­vi­ga­ti­on. Be­son­ders emp­feh­len wür­de ich die Na­vi­ga­ti­on­s­ani­ma­ti­on ›Ani­ma­ting Cha­rac­ter‹ in Googles Ma­te­ri­al Stu­dies auf der Web­site https://ma­te ri­al.io«, rät Sa­bi­ha Ghel­lal.

Zu­dem führ­te App­le mit dem Re­lease des ipho­ne X ei­ne gan­ze Rei­he neu­er Ges­ten ein, weil der Hard­wareHo­me-but­ton ent­fernt wur­de. Ei­ne neue Ges­te könn­te sich im App-de­sign viel­leicht auch für an­de­re Zwe­cke durch­set­zen: Zur Vor­schau al­ler ge­öff­ne­ten Apps wischt man von links un­ten dia­go­nal nach oben. Hat man drei oder vier Apps ge­öff­net und möch­te sie schlie­ßen, et­wa um den Ak­ku zu scho­nen, wischt man ein­fach nach oben.

Vie­le neue Smart­pho­ne- Ges­ten sind noch lan­ge nicht in den täg­li­chen Ge­brauch über­ge­gan­gen. Die App De­si­gner könn­ten ru­hig krea­ti­ver mit ih­nen um­ge­hen. Im­mer­hin wa­ren es die User In­ter­face De­si­gner von Tin­der, die die letz­te bahn­bre­chen­de Ges­te ein­führ­ten. Wi­schen nach rechts für »Li­ke«, wi­schen nach links für »Nein dan­ke«. Wir brau­chen mehr da­von! »Tech­nisch ge­se­hen ist es gut, dass es vie­le Ges­ten gibt, denn in Sze­na­ri­en, in de­nen es Sinn macht, kann man auf sie zu­rück­grei­fen«, sagt Pe­ter Klein, Lei­ter des Be­reichs Re­se­arch & In­no­va­ti­on bei UID in Lud­wigs­burg. Den Force Touch könn­te man bei­spiels­wei­se pri­ma nut­zen, um tie­fer in ei­ne Ga­me-, AR- oder Vr-sze­ne vor­zu­drin­gen.

Ges­ten im frei­en Raum

Sin­niert man über künf­ti­ge Steue­rungs­mög­lich­kei­ten, den­ken vie­le an den Film »Mi­no­ri­ty Re­port«. Tom Crui­se schiebt dort im frei­en Raum Gra­fi­ken, Text­da­tei­en,

Fo­tos und Vi­de­os um­her, die wie Ho­lo­gram­me an ei­ner trans­pa­ren­ten Wand zu kle­ben schei­nen. Tat­säch­lich aber kommt die be­rüh­rungs­freie Ges­ten­steue­rung nur schlep­pend vor­an. »Ab­ge­se­hen von Ga­mes gibt es ein­fach zu we­ni­ge sinn­vol­le Use Ca­ses«, ur­teilt Pe­ter Klein. Nicht um­sonst stell­te Mi­cro­soft die Pro­duk­ti­on der Kinect En­de 2017 ein, denn au­ßer für Com­pu­ter­spie­le gab es nie ei­ne wirk­li­che Kil­ler­ap­pli­ka­ti­on, die von ihr pro­fi­tier­te.

Im pro­fes­sio­nel­len Um­feld, wie et­wa beim Ein­satz in Kran­ken­häu­sern oder im La­bor, wo die Hän­de ste­ril blei­ben müs­sen, wä­re Ges­ten­steue­rung ei­gent­lich das Mit­tel der Wahl. »Aber für si­cher­heits­re­le­van­te Sze­na­ri­en ist die Steue­rung noch im­mer zu un­ge­nau und da­mit zu ge­fähr­lich«, warnt Klein. Ab­hil­fe könn­ten hier Da­ten­hand­schu­he oder Ges­ten­steue­rungs­arm­bän­der wie das Myo schaf­fen, das mit Mac-, Win­dows-, IOS- und An­dro­id- Ge­rä­ten über Blue­tooth Smart funk­tio­niert und mit dem sich auch Fahr­zeu­ge durch die Dre­hung der Hand steu­ern las­sen.

Am meis­ten Sinn ma­che Ges­ten­steue­rung im frei­en Raum, wenn es nicht um Le­ben oder Tod geht, wenn Leu­te Hand­schu­he tra­gen müs­sen oder so schmut­zi­ge Ar­beit ver­rich­ten, dass sie das Touch­pad nicht an­fas­sen kön­nen. In vie­len In­dus­trie­kon­tex­ten voll­füh­ren Mit­ar­bei­ter ih­re Ges­ten be­reits knapp über dem Mo­ni­tor, oh­ne das Dis­play zu be­rüh­ren.

In-car-con­trol

Mit be­rüh­rung­frei­er Ges­ten­steue­rung ex­pe­ri­men­tie­ren na­tür­lich auch die Au­to­mo­bil­her­stel­ler. Bei BMW be­dient man das En­ter­tain­ment-sys­tem der neu­en 7erLi­mou­si­ne mit­tels Hand­be­we­gun­gen, die von Ka­me­ras ge­trackt wer­den. Dreht der Fah­rer ei­nen Fin­ger im Kreis, wird die Ste­reo­an­la­ge lau­ter oder lei­ser. Ein Fin­ger­zeig nimmt den An­ruf ent­ge­gen, ein We­deln mit der Hand lehnt ihn ab. Zwei Fin­ger Rich­tung Bild­schirm las­sen al­le vom Fah­rer de­fi­nier­ten Ak­tio­nen auf­tau­chen, wie et­wa Sen­der­wech­sel oder die Rück­kehr zum Haupt­me­nü. Die­se Art der Steue­rung funk­tio­niert ähn­lich wie Kinect oder Leap Mo­ti­on.

Doch mag nicht je­der im Au­to her­um­fuch­teln, um die Laut­stär­ke zu dros­seln. Pe­ter Klein von UID fin­det das lus­tig: »An­de­re Ges­ten – wie den Start des Schei­ben­wi­schers – könn­ten die üb­ri­gen Ver­kehrs­teil­neh­mer leicht miss­in­ter­pre­tie­ren.« Klein we­delt mit der rech­ten Hand vor den Au­gen hin und her. Die Krux: Ges­ten­steue­rung muss ge­nau sein – und wenn es im Au­to zu Vi­bra­tio­nen kommt, die Son­ne blen­det oder et­was zwi­schen Sen­sor und Hand ge­rät, kann es schon mal un­ge­nau wer­den. »Wir ar­bei­ten für den Werk­zeug­her­stel­ler Hil­ti und sind da­her viel auf Bau­stel­len«, be­rich­tet Clau­dia Fried­rich, Crea­ti­ve Di­rec­tor bei HID Hu­man In­ter­face De­sign in Ham­burg. In die­sem Um­feld sei es meist laut, schmut­zig und stau­big, und es ge­be viel Vi­bra­ti­on, was die Ges­ten­er­ken­nung oder auch die Voice-steue­rung er­schwert. »Das muss man beim In­ter­face De­sign be­rück­sich­ti­gen«, sagt Fried­rich.

Auch Pe­ter Klein – Spaß bei­sei­te – hält nicht viel von Ges­ten­steue­rung in Au­tos. Vie­le Stu­di­en, un­ter an­de-

rem von der In­ter­na­tio­nal Tele­com­mu­ni­ca­ti­on Uni­on des Tele­com­mu­ni­ca­ti­on Stan­dar­di­za­t­i­on Bu­reau in Genf zum The­ma Ablen­kung beim Au­to­fah­ren, hät­ten er­ge­ben, dass die ko­gni­ti­ve Be­las­tung bei ei­ner Ges­ten­steue­rung den Fah­rer ge­fähr­lich ab­lenkt (https://is.gd/ituf­gdistrac­tion). »Auch die Voice-steue­rung bringt ihn auf ei­nen Stress­le­vel, als müss­te er wäh­rend des Fah­rens ei­ne schwie­ri­ge ma­the­ma­ti­sche Auf­ga­be lö­sen«, sagt Klein. Denn bei ei­nem Voice User In­ter­face sei­en die Nut­zer ge­ra­de beim Au­to­fah­ren per­ma­nent dar­auf ge­polt, zu kon­trol­lie­ren, ob die Be­feh­le auch tat­säch­lich an­ge­kom­men sind und im Hin­ter­grund durch­ge­führt wer­den. Auch die Ein­ga­ben sei­en für den User enorm an­stren­gend, weil die Sprachas­sis­ten­ten nicht klug ge­nug sei­en und man im­mer wie­der Feh­l­ein­ga­ben kor­ri­gie­ren müs­se. Des­halb bleibt Pe­ter Klein prag­ma­tisch: »Bei Hei­zung, Kli­ma­an­la­ge, Schei­ben­wi­scher, Licht oder Mu­sik­an­la­ge soll­te man ein­fach bei Schal­tern blei­ben.« Die­se hät­ten sich be­währt und lie­ßen sich im Grun­de fast au­to­ma­tisch be­die­nen.

Das Jahr der Sprachas­sis­ten­ten

Das größ­te Ent­wick­lungs­po­ten­zi­al in 2019 steckt si­cher in der Sprach­steue­rung, denn zu Weih­nach­ten la­gen in vie­len Haus­hal­ten Voice-as­sis­ten­ten à la Goog­le Ho­me und Ama­zon Echo un­ter dem Christ­baum. Für die neu­en User bleibt zu hof­fen, dass die künst­li­che In­tel­li­genz der Ho­me Bots an­ge­sichts der schie­ren Men­ge der An­fra­gen ex­po­nen­ti­ell steigt. Denn bis­her ern­te­ten Ho­me und Echo bö­se Kla­gen über die Usa­bi­li­ty. Das UX-FOR­schungs­in­sti­tut Niel­sen Nor­man Group er­mit­tel­te, dass ak­tu­el­le Sprachas­sis­ten­ten so­wohl bei der na­tür­li­chen Sprach­ein­ga­be und de­ren In­ter­pre­ta­ti­on als auch bei der Sprach­aus­ga­be und der Auf­ga­ben­be­wäl­ti­gung ver­sa­gen, was zu ei­nem Ge­samt­nut­zungs­grad füh­re, der selbst bei leich­ten In­ter­ak­tio­nen als na­he­zu nutz­los zu be­zeich­nen sei (https://is.gd/nn­grou­pin­tel­li­gen­tas­sis­tants). Die Niel­sen Nor­man Group mo­niert auch das Con­ver­sa­tio­nal De­sign der Ho­me Bots: Die User sei­en ge­zwun­gen, sich kryp­ti­sche Be­feh­le, re­pres­si­ve Mo­di, ver­wir­ren­de Inhal- te und un­fle­xi­ble In­ter­ak­tio­nen zu mer­ken – schlecht für die User Ex­pe­ri­ence.

Clau­dia Fried­rich von HID glaubt al­ler­dings, dass die­ser Um­stand nur teil­wei­se den In­ter­ac­tion-de­si­gnern zu­zu­schrei­ben ist: »So­lan­ge die KI noch nicht klug ge­nug ist, ver­ste­hen die Sprachas­sis­ten­ten eben nur ein­fa­che, star­re Sät­ze.« Erst wenn Ama­zon, Goog­le und Co das Na­tu­ral Lan­gua­ge Pro­ces­sing bes­ser wei­ter­ent­wi­ckel­ten, sei es mög­lich, Kon­ver­sa­tio­nen ein­fa­cher und Auf­ga­ben kom­ple­xer zu ge­stal­ten. Erst dann könn­ten UI De­si­gner dem Sprachas­sis­ten­ten mehr Cha­rak­ter ver­lei­hen – Dia­lekt, Charme und Chuz­pe ha­ben noch kei­nem Ge­sprächs­part­ner ge­scha­det.

Für ei­ne bes­se­re Be­nut­zer­füh­rung er­hielt zu­min­dest Ale­xa in­zwi­schen ein zu­sätz­li­ches Dis­play, um ei­ne grö­ße­re Aus­wahl vi­sua­li­sie­ren zu kön­nen. Denn mehr als vier Op­tio­nen kann der Mensch sich über Voice nicht mer­ken, vi­su­ell sind es im­mer­hin sie­ben plus/mi­nus zwei. Das heißt für Con­ver­sa­tio­nal De­si­gner: In­hal­te stark prio­ri­sie­ren! Bis der Sprachas­sis­tent die Ge­fühls­la­ge von Usern an der Stim­me er­kennt und al­ters­ge­recht so­wie dem Wis­sens­stand an­ge­mes­sen re­agiert, wird es si­cher noch fünf Jah­re dau­ern, schätzt Clau­dia Fried­rich. Aber Asi­en macht uns vor, wo die Rei­se hin­geht: In Ja­pan und Süd­ko­rea sind ru­di­men­tä­re Ge­sprä­che mit Ver­kaufs­au­to­ma­ten oder Pfle­ge­ro­bo­tern schon an der Ta­ges­ord­nung.

Vir­tu­al Rea­li­ty: Ganz­kör­per­er­fah­rung oder Con­trol­ler

2018 ent­wi­ckel­ten Agen­tu­ren zwar deut­lich mehr Vir­tu­al-rea­li­ty-an­wen­dun­gen als zu­vor, doch war bis­her das ge­sam­te Se­t­up zu auf­wen­dig und teu­er, als dass der Markt rich­tig Fahrt auf­ge­nom­men hät­te: Man braucht zwei Ka­me­ras, Ka­bel vom Head­set zum Rech­ner und ei­nen leis­tungs­fä­hi­gen Rech­ner, der 2000 Eu­ro auf­wärts kos­tet. Je­doch kommt in die­sem Früh­jahr mit der Ocu­lus Qu­est ein Head­set in den Han­del, das mit sei­ner 6Dof-stan­da­lo­ne-tech­nik be­deu­tend mehr kann. Zwei im Head­set ver­bau­te Ka­me­ras, die die 6-De­grees-ofF­ree­dom-tech­no­lo­gie er­mög­li­chen, ver­mes­sen zu­dem den zur Ver­fü­gung ste­hen­den Raum, um dem User ei­ne freie­re Ori­en­tie­rung und Be­we­gung zu er­lau­ben. Man kann bei sei­nen Kör­per­po­si­tio­nen und -be­we­gun­gen zwi­schen Vor/zu­rück (for­ward/back), Rauf/run­ter (up/ down), Links/rechts (left/right), Gie­ren (yaw), Ni­cken (pitch) und Rol­len (roll) wech­seln. Ocu­lus Qu­est kos­tet rund 400 Dol­lar und könn­te da­mit vie­le neue End­kon­su­men­ten an­lo­cken. Auch die HTC Vi­ve Fo­cus ver­fügt über zwei ein­ge­bau­te Ka­me­ras und er­laubt eben­falls sechs Frei­heits­gra­de, ist aber dop­pelt so teu­er.

»Bis­her muss­te man für sol­che Head­sets zwei Ka­me­ras im Raum auf­stel­len, wenn man sich auf 16 Qua­drat­me­tern re­al be­we­gen woll­te«, sagt Rai­ner Lo­nau, Ge­schäfts­füh­rer von Aug­men­ted Minds Am­brus & Lo­nau in Mün­chen. Mit den neu­en HTC- und Ocu­lus-head­sets kann der User sich na­tür­lich fort­be­we­gen, oh­ne zu te­le­por­tie­ren. »Man könn­te al­so um ein vir­tu­el­les Au­to her­um­ge­hen oder sich her­un­ter­beu­gen und sich die Rei­fen an­schau­en, oh­ne dass man ei­nen Con­trol­ler be­nö-

»Tech­nisch ge­se­hen ist es gut, dass es vie­le Ges­ten gibt, denn in Sze­na­ri­en, in de­nen es Sinn macht, kann man auf sie zu­rück­grei­fen« Pe­ter Klein, Lei­ter Re­se­arch & In­no­va­ti­on bei UID in Lud­wigs­burg

tigt«, so Lo­nau. Ob­wohl erst Vr-sys­te­me, die das ge­sam­te Be­we­gungs­spek­trum des Users tra­cken und be­ant­wor­ten, ein wirk­lich im­mer­si­ves Vr-er­leb­nis bie­ten, ist die Steue­rung über Con­trol­ler noch die gän­gi­ge Pra­xis. »Con­trol­ler sind für die In­ter­ak­ti­on und Fort­be­we­gung in der Vr-welt das Mit­tel der Wahl, denn das Platz­an­ge­bot für ei­ne Ganz­kör­per-ex­pe­ri­ence ist nur sel­ten vor­han­den«, so Lo­nau.

Die Steue­rung ist wie im Ga­ming-be­reich denk­bar ein­fach. Man zeigt mit dem Con­trol­ler in die Rich­tung, in die man sich be­we­gen will. Dort, wo es et­was zu se­hen gibt, ha­ben sich leuch­ten­de Hots­pots oder Bub­bles be­währt. Dort­hin wird der User bei Klick mit dem Con­trol­ler te­le­por­tiert. »Ein­ge­bür­gert ha­ben sich Krei­se mit ei­nem hel­le­ren Schat­ten drum­her­um«, so Lo­nau. Hilf­reich sei­en auch zu­rück­hal­tend ge­stal­te­te gra­fi­sche Ele­men­te und Na­vi­ga­ti­ons- oder Feed­back-ani­ma­tio­nen, et­wa ein trans­pa­ren­ter Schat­ten oder ei­ne Li­nie, die dem User an­zeigt, wo zu­sätz­li­cher Con­tent zu fin­den ist oder wo­hin der Con­tent nach der In­ter­ak­ti­on ver­schwin­det. »Die Be­we­gung soll­te gra­fisch und funk­tio­nal zu­sam­men­pas­sen, die ko­gni­ti­ve Wahr­neh­mung un­ter­stüt­zen und nicht ein­fach nur ge­dan­ken­los be­reits exis­tie­ren­de Ui-pat­terns nut­zen, weil sie ge­ra­de po­pu­lär sind«, meint Sa­bi­ha Ghel­lal. »Als UX De­si­gner muss man sich vor­her reif­lich über­le­gen, wel­che Be­dürf­nis­se be­frie­digt wer­den sol­len und wie man dar­aus ei­ne für Nut­zer be­deut­sa­me Er­fah­rung ge­stal­ten kann.«

Aug­men­ted Rea­li­ty mit grafischen Ele­men­ten

An­ders als VR ist AR 2018 vor al­lem im in­dus­tri­el­len Um­feld an­ge­kom­men – meist in Kom­bi­na­ti­on mit der Ho­loLens. An­wen­dung fin­det Aug­men­ted Rea­li­ty in der War­tung von Ma­schi­nen, Au­tos und so­gar Öl­platt­for­men so­wie in der Aus- und Wei­ter­bil­dung von Händ­lern, Mecha­ni­kern, Mecha­tro­ni­kern, aber auch Me­di­zi­nern und Pfle­ge­kräf­ten et ce­te­ra.

Die Na­vi­ga­ti­on in Aug­men­ted-rea­li­ty-an­wen­dun­gen er­folgt mit­tels Blick­rich­tung und Bil­der­ken­nung – dort, wo der User hin­schaut, wird der ent­spre­chen­de Kon­text ein­ge­blen­det. In Tu­to­ri­als und an­de­ren Lern­an­wen­dun­gen ar­bei­ten die User In­ter­face De­si­gner al­ler­dings auch häu­fig mit Pfei­l­ele­men­ten und an­de­ren Icons, die in die Ar-er­wei­te­rung in­te­griert wer­den. »Hat der Mecha­ni­ker ei­nen Mo­tor­block im Blick­feld, kann man na­tür­lich auch die ent­spre­chen­den Werk­zeu­ge ein­blen­den, plus Pfei­len zur Ori­en­tie­rungs­hil­fe«, sagt Rai­ner Lo­nau. Na­tür­lich soll­ten die Pfeil­gra­fi­ken und Icons zur Mar­ke pas­sen. »Macht man al­so ein Ar-tu­to­ri­al für Au­to­mo­bil­her­stel­ler, nutzt man auch de­ren De­sign Pat­terns«, er­klärt Lo­nau. Die­se ver­fü­gen oh­ne­hin über Sty­le­gui­des und Pat­tern Li­bra­ries. Im in­dus­tri­el­len Um­feld ist dies kei­ne Selbst­ver­ständ­lich­keit. Hier ist ech­te De­si­gn­ex­per­ti­se ge­fragt.

Mi­xed-rea­li­ty-head­sets wie die Ho­lolens oder die Me­ta ver­su­chen, mit der Ges­ten­er­ken­nung von Fin­gern und Hän­den ei­ne neue Art von Be­die­nung zu eta­blie­ren. Die Ho­lolens et­wa ar­bei­tet mit zwei Stan­dard­steue­rungs­ges­ten: ei­ner Klick­be­we­gung mit dem Fin­ger, um Me­nü­punk­te aus­zu­wäh­len – auf Dau­er zu an­stren­gend, weil man den Fin­ger in der Mit­te deut­lich ab­kni­cken muss, da­mit die Head­set-ka­me­ra die Be­we­gung ver­ar­bei­tet –, und mit der Blu­men­ges­te, bei der man die Hand öff­net. Sie führt zu­rück ins Haupt­me­nü. Für krea­ti­ve An­wen­dun­gen muss man mit die­sen Hand­be­we­gun­gen le­ben – oder man ver­sucht, sie ir­gend­wie zu um­ge­hen.

Luft nach oben

Glück­li­cher­wei­se sind Tech­no­lo­gi­en im­mer in Ent­wick­lung und man kann Hard­wareli­mi­tie­run­gen auch als Her­aus­for­de­rung be­grei­fen. Dass Er­fin­der und De­si­gner an über­ra­schen­den al­ter­na­ti­ven Steue­run­gen tüf­teln, hat ge­ra­de Cy­ber­s­hoes be­wie­sen. Mit ei­nem Kick­star­terIn­vest­ment von rund 250 000 Dol­lar baut die ös­ter­rei­chi­sche Fir­ma ei­ne Art Roll­schu­he, mit de­nen man sit­zend durch ei­ne Vr-welt läuft, oh­ne Platz zu be­nö­ti­gen, und Rai­ner Lo­nau er­zählt be­reits von Ent­wick­lern im Si­li­con Val­ley, die das Platz­pro­blem lö­sen wol­len, in­dem sie die rea­len Schrit­te und die Fort­be­we­gung in der vir­tu­el­len Welt so ins Ver­hält­nis zu­ein­an­der set­zen, dass man mit Sie­ben­mei­len­stie­feln zu lau­fen scheint.

Ob Mo­bi­le De­sign, Sprach- und Ges­ten­steue­rung oder die Na­vi­ga­ti­on durch vir­tu­el­le Wel­ten – auch im Jahr 2019 lohnt es sich, quer zu den­ken und be­ste­hen­de Re­geln ak­tiv zu hin­ter­fra­gen. In die­sem Sin­ne: Blei­ben Sie dis­rup­tiv! ae [7506]

Newspapers in German

Newspapers from Germany

© PressReader. All rights reserved.