Wel­co­me to the Ma­chi­ne

Ma­chi­ne Le­arning und Deep Le­arning wer­den zum Mo­tor der di­gi­ta­len Trans­for­ma­ti­on.

Computerwoche - - Vorderseite - Von Hein­rich Vas­ke, Edi­to­ri­al Di­rec­tor

Ma­chi­ne Le­arning und Deep Le­arning sind Tech­no­lo­gi­en, auf die sich vie­le Un­ter­neh­men im Zu­ge ih­rer Di­gi­ta­li­sie­rungs­be­mü­hun­gen fo­kus­sie­ren. Na­he­zu un­end­li­che Rech­ner- und Spei­cher­ka­pa­zi­tä­ten sind – im Zwei­fel in der Pu­b­lic Cloud – vor­han­den, eben­so wach­sen die Da­ten­se­en auf enor­me Di­men­sio­nen an. KI-Tools aus der Cloud hel­fen An­wen­dern, ei­nen kal­ku­lier­ba­ren Ein­stieg zu fin­den und zu eru­ie­ren, wie ih­nen die neue Welt der künst­li­chen In­tel­li­genz wei­ter­hel­fen kann.

Künst­li­che In­tel­li­genz (KI) und Ma­chi­ne Le­arning (ML) sind kei­ne neu­en Tech­no­lo­gi­en, doch im prak­ti­schen Ein­satz spie­len sie erst jetzt ei­ne wich­ti­ge Rol­le. Woran liegt das? Wich­tigs­te Vor­aus­set­zung für ler­nen­de Sys­te­me und ent­spre­chen­de Al­go­rith­men sind aus­rei­chen­de Re­chen­ka­pa­zi­tä­ten und der Zu­griff auf rie­si­ge Da­ten­men­gen – egal ob es sich um Kun­den-, Log- oder Sensor­da­ten han­delt. Sie sind für das Trai­ning der Al­go­rith­men und für die Mo­dell­bil­dung un­ver­zicht­bar – und mit Pu­b­lic- und Pri­va­teC­loud-In­fra­struk­tu­ren ste­hen sie jetzt zur Ver­fü­gung.

Die Ana­lys­ten von Crisp Re­se­arch sind im Rah­men ei­ner um­fas­sen­den Stu­die ge­mein­sam mit The un­be­lieva­ble Ma­chi­ne Com­pa­ny und Hew­lett-Pa­ckard En­ter­pri­se der Fra­ge nach­ge­gan­gen, wel­che Rol­le Ma­chi­ne Le­arning heu­te und in Zu­kunft im Un­ter­neh­mens­ein­satz spie­len wird. Da­bei zeigt sich, dass deut­sche Un­ter­neh­men schon recht weit fort­ge­schrit­ten sind. Be­reits ein Fünf­tel setzt ML-Tech­no­lo­gi­en ak­tiv ein, 64 Pro­zent be­schäf­ti­gen sich in­ten­siv mit dem The­ma und vier von fünf Be­frag­ten sa­gen so­gar, ML wer­de ir­gend­wann ei­ne der Kern­tech­no­lo­gi­en des voll­stän­dig di­gi­ta­li­sier­ten Un­ter­neh­mens sein. Mus­ter er­ken­nen und Vor­her­sa­gen tref­fen

Ma­chi­ne-Le­arning-Al­go­rith­men hel­fen den Men­schen, Mus­ter in vor­han­de­nen Da­ten­be­stän­den zu er­ken­nen, Vor­her­sa­gen zu tref­fen oder Da­ten zu klas­si­fi­zie­ren. Mit ma­the­ma­ti­schen Mo­del­len kön­nen neue Er­kennt­nis­se auf Grund­la­ge die­ser Mus­ter ge­won­nen wer­den. Das gilt für vie­le Le­bens- und Ge­schäfts­be­rei­che. Oft pro­fi­tie­ren In­ter­net-Nut­zer längst da­von, oh­ne über die Tech­no­lo­gie im Hin­ter­grund nach­zu­den­ken.

Das Spek­trum der An­wen­dun­gen reicht von Mu­sik- und Fil­m­emp­feh­lun­gen im pri­va­ten Um­feld bis hin zur Ver­bes­se­rung von Mar­ke­ting-Kam­pa­gnen, Kun­den­ser­vices oder auch op­ti­mier­ten Ver­kehrs- und Lo­gis­ti­k­rou­ten im ge­schäft­li­chen Be­reich. Da­für steht ein brei­tes Spek­trum an ML-Ver­fah­ren zur Ver­fü­gung, dar­un­ter li­nea­re Re­gres­si­on, in­stan­zen­ba­sier­tes Ler­nen, Ent­schei­dungs-Baum-Al­go­rith­men, Bay­e­sche Sta­tis­tik, Clus­ter-Ana­ly­se, neu­ro­na­le Netz­wer­ke, Deep Le­arning und Ver­fah­ren zur Di­men­si­ons­re­duk­ti­on.

Die An­wen­dungs­be­rei­che sind viel­fäl­tig und teil­wei­se be­kannt. Man den­ke et­wa an SpamEr­ken­nung, die Per­so­na­li­sie­rung von In­hal­ten,

das Klas­si­fi­zie­ren von Do­ku­men­ten, Sen­ti­ment-Ana­ly­sen, Pro­gno­sen der Kun­den­ab­wan­de­rung, E-Mail-Klas­si­fi­zie­rung, Ana­ly­se von Up­sel­ling-Mög­lich­kei­ten, Stau­pro­gno­sen, Ge­nom­ana­ly­sen, me­di­zi­ni­sche Dia­gnos­tik, Chat­bots und vie­les mehr. Für na­he­zu al­le Bran­chen und Un­ter­neh­mens­ty­pen er­ge­ben sich al­so Ge­le­gen­hei­ten.

Mo­der­ne IT-Platt­for­men un­ter­stüt­zen KI

Crisp Re­se­arch legt Wert auf die Fest­stel­lung, dass Ma­chi­ne Le­arning idea­ler­wei­se Be­stand­teil ei­ner mo­der­nen, ska­lie­rungs­fä­hi­gen und fle­xi­blen IT-In­fra­struk­tur ist – ei­ner „Di­gi­tal In­fra­struc­tu­re Plat­form“. Die­se zeich­net sich durch Elas­ti­zi­tät, Au­to­ma­ti­sie­rung, ei­ne API-ba­sier­te Ar­chi­tek­tur und Agi­li­tät aus.

Ei­ne sol­che Platt­form ist in der Re­gel Cloud­ba­siert auf­ge­setzt und dient als Grund­la­ge für die Ent­wick­lung und den Be­trieb neu­er di­gi­ta­ler An­wen­dun­gen und Pro­zes­se. Sie bie­tet ei­ne of­fe­ne Ar­chi­tek­tur, Pro­gram­mier­schnitt­stel­len (APIs), um ex­ter­ne Ser­vices zu in­te­grie­ren, die Un­ter­stüt­zung von De­vOps-Kon­zep­ten so­wie mo­der­ne Me­tho­den für kur­ze Re­lease- und In­no­va­ti­ons­zy­klen. In­fra­struk­tur muss op­ti­mal aus­ge­legt sein

Die Ver­ar­bei­tung und Ana­ly­se gro­ßer Da­ten­men­gen ist ei­ne Kern­auf­ga­be ei­ner sol­chen Di­gi­tal In­fra­struc­tu­re Plat­form. Des­halb müs­sen die IT-Ver­ant­wort­li­chen Sor­ge tra­gen, dass ih­re IT mit un­ter­schied­li­chen Ver­fah­ren der künst­li­chen In­tel­li­genz um­ge­hen kann. Ser­ver-, Sto­r­a­ge- und Netz­werk-In­fra­struk­tu­ren müs­sen auf neue ML-ba­sier­te Wor­kloads aus­ge­legt sein. Auch das Da­ten-Ma­nage­ment muss vor­be­rei­tet sein, da­mit ML-as-a-Ser­vice-An­ge­bo­te in der Cloud ge­nutzt wer­den kön­nen.

Im Kon­text von Ma­chi­ne Le­arning ha­ben sich in den ver­gan­ge­nen Mo­na­ten auch al­ter­na­ti­ve Hard­ware­kom­po­nen­ten durch­ge­setzt, et­wa GPU-ba­sier­te Clus­ter von Nvi­dia, Googles Ten­sor Pro­ces­sing Unit (TPU) oder IBMs Tru­eNorth-Pro­zes­sor. Un­ter­neh­men müs­sen sich ent­schei­den, ob sie hier selbst in­ves­tie­ren oder die An­ge­bo­te ent­spre­chen­der Cloud-Pro­vi­der nut­zen wol­len.

Ei­ner der gro­ßen An­wen­dungs­be­rei­che für ML ist die Sprach­er­ken­nung und -ver­ar­bei­tung. Ama­zons Ale­xa zieht ge­ra­de in vie­le Haus­hal­te ein, Mi­cro­soft, Goog­le, Face­book und IBM ha­ben hier ei­nen Groß­teil ih­rer For­schungs- und Ent­wick­lungs­gel­der in­ves­tiert so­wie spe­zia­li­sier­te Fir­men zu­ge­kauft. Es lässt sich ab­se­hen, dass na­tür­lich­spra­chi­ge Kom­mu­ni­ka­ti­on an der Kun­den­schnitt­stel­le selbst­ver­ständ­li­cher wird. Auch die Be­die­nung von di­gi­ta­len Pro­duk­ten und En­ter­pri­se-IT-Lö­sun­gen wird via Sprach­be­fehl mög­lich sein. Das hat so­wohl Aus­wir­kun­gen auf das Cust­o­m­er-Front­end als auch auf das IT-Ba­ckend.

Nied­ri­ge Ein­stiegs­hür­den

Da die gro­ßen Cloud-An­bie­ter ML-Ser­vices und -Pro­duk­te in ihr Leis­tungs­port­fo­lio auf­ge­nom­men ha­ben, ist es für An­wen­der re­la­tiv ein­fach, ei­nen Ein­stieg zu fin­den. Ama­zon Ma­chi­ne Le­arning, Mi­cro­soft Azu­re Ma­chi­ne Le­arning, IBM Blu­emix und Goog­le Ma­chi­ne

Le­arning er­lau­ben ei­nen kos­ten­güns­ti­gen Zu­gang zu ent­spre­chen­den Di­ens­ten über die Pu­b­lic Cloud. An­wen­der brau­chen al­so kei­nen ei­ge­nen Su­per­com­pu­ter, kein Team von Sta­tis­tik­ex­per­ten und kein de­di­zier­tes In­fra­struk­turMa­nage­ment mehr. Mit ein paar Kom­man­dos über die APIs der gro­ßen Pu­b­lic-Cloud-Pro­vi­der kön­nen sie los­le­gen.

Sie fin­den dort un­ter­schied­li­che Ma­chineLe­arning-Ver­fah­ren so­wie Di­ens­te und Tools wie et­wa gra­fi­sche Pro­gram­mier­mo­del­le und Sto­r­a­ge-Di­ens­te vor. Je mehr sie sich dar­auf ein­las­sen, des­to grö­ßer wird al­ler­dings das Ri­si­ko ei­nes Ven­dor-Lock-ins. Des­halb soll­ten sich die Ver­ant­wort­li­chen vor dem Start Ge­dan­ken über ih­re Stra­te­gie ma­chen. IT-Di­enst­leis­ter und Ma­na­ged-Ser­vice-Pro­vi­der kön­nen eben­so ML-Sys­te­me und In­fra­struk­tu­ren be­reit­stel­len und be­trei­ben, so dass Un­ab­hän­gig­keit von den Pu­b­lic-Cloud-Pro­vi­dern und ih­ren SLAs eben­so mög­lich ist.

Ver­schie­de­ne Spiel­ar­ten der KI

Ma­chi­ne Le­arning, Deep Le­arning, Co­gni­ti­ve Com­pu­ting – der­zeit kur­sie­ren ei­ne Rei­he von KI-Be­grif­fen, de­ren Ab­gren­zung von­ein­an­der nicht ganz ein­fach ist. Crisp Re­se­arch wählt da­für die Di­men­sio­nen „Cla­ri­ty of Pur­po­se“(Ori­en­tie­rung am Ein­satz­weck) und „De­gree of Au­to­no­my“(Grad der Au­to­no­mie). ML-Sys­te­me sind der­zeit größ­ten­teils auf Ein­satz­zwe­cke hin ent­wi­ckelt und trai­niert. Sie er­ken­nen bei­spiels­wei­se im Fer­ti­gungs­pro­zess feh­ler­haf­te Pro­duk­te im Rah­men ei­ner Qua­li­täts­kon­trol­le. Ih­re Auf­ga­be ist klar um­ris­sen, es gibt kei­ne Au­to­no­mie.

Deep-Le­arning-Sys­te­me hin­ge­gen sind in der La­ge, mit­tels neu­ro­na­ler Net­ze ei­gen­stän­dig zu ler­nen. Si­mu­lier­te Neu­ro­nen wer­den in vie­len Schich­ten über­ein­an­der mo­del­liert und an­ge­ord­net. Je­de Ebe­ne des Netz­werks er­füllt da­bei ei­gen­stän­dig be­stimm­te Auf­ga­ben, et­wa das Er­ken­nen von Kan­ten. Die­se In­for­ma­ti­on wird ei­gen­stän­dig an die nächs­te Ebe­ne wei­ter­ge­ge- ben und fließt dort in die Ver­ar­bei­tung ein. Im Zu­sam­men­spiel mit gro­ßen Men­gen an Trai­nings­da­ten ler­nen sol­che Netz­wer­ke, be­stimm­te Auf­ga­ben zu er­le­di­gen – et­wa das Iden­ti­fi­zie­ren von Krebs­zel­len in me­di­zi­ni­schen Bil­dern.

Deep-Le­arning-Sys­te­me ar­bei­ten au­to­no­mer

Deep-Le­arning-Sys­te­me ar­bei­ten al­so deut­lich au­to­no­mer als ML-Sys­te­me, da die neu­ro­na­len Netz­wer­ke dar­auf trai­niert wer­den, selb­stän­dig zu ler­nen und Ent­schei­dun­gen zu tref­fen, die von au­ßen nicht un­be­dingt nach­voll­zieh­bar sind.

Als drit­te Spiel­art der KI gilt das Co­gni­ti­ve Com­pu­ting, das ins­be­son­de­re von IBM mit sei­ner Wat­son-Tech­no­lo­gie pro­pa­giert wird. Sol­che Sys­te­me zeich­nen sich da­durch aus, dass sie in ei­ner As­sis­tenz­funk­ti­on oder gar als Er­satz des Men­schen Auf­ga­ben über­neh­men und Ent­schei­dun­gen tref­fen und da­bei mit Am­bi­gui­tät und Un­schär­fe um­ge­hen kön­nen. Als Bei­spie­le kön­nen das Scha­dens­fal­lMa­nage­ment in ei­ner Ver­si­che­rung die­nen, ei­ne Ser­vice-Hot­li­ne oder die Dia­gnos­tik im Kran­ken­haus.

Auch wenn hier be­reits ein ho­hes Maß an Au­to­no­mie er­reicht wer­den kann, ist der Weg zu ech­ter künst­li­cher In­tel­li­genz mit au­to­no­men ko­gni­ti­ven Fä­hig­kei­ten noch weit. Die Wis­sen­schaft be­schäf­tigt sich aber in­ten­siv da­mit und strei­tet dar­über, ob und wann die­ses Ziel er­reicht wer­den kann. Der­weil sind Un­ter­neh­men gut be­ra­ten, sich mit den mach­ba­ren Use Ca­ses zu be­schäf­ti­gen, von de­nen es be­reits ei­ne Men­ge gibt.

Sta­tus quo bei deut­schen An­wen­dern

In der Crisp-Um­fra­ge sa­gen 34 Pro­zent, sie woll­ten mit ML-Tech­ni­ken ih­re in­ter­nen Pro­zes­se in der Pro­duk­ti­on, Logistik oder im Qua­li­täts-Ma­nage­ment ver­bes­sern. Sie er­he­ben bei­spiels­wei­se Da­ten im Pro­duk­ti­ons­ab­lauf, um ih­re Fer­ti­gung op­ti­mie­ren zu kön­nen.

Fast eben­so vie­le wol­len Initia­ti­ven rund um die Cust­o­m­er Ex­pe­ri­ence vor­an­trei­ben – et­wa in E-Com­mer­ce, Mar­ke­ting oder im Be­reich der Portale und Apps. Die An­wen­der ver­spre­chen sich da­von bei­spiels­wei­se ei­ne per­so­na­li­sier­te Kun­den­an­spra­che, um Pro­duk­te oder Di­ens­te ziel­ge­rich­te­ter an den Kon­su­men­ten brin­gen zu kön­nen.

Mit 19 Pro­zent ist die Grup­pe de­rer, die War­tungs- und Sup­port­leis­tun­gen op­ti­mie­ren wol­len (Pre­dic­tive Main­ten­an­ce), et­was klei­ner. Hin­zu kom­men Be­trie­be, die sich grund­sätz­lich mit neu­en Tech­no­lo­gi­en be­schäf­ti­gen (28 Pro­zent) oder durch Be­ra­ter auf das The­ma auf­merk­sam ge­wor­den sind (27 Pro­zent).

Das Nut­zungs­ver­hal­ten ist nicht nur zwi­schen, son­dern auch in­ner­halb der Bran­chen un­ter­schied­lich aus­ge­prägt. In der Au­to­mo­bil­bran­che et­wa gibt es gro­ße Ab­stän­de zwi­schen den Vor­rei­tern und den Nach­züg­lern. Für die Ent­wick­lung und Pro­duk­ti­on selbst­fah­ren­der Au­tos sind Bild- und Vi­deo­ana­ly­se in Echt­zeit so­wie sta­tis­ti­sche Ver­fah­ren und ma­the­ma­ti­sche Mo­del­le aus Ma­chi­ne Le­arning und Deep Le­arning weit ver­brei­tet. Ei­ni­ge Ver­fah­ren wer­den auch da­zu ver­wen­det, Fa­b­ri­ka­ti­ons­feh­ler in der Fer­ti­gung zu er­ken­nen.

Auch die Ma­schi­nen- und An­la­gen­bau­er ste­cken noch zur Hälf­te (53 Pro­zent) in der Eva­lu­ie­rungs- und Pla­nungs­pha­se. Ein knap­pes Drit­tel der Teil­neh­mer nutzt ML in aus­ge­wähl­ten An­wen­dungs­be­rei­chen pro­duk­tiv und 18 Pro­zent bau­en der­zeit Pro­to­ty­pen. Wei­ter sind die Han­dels- und Kon­sum­gü­ter­fir­men, die zu 44 Pro­zent da­bei sind, ML in ers­ten Pro­jek­ten und Pro­to­ty­pen zu er­pro­ben. Das über­rascht in­so­fern nicht, als die­se Fir­men in der Re­gel gut ge­pfleg­te Da­ten­be­stän­de ha­ben und viel Er­fah­rung mit Business In­tel­li­gence und Da­ta Wareh­ou­ses be­sit­zen. Ge­lingt es ih­nen, Preiss­tra­te­gi­en, Wa­ren­ver­füg­bar­kei­ten oder Mar­ke­ting-Kam­pa­gnen spür­bar zu ver­bes­sern, wird ML als will­kom­me­nes In­no­va­ti­ons­in­stru­ment be­ste­hen­der Big-Da­ta-Stra­te­gi­en ge­se­hen. Glei­ches gilt für die IT-, TK- und Me­dien­bran­che: Dort kom­men ML-Ver­fah­ren et­wa zum Aus­spie­len von On­line-Wer­bung, Be­rech­nen von Kauf­wahr­schein­lich­kei­ten (Con­ver­si­on Ra­tes) oder dem Per­so­na­li­sie­ren von Web-In­hal­ten und Ein­kaufs­emp­feh­lun­gen längst zum Ein­satz. Bei den pro­fes­sio­nel­len Di­enst­leis­tern spie­len das Mes­sen und Ver­bes­sern der Kun­den­bin­dung, der Di­enst­leis­tungs­qua­li­tät und der Ter­min­treue ei­ne wich­ti­ge Rol­le, sind das doch die wett­be­werbs­dif­fe­ren­zie­ren­den Fak­to­ren.

Knapp 60 Pro­zent der be­frag­ten Ent­schei­der ga­ben an, ih­re IT-Ab­tei­lung sei fe­der­füh­rend zu­stän­dig, wenn es um ML-Pro­jek­te ge­he. Den Stu­di­en­au­to­ren von Crisp zu­fol­ge liegt das an der ho­hen tech­no­lo­gi­schen Kom­ple­xi­tät des The­mas. Ne­ben ma­the­ma­ti­schen und sta­tis­ti­schen Skills ist dem­nach auch ei­ne gro­ße Band­brei­te an Fer­tig­kei­ten im Be­reich der IT-Ope­ra­ti­ons ge­fragt. Hin­zu kom­men die BI- und Ana­ly­tics-Fä­hig­kei­ten, die hier oft­mals an­ge­sie­delt sind.

Doch auch Fach­ab­tei­lun­gen wie Logistik und Pro­duk­ti­on sind mit im Boot, weil sie in der Re­gel die Pro­zess­ver­bes­se­rungs- und IoTSze­na­ri­en vor­an­trei­ben. Die gro­ßen Men­gen an Ma­schi­nen-, Pro­duk­ti­ons-, Logistik- so­wie sons­ti­gen Sen­sor- und Log-Da­ten müs­sen auf Mus­ter und Kor­re­la­tio­nen hin ab­ge­fragt wer­den – ei­ne Auf­ga­be für Fer­ti­gung und Logistik.

Und schließ­lich sind auch Kun­den­ser­vice und -sup­port füh­ren­de In­stan­zen, wenn es um die Ein­füh­rung von ML geht. Sie wol­len die per­so­na­li­sier­te Kun­den­in­ter­ak­ti­on vor­an­trei­ben und sam­meln in ih­ren Be­rei­chen die Text-, Bild­und Au­dio­da­ten, die das Po­ten­zi­al für Ana­ly­sen bie­ten. In­ter­es­sant an der Um­fra­ge ist in­des, dass Mar­ke­ting und Kom­mu­ni­ka­ti­on von ML oft nichts wis­sen wol­len, ob­wohl sie reich­lich Ein­satz­sze­na­ri­en hät­ten. Sie könn­ten et­wa Kun­den­be­zie­hun­gen aus­wer­ten und die Kun­den­bin­dung ver­bes­sern, au­to­ma­ti­sier­tes Me­di­en-Mo­ni­to­ring vor­an­trei­ben oder das

So­ci­al Web mit Sen­ti­ment-Ana­ly­sen be­ar­bei­ten. All das fin­det aber re­la­tiv sel­ten statt, was Crisp Re­se­arch mit der tra­di­tio­nell „pas­si­ven, tech­no­lo­gie­agnos­ti­schen Rol­le“die­ser Ab­tei­lun­gen be­grün­det. Mar­ke­ting- und Kom­mu­ni­ka­ti­ons­ab­tei­lun­gen tre­ten dem­nach meist als „An­for­de­rer“und in­ter­ne Kun­den auf, nicht als die­je­ni­gen, die tie­fer in Tech­no­lo­gi­en ein­stei­gen.

Bil­der­ken­nung ist der­zeit am wich­tigs­ten

Den Ein­stieg in Ma­chi­ne Le­arning fin­den die meis­ten Un­ter­neh­men mit Auf­ga­ben der Bild­ana­ly­se und -er­ken­nung. So iden­ti­fi­zie­ren In­dus­trie­un­ter­neh­men Fremd­kör­per auf För­der­bän­dern, ent­de­cken feh­ler­haf­te Ein­fär­bun­gen von Pro­duk­ten oder prä­pa­rie­ren ih­re Fahr­zeu­ge so, dass sie Um­ge­bungs­par­am­ter wie et­wa Stra­ßen­schil­der er­ken­nen.

Im­mer wich­ti­ger wer­den ML-Ver­fah­ren zu­dem für die Sprach­steue­rung und -er­ken­nung (42 Pro­zent). Eng da­mit ver­bun­den sind Na­tu­ral Lan­gua­ge Pro­ces­sing und Text­ana­ly­se – al­so das se­man­ti­sche Er­fas­sen von Sprach­in­hal­ten und Tex­ten. Heu­te be­schäf­ti­gen sich 35 Pro­zent der Un­ter­neh­men da­mit, Ten­denz stei­gend. Hin­ter­grund ist, dass kon­ver­sa­ti­ons­ba­sier­te Be­nut­zer­schnitt­stel­len der­zeit ei­nen Auf­schwung er­le­ben.

Ma­chi­ne Le­arning kommt au­ßer­dem bei rund ei­nem Drit­tel der Be­frag­ten im Zu­sam­men­hang mit der Ent­wick­lung di­gi­ta­ler As­sis­ten­ten, so­ge­nann­ter Bots, zum Ein­satz. Wei­te­re Ein­satz­ge­bie­te sind Ge­sichts­er­ken­nung, die Sen­ti­ment-Ana­ly­se und be­son­de­re Ver­fah­ren der Mus­ter­er­ken­nung – oft in ei­nem un­ter­neh­mens- oder bran­chen­spe­zi­fi­schen Kon­text. Die Sprach­er­ken­nung ist vor al­lem für Mar­ke­tin­gEnt­schei­der in­ter­es­sant, da di­gi­ta­le As­sis­ten­ten für die Au­to­ma­ti­sie­rung von Call-Cen­terAb­läu­fen oder die Echt­zeit­kom­mu­ni­ka­ti­on mit dem Kun­den an Be­deu­tung ge­win­nen. Auch die Per­so­na­li­sie­rung von Pro­dukt­emp­feh­lun­gen ist ein wich­ti­ger Use Ca­se.

Schaut man auf die ein­zel­nen Un­ter­neh­mens­be­rei­che, so wird deut­lich, dass sich die für Cust­o­m­er-Ex­pe­ri­ence-Ma­nage­ment zu­stän­di­gen Ein­hei­ten ML-Tech­no­lo­gi­en vor al­lem im Be­reich der Kun­den­seg­men­tie­rung, der per­so­na­li­sier­ten Pro­dukt­emp­feh­lung, der Sprach­er­ken­nung und teil­wei­se auch der Ge­sichts­er­ken­nung be­die­nen. IT-Ab­tei­lun­gen trei­ben da­mit E-Mail-Klas­si­fi­zie­rung, Spam-Er­ken­nung, Dia­gno­se­sys­te­me und das Klas­si­fi­zie­ren von Do­ku­men­ten vor­an. Die Pro­duk­ti­on ist vor al­lem auf Pro­zess­ver­bes­se­run­gen aus, wäh­rend Kun­den­dienst und Sup­port ih­re Dia­gno­seyste­me vor­an­trei­ben und an au­to­ma­ti­sier­ten Lö­sungs­emp­feh­lun­gen ar­bei­ten. Auch Cal­lCen­ter-Ge­sprä­che wer­den be­reits ana­ly­siert, teil­wei­se auch mit der Ab­sicht, po­si­ti­ve und ne­ga­ti­ve Äu­ße­run­gen der Kun­den zu er­ken­nen (Sen­ti­ment-Ana­ly­se).

Auch die Be­rei­che Fi­nan­ce und Hu­man Re­sour­ces so­wie das Ma­nage­ment ge­ne­rell nut­zen ver­mehrt ML-Tech­no­lo­gi­en. Wich­tigs­tes Ein­satz­ge­biet sind hier das Ri­si­ko-Ma­nage­ment so­wie Fo­re­cas­ting und Pro­gno­sen. Im HR-Be­reich wer­den auch Trai­nings­emp­feh­lun­gen au­to­ma­ti­siert er­stellt, Le­bens­läu­fe über­prüft und das Ta­lent-Ma­nage­ment vor­an­ge­trie­ben. Im zen­tra­len Ein­kauf und dem Ma­nage­ment der Lie­fe­ran­ten ist die Di­gi­tal-Supp­ly-ChainVer­bes­se­rung das Kern­auf­ga­ben­ge­biet von ML-Tech­no­lo­gie. Ver­mehrt wer­den hier auch De­mand Fo­re­cas­tings er­mit­telt, Ri­si­ken im Zu­sam­men­hang mit be­stimm­ten Lie­fe­ran­ten ana­ly­siert und ge­ne­rell Ent­schei­dungs­pro­zes­se di­gi­tal un­ter­stützt.

Ma­chi­ne-Le­arning-Platt­for­men und -Pro­duk­te

Geht es um die Aus­wahl von Platt­for­men und -Pro­duk­ten, spie­len Lö­sun­gen aus der Pu­b­lic Cloud ei­ne zu­neh­mend wich­ti­ge Rol­le (Ma­chi­ne Le­arning as a Ser­vice). Um Kom­ple­xi­tät aus dem We­ge zu ge­hen und weil die gro­ßen Clou­dPro­vi­der auch die maß­geb­li­chen In­no­va­to­ren auf die­sem Ge­biet sind, ent­schei­den sich vie­le An­wen­der für die­se Cloud-Lö­sun­gen. Wäh­rend 38,1 der Be­frag­ten Lö­sun­gen aus der Pu­b­lic Cloud be­vor­zu­gen, wäh­len 19,1 Pro­zent pro­prie­tä­re Lö­sun­gen aus­ge­such­ter An­bie­ter und 18,5 Pro­zent Open-Sour­ce-Al­ter­na­ti­ven. Der Rest ver­folgt ent­we­der ei­ne hy­bri­de Stra­te­gie (15,5 Pro­zent) oder hat sich noch kei­ne Mei­nung da­zu ge­bil­det (8,8 Pro­zent).

Un­ter den Cloud-ba­sier­ten Lö­sun­gen hat AWS den höchs­ten Be­kannt­heits­grad: 71 Pro­zent der Ent­schei­der ge­ben an, dass ih­nen Ama­zon in die­sem Kon­text be­kannt sei. Auch Mi­cro­soft, Goog­le und IBM sind den Um­fra­ge­teil­neh­mern zu mehr als zwei Drit­tel im ML-Um­feld ein Be­griff. In­ter­es­san­ter­wei­se nut­zen aber nur 17 Pro­zent der Be­frag­ten die AWS-Cloud-Di­ens­te im Kon­text der Eva­lu­ie­rung, Pro­jek­tie­rung so­wie im pro­duk­ti­ven Be­trieb für ML. Je­weils rund ein Drit­tel der Be­frag­ten be­schäf­tigt sich in­des mit IBM Wat­son, Mi­cro­soft Azu­re oder der Goog­le Cloud Ma­chi­ne Le­arning Platt­form.

Newspapers in German

Newspapers from Germany

© PressReader. All rights reserved.