KI-Ser­vices und Ma­chi­ne Le­arning in der Cloud – ein Über­blick

Computerwoche - - Tech­nik - Von Klaus Man­hart, frei­er Fach­au­tor und Lehr­be­auf­trag­ter an der Lud­wig-Ma­xi­mi­li­ans-Uni­ver­si­tät Mün­chen

Fast al­le gro­ßen Cloud-An­bie­ter wie Mi­cro­soft, Ama­zon, IBM oder Goog­le bie­ten Ent­wick­lungs­werk­zeu­ge für künst­li­che In­tel­li­genz (KI) als Soft­ware as a Ser­vice (SaaS) an. Ma­chi­ne Le­arning bil­det den Schwer­punkt, doch es gibt auch im­mer mehr an­de­re ko­gni­ti­ve Ser­vices aus der Cloud. Al­len An­ge­bo­ten ge­mein ist, dass sie die Ein­stiegs­hür­den sen­ken. Al­ler­dings ist der Lock-in-Ef­fekt be­trächt­lich.

Vie­len Un­ter­neh­men feh­len das tech­ni­sche Know-how und ei­ne In­fra­struk­tur, um KI-Lö­sun­gen zu ent­wi­ckeln. Die Hür­den sind hoch: Die Be­reit­stel­lung von KI-An­wen­dun­gen ist mit ei­nem gro­ßen Auf­wand an Soft­ware, Hard­ware und Man­power ver­bun­den. Es braucht ei­ne ganz neue In­fra­struk­tur und er­heb­li­che tech­ni­sche Res­sour­cen. Rie­si­ge Da­ten­men­gen müs­sen mit­ein­an­der in Ver­bin­dung ge­bracht wer­den. Für den Auf­bau der Mo­del­le sind KI-Spe­zia­lis­ten und Da­ten­wis­sen­schaft­ler not­wen­dig. Vor al­lem aber ist nicht klar, ob sich der Auf­wand wirk­lich lohnt. Denn bei al­len In­no­va­tio­nen, die mit künst­li­cher In­tel­li­genz ver­bun­den sind, gibt es auch vie­le Un­wäg­bar­kei­ten.

Cloud-Ser­vices lö­sen die­ses Di­lem­ma und sen­ken die Ein­stiegs­hür­de für Ar­ti­fi­ci­al In­tel­li­gence auf ein ak­zep­ta­bles Ni­veau. Die Kos­ten sind über­schau­bar, und die An­bie­ter hal­ten ei­ne Viel­zahl kom­ple­men­tä­rer Ser­vices be­reit. Ein­zi­ger Wer­muts­trop­fen: Wer sich ein­mal für ei­nen Ser­vice-Pro­vi­der ent­schie­den hat, kann sich nur schwer wie­der von ihm lö­sen. Hier ein Über­blick über die ver­füg­ba­ren KI-An­ge­bo­te aus der Cloud.

Mi­cro­soft – Azu­re ML und Co­gni­ti­ve Ser­vices

Das „Azu­re Ma­chi­ne Le­arning (ML) Stu­dio“ist ei­ne Art Bau­kas­ten­sys­tem und Drag-and-DropTool zum Er­stel­len, Tes­ten und Be­reit­stel­len von Ma­chi­ne-Le­arning-Mo­del­len auf Pay-asy­ou-go-Ba­sis. Mi­cro­soft wen­det sich da­mit an Ent­wick­ler und In­ter­es­sen­ten, die kei­ne oder we­nig Er­fah­rung mit Ma­chi­ne Le­arning ha­ben.

Die Baustei­ne bil­den Da­ten­sät­ze oder Mo­du­le zur Da­ten­auf­be­rei­tung oder zur Da­ten­ana­ly­se. In ei­nem in­ter­ak­ti­ven und vi­su­el­len Ar­beits­be­reich wer­den die Mo­del­le auf­ge­baut und ge­star­tet. Der Nut­zer de­fi­niert zu­nächst ML-Ex­pe­ri­men­te, zieht dann in ei­nem Edi­tor Baustei­ne auf sei­ne Ar­beits­ober­flä­che, ver­knüpft die­se mit­ein­an­der und star­tet sie schließ­lich. Der fer­ti­ge Work­flow kann als Web-Ser­vice ge­star­tet und mit fri­schen Da­ten ver­sorgt wer­den, da­mit das trai­nier­te Mo­dell sei­ne Vor­her­sa­ge tref­fen kann.

Der Mi­cro­soft-Ser­vice ist auf Pre­dic­tive Ana­ly­tics aus­ge­rich­tet. Gro­ße Da­ten­men­gen las­sen sich da­mit schnell auf Mus­ter und Trends un­ter­su­chen und so für Pro­gno­sen ein­set­zen. Ty­pi­sche An­wen­dun­gen sind Emp­feh­lungs­sys­te­me, wie sie von Ama­zon be­kannt sind,

oder Vor­her­sa­ge­sys­te­me zum Bei­spiel für die Ent­wick­lung der Prei­se von Sto­r­a­ge-Sys­te­men.

Um das Stu­dio wirk­lich pro­duk­tiv nut­zen zu kön­nen, sind den­noch grund­le­gen­de ML-Kennt­nis­se Vor­aus­set­zung. Für an­spruchs­vol­le­re Mo­del­le sind Pro­gram­mier­kennt­nis­se not­wen­dig. Bei der Da­ten­trans­for­ma­ti­on wer­den bei­spiels­wei­se R- und Py­thon-Skrip­te ver­wen­det. Den­noch hilft der Mi­cro­soft-Ser­vice über vie­le Ein­stiegs­hür­den hin­weg. Ei­ne aus­führ­li­che Do­ku­men­ta­ti­on und in­ter­ak­ti­ve Lern­ele­men­te un­ter­stüt­zen da­bei.

An­de­re KI-An­wen­dun­gen hat Mi­cro­soft un­ter dem Na­men „Co­gni­ti­ve Ser­vices“zu­sam­men­ge­fasst. Die Di­ens­te las­sen sich über APIs in Un­ter­neh­mens­an­wen­dun­gen ein­bin­den, be­fin­den sich teil­wei­se aber noch im Pre­view-Sta­tus. Ak­tu­ell um­fasst Co­gni­ti­ve Ser­vices 25 Di­ens­te für Bild­ana­ly­se, Su­che, Wis­sen und Spra­che – für Letz­te­res gibt es zum Bei­spiel APIs zu Lan­gua­ge Un­der­stan­ding, Text­ana­ly­se, Über­set­zung und Sprach­er­ken­nung.

Für die Ent­wick­lung von Chat­bots stellt Mi­cro­soft den Azu­re Bot Ser­vice be­reit. Er soll da­bei hel­fen, in­tel­li­gen­te Bots zu er­stel­len, die in al­len Un­ter­neh­mens­be­rei­chen zum Ein­satz kom­men kön­nen, in de­nen Nut­zer mit der Fir­ma in Kon­takt tre­ten. Hier­für grei­fen Ent­wick­ler auf Tools wie Co­des, Links und Plug-ins zu.

AWS – KI und Ma­chi­ne Le­arning

Die Di­ens­te von Ama­zon Web Ser­vices (AWS) für künst­li­che In­tel­li­genz um­fas­sen ma­schi­nel­les Ler­nen ein­schließ­lich Deep Le­arning, vi­su­el­le Such- und Bil­der­ken­nung, na­tür­li­ches Sprach­ver­ständ­nis, au­to­ma­ti­sche Sprach­er­ken­nung und die Trans­for­ma­ti­on von Text zu Spra­che. Das Zen­trum der KI-Ent­wick­ler-Ser­vices bil­det „Ama­zon Ma­chi­ne Le­arning“. Da­mit kön­nen Pro­gno­se­an­wen­dun­gen wie Be­trugs­er­ken­nung oder Nach­fra­ge- und Klick­vor­her­sa­gen oh­ne gro­ßen Auf­wand er­stellt wer­den. Da­zu wer­den Mus­ter in vor­han­de­nen Da­ten ge­sucht und die Er­kennt­nis­se auf neue Da­ten an­ge­wen­det.

Der Ama­zon-Dienst ver­sucht, kom­ple­xe Ma­chi­ne-Le­arning-Pro­zes­se vor dem Ent­wick­ler zu ver­ber­gen, und bie­tet da­mit ei­ne Art Black­box für ML-An­wen­dungs­sze­na­ri­en. Das Ver­fah­ren zum Auf­bau­en von ML-Mo­del­len mit Ama­zon Ma­chi­ne Le­arning be­steht aus drei Vor­gän­gen: Da­ten­ana­ly­se, Mo­dell­trai­ning und Be­wer­tung. Vi­sua­li­sie­rungs-Tools und As­sis­ten­ten be­glei­ten den An­wen­der durch den Auf­bau­pro­zess der Mo­del­le, oh­ne dass kom­ple­xe Al­go­rith­men und Tech­no­lo­gi­en er­lernt wer­den müs­sen. Wenn ein Mo­dell auf­ge­baut ist, hilft die in­tui­ti­ve Kon­so­le bei der Mo­dell­be­wer­tung und Fein­ab­stim­mung, so dass An­wen­der die Stär­ken und Schwä­chen des Mo­dells ken­nen­ler­nen kön­nen und sich die Leis­tung den Ge­schäfts­zie­len an­pas­sen lässt. Sind die Mo­del­le für die Pro­gno­sen fer­tig, las­sen sie sich bei Ama­zon Ma­chi­ne Le­arning mit Hil­fe ein­fa­cher APIs ab­ru­fen. Die Im­ple­men­tie­rung von be­nut­zer­de­fi­nier­tem Co­de oder Ver­wal­tung von In­fra­struk­tu­ren braucht es da­zu nicht.

Ne­ben ma­schi­nel­lem Ler­nen stellt Ama­zon wei­te­re KI-Ser­vices in sei­ner Cloud be­reit. Un­ter „Ama­zon Lex“kön­nen Ent­wick­ler mit Hil­fe von Ale­xa-Tech­no­lo­gie Kon­ver­sa­ti­ons-Schnitt­stel­len für Spra­che, Text und Chat­bots bau­en. „Ama­zon Pol­ly“ist ein Ser­vice, der Text in na­tür­li­che Spra­che kon­ver­tiert. Er un­ter­stützt 24 Spra­chen und 47 na­tür­li­che Stim­men. „Ama­zon Re­ko­gni­ti­on“bie­tet ei­ne ein­fa­che Bild­ana­ly­se auf Ba­sis von Deep Le­arning, die Ge­sich­ter in Bil­dern er­ken­nen kann.

Goog­le Cloud Ma­chi­ne Le­arning

Das Haupt­pro­dukt von Googles KI-Ser­vices ist die Cloud Ma­chi­ne Le­arning Plat­form. Sie be­steht aus meh­re­ren un­ter­schied­lich aus­ge­rich­te­ten Di­ens­ten, die sich mit an­de­ren Clou­dPlatt­for­men von Goog­le ver­bin­den las­sen. Über APIs kön­nen die­se Ser­vices in ei­ge­ne Un­ter­neh­mens­an­wen­dun­gen in­te­griert wer­den.

Die APIs, die Goog­le KI-Ent­wick­lern an­bie­tet, sind breit ge­fä­chert und eig­nen sich da­für, An­wen­dun­gen das Se­hen, Hö­ren oder Über­set­zen bei­zu­brin­gen. In je­dem Fall pro­fi­tie­ren Ent­wick­ler von den Vor­tei­len von Googles ei­ge­nen Di­ens­ten. Al­ler­dings sind sie da­mit auch auf die an­ge­bo­te­nen Goog­le-Ser­vices be­schränkt.

Ei­ge­ne Mo­del­le für ma­schi­nel­les Ler­nen las­sen sich mit der Cloud ML Plat­form er­stel­len und trai­nie­ren. De­ren Ver­wen­dung er­for­dert al­ler­dings gu­te Ma­chi­ne-Le­arning-Fä­hig­kei­ten. Ba­sis da­für ist das eben­falls von Goog­le stam­men­de Open-Sour­ce-Frame­work „Ten­sor­flow“. Die Bi­b­lio­thek für ma­schi­nel­les Ler­nen ba­siert auf ei­ner Deep-Le­arning-In­fra­struk­tur und macht das neu­ro­na­le Netz da­mit all­ge­mein ver­füg­bar. Zur Ver­bes­se­rung der Pro­gno­se­ge­nau­ig­keit gibt es die Funk­ti­on „Hy­perTu­ne“. Die­se durch­fors­tet die er­stell­ten Mo­del­le und ver­bes­sert au­to­ma­tisch die Vor­her­sa­ge­ge­nau­ig­keit. Weil Hy­perTu­ne die Pa­ra­me­ter auf­ein­an­der ab­stimmt, kön­nen Ent­wick­ler ih­re Mo­del­le auch schnel­ler bau­en.

Zur Da­ten­ver­wal­tung las­sen sich „Cloud Sto­r­a­ge“, „Cloud Da­ta­f­low“und „Cloud Da­ta­l­ab“ver­wen­den. Da Cloud ML deut­lich mehr Kennt­nis­se im Be­reich des ma­schi­nel­len Ler­nens er­for­dert als an­de­re An­ge­bo­te, hat Goog­le den Pro­fes­sio­nal Ser­vice „Ma­chi­ne Le­arning Ad­van­ced So­lu­ti­ons Lab“ein­ge­führt, über den sich In­ter­es­sen­ten be­ra­ten las­sen kön­nen. IBM Blu­emix und Ma­chi­ne Le­arning

Auf der IBM-Cloud-Platt­form Blu­emix fin­den Ent­wick­ler zahl­rei­che ko­gni­ti­ve KI-Ser­vices, die über APIs be­reit­ge­stellt wer­den. Die meis­ten die­ser An­wen­dun­gen be­ru­hen auf Wat­sonTech­no­lo­gie, IBMs ko­gni­ti­vem KI-Sys­tem, und kön­nen über die Wat­son Ser­vices ab­ge­ru­fen wer­den. Ak­tu­ell sind dort mehr als 30 Di­ens­te ver­füg­bar, un­ter an­de­rem für se­man­ti­sche Ana­ly­sen, Bild-, Ge­sichts- und Sprach­er­ken­nung so­wie Über­set­zungs­diens­te und Speech­to-Text-Trans­for­ma­ti­on. Mit „Con­ver­sa­ti­on“las­sen sich bei­spiels­wei­se Chat­bots ent­wick­len, die bei ein­ge­schrän­kem Kon­text na­tür­li­che Spra­che ver­ste­hen und da­mit hel­fen, Kun­den ge­zielt und in­di­vi­du­ell zu be­ra­ten.

Das Un­ter­neh­men hat die neue Platt­form „IBM Ma­chi­ne Le­arning“an den Start ge­bracht, wel­che die Ent­wick­lung und den Ein­satz selbst­ler­nen­der Ana­ly­se­mo­del­le in der Pri­va­te Cloud er­mög­licht. Sie er­laubt Da­ten­wis­sen­schaft­lern den Ein­satz und die Er­stel­lung ope­ra­tio­na­ler Ana­ly­se­mo­del­le. Un­ter­stützt wer­den ver­schie­de­ne Pro­gram­mier­spra­chen wie Ja­va und Py­thon so­wie di­ver­se Ma­chi­ne Le­arning Frame­works wie Apa­che Spar­kML und Ten­sor­flow.

Mit „Co­gni­ti­ve Au­to­ma­ti­on for Da­ta Sci­en­tists“au­to­ma­ti­siert IBM Ma­chi­ne Le­arning erst­mals Ma­chi­ne-Le­arning-Pro­zes­se. Da­ten­spe­zia­lis­ten kön­nen da­mit den pas­sen­den Al­go­rith­mus für ih­re Mo­del­le fin­den. Da­zu wer­den die Da­ten mit den ver­füg­ba­ren Al­go­rith­men ver­gli­chen und der rich­ti­ge Al­go­rith­mus für den je­wei­li­gen Be­darf be­reit­ge­stellt. IBM hat hier­für die Ma­chi­ne-Le­arning-Tech­nik von Wat­son ex­tra­hiert und stellt die­se Tech­nik erst­mals auf zSys­tem-Main­frames zur Ver­fü­gung.

HPE Ha­ven OnDe­mand

Hew­lett Pa­ckard En­ter­pri­se (HPE) of­fe­riert mit „Ha­ven OnDe­mand“ei­ne Cloud-ba­sier­te Ma­chi­ne Le­arning Plat­form für die Da­ten­ana­ly­se und ei­ni­ge an­de­re KI-An­wen­dun­gen.

Un­ter­neh­men mit we­nig Er­fah­rung in Sa­chen Ent­wick­lung, KI und ma­schi­nel­les Ler­nen wer­den mit den An­ge­bo­ten von Mi­cro­soft und ins­be­son­de­re Ama­zon gut zu­recht­kom­men.

Der SaaS-Ser­vice rich­tet sich nach HPE-An­ga­ben an pro­fes­sio­nel­le Ent­wick­ler, Star­tups so­wie Un­ter­neh­men und be­inhal­tet mehr als 60 APIs und Ser­vices für KI-An­wen­dun­gen mit Schwer­punkt ma­schi­nel­les Ler­nen – dar­un­ter auch Deep Le­arning.

Mit Ha­ven kön­nen KI-An­wen­dun­gen ge­ne­riert wer­den wie Pre­di­cit­ve Ana­ly­tics, Ge­sichts­er­ken­nung, Speech-to-Text-Funk­tio­nen, Emp­feh­lungs­diens­te und wis­sens­ba­sier­te Gra­phana­ly­se – Letz­te­res ist letzt­end­lich Bil­der­ken­nung in Vi­de­os. An Da­ten las­sen sich struk­tu­rier­te und un­struk­tu­rier­te Text-, Au­dio-, Bild-, so­zia­le, Web- und Vi­deo­quel­len ent­we­der aus dem ei­ge­nen Fun­dus oder so­zia­len Net­zen und dem In­ter­net nut­zen. Der HPE-Ser­vice ist in zwei An­wen­dungs­be­rei­che auf­ge­teilt: Der Big-Da­ta­Ana­ly­tics-Ser­vice „Ver­ti­ca“zielt auf das Bi­gDa­ta-Um­feld im Un­ter­neh­mens­be­reich. „IDOL“hin­ge­gen dient mehr als Ana­ly­se­werk­zeug im Web, mit dem gro­ße Da­ten­men­gen et­wa aus so­zia­len Netz­wer­ken schnell un­ter­sucht wer­den kön­nen.

Ha­ven OnDe­mand wird als Free­mi­um-Pro­dukt über die Mi­cro­soft Azu­re Cloud an­ge­bo­ten, Azu­re ist al­so Vor­aus­set­zung, um den HPESer­vice nut­zen zu kön­nen.

Sa­les­force Ein­stein

Ei­nen ganz an­de­ren An­satz als die bis­lang vor­ge­stell­ten Di­ens­te ver­folgt Cloud-Pio­nier Sa­les­force mit sei­nem KI-Ser­vice Ein­stein. Er un­ter­stützt Sa­les­force-Kun­den mit KI-Al­go­rith­men, die im Hin­ter­grund ar­bei­ten, oh­ne dass sich der An­wen­der ex­pli­zit dar­um küm­mern muss. Al­ler­dings wer­den die Ser­vices nur für Sa­les­force-Kun­den be­reit­ge­stellt.

Je­der Sa­les­force-An­wen­der kann mit Ein­stein KI-Funk­tio­nen für Mar­ke­ting und Ana­ly­tics bis hin zum Ver­kauf nut­zen. Die Ser­vices wer­den da­bei ent­we­der in die be­ste­hen­den An­ge­bo­te in­te­griert oder als als Zu­satz­diens­te be­reit­ge­stellt. Mit­tels ma­schi­nel­lem Ler­nen, Pre­dic­tive Ana­ly­tics, na­tür­li­cher Sprach­ver­ar­bei­tung und in­tel­li­gen­ter Da­ten­er­ken­nung kön­nen Mo­del­le au­to­ma­tisch für je­den ein­zel­nen Kun­den an­ge­passt wer­den.

„Pre­dic­tive Le­ad Sco­ring“er­laubt es bei­spiels­wei­se Ver­triebs­mit­ar­bei­tern, sich auf die viel­ver­spre­chends­ten Leads zu kon­zen­trie­ren. „Op­por­tu­ni­ty In­sights“gibt Warn­mel­dun­gen aus, wenn Ge­schäfts­pa­ra­me­ter nach oben oder un­ten aus­schla­gen. Und „Pro­duct Re­com­men­da­ti­ons“passt Pro­dukt­emp­feh­lun­gen in­di­vi­du­ell an die Be­dürf­nis­se des Käu­fers an.

Für das Ge­ne­rie­ren und Trai­nie­ren der Mo­del­le greift Sa­les­force auf al­le Da­ten zu­rück, die dem Un­ter­neh­men zur Ver­fü­gung ste­hen – al­so Kun­den­da­ten, Ak­ti­vi­täts­da­ten von Chat­ter, E-Mail, E-Com­mer­ce, So­ci­al-Me­dia-Da­ten wie Tweets und Bil­der und so­gar IoT-Si­gna­le. Das mag hei­kel er­schei­nen, weil hier Kun­den­da­ten von zahl­rei­chen Un­ter­neh­men ver­ar­bei­tet wer­den. Sa­les­force ver­si­chert aber, dass al­le Da­ten­schutz­re­gu­la­ri­en be­ach­tet wer­den und die Da­ten an­ony­mi­siert in die Ent­wick­lung der AI-Mo­del­le ein­flie­ßen.

Sa­les­force Ein­stein: Pre­dic­tive Con­tent lie­fert Kun­den auf Ba­sis von ma­schi­nel­lem Ler­nen ei­ne in­di­vi­du­el­le Emp­feh­lung für das bes­te Pro­dukt.

Das von Goog­le stam­men­de Open-Sour­ce-Frame­work Ten­sor­flow ist die Ba­sis von Cloud ML.

Newspapers in German

Newspapers from Germany

© PressReader. All rights reserved.