Ma­chi­ne Le­arning ver­än­dert Be­darf

Res­sour­cen­in­ten­si­ve Re­chen­pro­zes­se hel­fen Nvi­dia und an­de­ren.

Computerwoche - - Vorderseite - Von Car­lo Vel­ten, Ana­lyst und CEO des IT-Re­se­arch- und Be­ra­tungs­un­ter­neh­mens Crisp Re­se­arch AG, Kas­sel

Die Abs­trak­ti­on von IT-In­fra­struk­tur via Vir­tua­li­sie­rung ist im Kon­text von Ma­chi­ne Le­arning (ML) eher ei­ne Bar­rie­re und ein Kos­ten­trei­ber, auf den man ger­ne ver­zich­tet. Fol­gen­de Trends zeich­nen sich auf der Hard­ware- und In­fra­struk­tur­sei­te ab:

ML as a Ser­vice: Nut­zung von ge­ne­ra­li­sier­ten ML-Di­ens­ten wie zum Bei­spiel Bil­der­ken­nung, Sen­ti­men­t­ana­ly­se etc. via API auf den gro­ßen Cloud-Platt­for­men.

Gra­fik­chips: Der Ein­satz von GPUs ver­spricht deut­li­che Per­for­mance- und Ef­fi­zi­enz­vor­tei­le und wird von Un­ter­neh­men wie Nvi­dia der­zeit mit neu­en En­ter­pri­se-kom­pa­ti­blen Pro­dukt­li­ni­en mas­siv vor­an­ge­trie­ben.

Spe­zi­al­hard­ware: Mit Field Pro­gramma­ble Ga­te Ar­rays (FPGAs) oder ASICs (Ap­p­li­ca­ti­onSpe­ci­fic In­te­gra­ted Cir­cuits) las­sen sich Leis­tung und Ef­fi­zi­enz bei ML-Ver­fah­ren wei­ter ver­bes­sern. So nutzt Mi­cro­soft auf der Azu­re Cloud FPGAs. Goog­le hat un­ter dem Na­men „Ten­sor“ei­ne Spe­zi­al­hard­ware zur Kal­ku­la­ti­on von ML- und vor al­lem Deep-Le­arning-Al­go­rith­men ent­wi­ckelt, die der­zeit aber nur in den ei­ge­nen Da­ta Cen­ters be­trie­ben wird.

Sys­tems on a Chip (SoC): Hin­zu kommt der Trend, dass im­mer mehr IoT-Ge­rä­te und ver­netz­te Pro­duk­te auf ei­ne ei­ge­ne Com­pu­te Unit und In­tel­li­genz, zum Bei­spiel in Form von ML-Al­go­rith­men, zu­rück­grei­fen müs­sen. Mit Sys­tems on a Chip oder SoC-pro­gramma­bleChips wer­den au­to­no­me und teil­au­to­no­me Em­bed­ded Sys­tems (ver­netz­te Au­tos, Kühl­schrän­ke, smar­te Funk­ti­ons­klei­dung etc.) er­mög­licht, die ei­nen Groß­teil des so­ge­nann­ten Edge Com­pu­ting aus­ma­chen.

Für CIOs, Re­chen­zen­trums­lei­ter und an­de­re Di­gi­ta­li­sie­rungs­ver­ant­wort­li­che wird sich in den nächs­ten Jah­ren ei­ni­ges än­dern. Die be­währ­ten x86-Stan­dard-In­fra­struk­tu­ren eig­nen sich für den ska­lie­ren­den, groß­flä­chi­gen Ein­satz von Ma­chi­ne Le­arning nur noch be­dingt. Nicht nur aus Per­for­mance-, son­dern auch aus Kos­ten­grün­den sind sie oft un­ge­eig­net. Nach Jah­ren der IT-In­fra­struk­tur-Kon­so­li­die­rung

wird es al­so wie­der et­was bun­ter in den Re­chen­zen­tren der An­wen­der und der Ser­vice­und Cloud-Pro­vi­der. Mit der Viel­falt wird die Kom­ple­xi­tät stei­gen, Hard­warewis­sen wird in den kom­men­den fünf bis zehn Jah­ren wie­der ge­fragt sein. In die­sem Kon­text stel­len sich die gro­ßen Chip­her­stel­ler neu auf und in­ves­tie­ren in ei­ne von ML be­stimm­te Zu­kunft.

Nvi­dia

Ei­nen ech­ten Lauf hat Nvi­dia, das sei­ne do­mi­nan­te Po­si­ti­on im Markt für ML-Pro­zes­so­ren wei­ter stär­ken und den Um­satz sei­ner Pro­dukt­li­ni­en Nvi­dia Tes­la P40, P4, Dri­ve PX 2 und Pas­cal P100 wei­ter stei­gern konn­te. Zur Hil­fe kommt ein at­trak­ti­ver Soft­ware-St­ack (CUDA, cuDNN) so­wie der wahr­schein­li­che Launch der GPU-Pro­zes­sor­se­rie Vol­ta zum Jah­res­en­de. Die zu­letzt gu­ten Ge­schäfts­er­geb­nis­se ge­hen auf das ein­träg­li­che ML-Ge­schäft zu­rück.

AMD

AMD be­rei­tet den Launch ei­ner neu­en GPUChip­se­rie na­mens Ve­ga vor, die bis zu 25 Tera­flops mit 0,5-Pre­ci­si­on lie­fern soll. Zu­dem wur­de der Soft­ware-St­ack über­ar­bei­tet und un­ter dem Na­men Ra­de­on Open Com­pu­te Plat­form (ROCm) als Open Sour­ce ver­füg­bar ge­macht. AMD ist ei­ne in­ter­es­san­te Al­ter­na­ti­ve zu Nvi­di­as CUDA und cuDNN.

In­tel

In­tel über­ar­bei­tet nicht nur sei­ne Xe­on-Pro­zes­sor­se­rie mit IP aus der Ner­va­na-Über­nah­me, die ML-Ac­ce­le­ra­ti­on-Funk­tio­na­li­tät in die Stan­dard-Chip­se­ri­en in­ji­ziert. Der Chip­gi­gant bringt auch ei­ne neue Pro­zes­sor­ge­ne­ra­ti­on auf Ba­sis der Ner­va­na-Ar­chi­tek­tur un­ter glei­chem Na­men her­aus (Ner­va­na En­gi­ne, Co­de­na­me „La­ke Crest“). Da­mit ent­wi­ckelt In­tel seit lan­ger Zeit erst­mals wie­der ei­ne kom­plett neue Pro­zes­sor­ar­chi­tek­tur, die nur auf ei­nen spe­zi­el­len Use Ca­se aus­ge­rich­tet ist (ASIC). Auch an­ge­sichts der 15 Mil­li­ar­den Dol­lar teu­ren Über­nah­me von Mo­bi­leye im Jahr 2016 und dem FPGA-Her­stel­ler Al­te­ra für 16,7 Mil­li­ar­den Dol­lar im Jahr 2015 wird klar, dass In­tel auf die Ma­chi­ne-Le­arning-Kar­te setzt.

Qual­comm und Xi­linx

Auch Qual­comm und Xi­linx schla­fen nicht und in­ves­tie­ren kräf­tig. So ver­sucht Xi­linx, die FPGA-Tech­no­lo­gi­en sa­lon­fä­hig zu ma­chen und in die Cor­po­ra­te Da­ta Cen­ter zu brin­gen. Ob und wie schnell das geht, muss sich erst noch zei­gen.

Fest steht al­so, dass die In­no­va­ti­ons­ge­schwin­dig­keit und Viel­falt im Hard­ware­markt wie­der deut­lich zu­neh­men. CIOs und ML-Spe­zia­lis­ten kön­nen sich auf ei­ne Fül­le neu­er Kon­zep­te und Ar­chi­tek­tu­ren freu­en. Die Nach­fra­ge wird da sein, denn die gro­ßen IT-Kon­zer­ne rüs­ten auf und in­ves­tie­ren in die nächs­te Ge­ne­ra­ti­on in­tel­li­gen­ter di­gi­ta­ler Di­ens­te. Star­tups und Tech­no­lo­gie­fir­men im Be­reich ML und

Newspapers in German

Newspapers from Germany

© PressReader. All rights reserved.