Nvi­dia tunt GPUs für den KI-Markt

Nvi­dia hat die Gra­fik­chip-Ar­chi­tek­tur „Vol­ta“prä­sen­tiert. Mit 21 Mil­li­ar­den Tran­sis­to­ren und 5120 Re­chen­ker­nen soll sich die neue GPU-Ge­ne­ra­ti­on be­son­ders für Auf­ga­ben rund um KI und Ma­chi­ne Le­arning eig­nen.

Computerwoche - - Inhalt - Von Mar­tin Bay­er, De­pu­ty Editorial Di­rec­tor

Die Gra­fik­chip-Ar­chi­tek­tur „Vol­ta“soll sich be­son­ders für Auf­ga­ben rund um künst­li­che In­tel­li­genz und Ma­chi­ne Le­arning eig­nen.

Künst­li­che In­tel­li­genz treibt die größ­ten tech­no­lo­gi­schen Fort­schrit­te in der Ge­schich­te der Mensch­heit vor­an“, sag­te Jensen Huang, Grün­der und CEO von Nvi­dia, an­läss­lich der Er­öff­nung der GPU Tech­no­lo­gy Con­fe­rence (GTC) im ka­li­for­ni­schen San Jo­sé. Um die da­für not­wen­di­ge Re­chen­leis­tung be­reit­zu­stel­len, ar­bei­tet der Spe­zia­list für Gra­fik­pro­zes­so­ren lau­fend dar­an, die Leis­tung sei­ner Gra­phic Pro­ces­sing Units (GPUs) ent­spre­chend zu tu­nen. Gra­fik­pro­zes­so­ren sind von ih­rer Ar­chi­tek­tur her bes­ser ge­eig­net, Re­chen­auf­ga­ben rund um KI und Ma­chi­ne Le­arning (ML) ab­zu­ar­bei­ten. Wäh­rend her­kömm­li­che CPU-Ar­chi­tek­tu­ren mit we­ni­gen Re­chen­ein­hei­ten dar­auf aus­ge­legt sind, Auf­ga­ben se­ri­ell hin­ter­ein­an­der zu be­rech­nen, war­ten GPUs mit ei­ner mas­siv-par­al­le­len Ar­chi­tek­tur auf, die mit vie­len klei­ne­ren, aber ef­fi­zi­ent ar­bei­ten­den Com­pu­teEin­hei­ten Re­chen­auf­ga­ben stark par­al­le­li­siert ab­wi­ckeln kön­nen.

Da­für hat Nvi­dia auf der GTC die neue Chi­par­chi­tek­tur Vol­ta prä­sen­tiert. Die­se bie­te laut Her­stel­ler­an­ga­ben deut­lich mehr Re­chen­leis­tung als der Vor­gän­ger „Pas­cal“und sei spe- ziell für Auf­ga­ben aus dem KI- und ML-Be­reich zu­ge­schnit­ten. Die ers­te Vol­ta-GPU „GV100“hat der Her­stel­ler auf der Re­chen­kar­te „Tes­la V100“ver­baut. Tau­sen­de von Ent­wick­lern hät­ten drei Jah­re an Vol­ta ge­ar­bei­tet, be­rich­te­te Huang und ließ durch­bli­cken, dass man mit der neu­en Ge­ne­ra­ti­on all­mäh­lich an die Gren­zen des klas­si­schen fo­to­li­tho­gra­fi­schen Chip­her­stel­lungs­ver­fah­rens sto­ße. Nvi­di­as neu­er Gra­fik­chip wird im Zwölf-Na­no­me­ter-Ver­fah­ren ge­fer­tigt und be­steht aus über 21 Mil­li­ar­den Tran­sis­to­ren so­wie 5120 CUDA-Re­chen­ker­nen. Zum Ver­gleich: Der Vor­gän­ger Tes­la P100 aus der Pas­cal-Se­rie bot et­wa 15 Mil­li­ar­den Tran­sis­to­ren so­wie 3840 Re­chen-Co­res auf. Nvi­dia zu­fol­ge ist es den ei­ge­nen Ent­wick­lern ge­lun­gen, die Vol­ta-Ar­chi­tek­tur ge­gen­über der Vor­gän­ger­ge­ne­ra­ti­on um rund 50 Pro­zent ef­fi­zi­en­ter zu ma­chen. Dem­zu­fol­ge sei­en in der Tes­la-V100-Kar­te 640 „Ten­sor Co­res“in­te­griert, die spe­zi­ell dar­auf aus­ge­legt sei­en, Künst­li­cheIn­tel­li­genz- und Ma­chi­ne-Le­arning-Wor­kloads zu be­ar­bei­ten.

Da­mit lie­fe­re der Gra­fik­chip ei­ne Leis­tung von 120 Tera­flops, be­haup­ten die Nvi­dia-Ver­ant­wort­li­chen, was der Leis­tung von rund 100 klas­si­schen CPUs ent­spre­che – oh­ne je­doch ge­nau­er zu spe­zi­fi­zie­ren, um wel­chen CPU-Typ es sich hand­le. Durch die Kopp­lung von CUDAKern mit dem neu­en Vol­ta Ten­sor Co­re in­ner­halb ei­ner ein­heit­li­chen Ar­chi­tek­tur kön­ne ein ein­zel­ner Ser­ver mit Tes­la-V100-GPUs Hun­der­te von her­kömm­li­chen CPUs für tra­di­tio­nel­le HPC er­set­zen, ver­spricht der Her­stel­ler.

Ne­ben dem Chip selbst hat Nvi­dia auch an der Ver­bin­dung der neu­en GPU-Ar­chi­tek­tur mit der wei­te­ren Re­chen­in­fra­struk­tur ge­ar­bei­tet. Die nächs­te NVLink-Ge­ne­ra­ti­on 2.0 für die Ver­bin­dung ver­schie­de­ner GPUs un­ter­ein­an­der so­wie zwi­schen GPU und CPU soll ei­nen dop­pelt so ho­hen Da­ten­durch­satz im Ver­gleich zur jet­zi­gen NVLink-Ver­si­on er­rei­chen. Huang zu­fol­ge ent­spre­chen Da­ten­ra­ten von 300 GB/s et­wa dem Zehn­fa­chen, was Stan­dard-PCIeVer­bin­dun­gen schaf­fen. Au­ßer­dem ver­wen­det Vol­ta ei­nen ge­mein­sam mit Samsung ent­wi­ckel­ten HBM2-DRAM-Speicher, der mit 900 GB/s ei­ne um 50 Pro­zent grö­ße­re Me­mo­ryBand­brei­te als die Vor­gän­ger er­mög­licht.

Die Er­war­tun­gen bei Nvi­dia an den neu­en Hoff­nungs­trä­ger sind hoch. Nach Ein­schät­zung der Ver­ant­wort­li­chen ge­be es ei­ne gro­ße Nach­fra­ge nach Be­schleu­ni­gung von KI-Tech­no­lo­gi­en. Ent­wick­ler, Da­ten­wis­sen­schaft­ler und For­scher wür­den zu­neh­mend auf neu­ro­na­le Net­ze set­zen, um ih­re Pro­jek­te bei­spiels­wei­se bei der Be­kämp­fung von Krebs zu be­schleu­ni­gen, um Trans­por­te mit selbst­fah­ren­den Fahr­zeu­gen si­che­rer zu ma­chen oder um neue in­tel­li­gen­te Kun­den­er­leb­nis­se zu bie­ten. In der Fol­ge müss­ten Re­chen­zen­tren ei­ne im­mer hö­he­re Re­chen­leis­tung lie­fern, da die­se Netz­wer­ke im­mer kom­ple­xer wür­den. „Vol­ta wird der neue Stan­dard für High Per­for­mance Com­pu­ting wer­den“, gibt sich die Nvi­dia-Füh­rung selbst­be­wusst.

Vor­her muss Vol­ta al­ler­dings erst ein­mal den Weg in die Pra­xis fin­den. Das soll bei­spiels­wei­se mit Nvi­di­as neu­em Su­per­com­pu­ter DGX-1 ge­lin­gen. Mit acht Tes­la-V100-Re­chen­kar­ten kommt das Sys­tem auf ins­ge­samt fast 41.000 Re­chen­ker­ne. Flan­kiert wer­den die GPUs von zwei auf 2,2 Gi­ga­hertz ge­tak­te­ten In­tel-XeonPro­zes­so­ren. Au­ßer­dem ver­fügt der Rech­ner Her­stel­ler­an­ga­ben zu­fol­ge über vier SSDs mit je­weils knapp zwei Te­ra­byte Spei­cher­vo­lu­men und läuft un­ter Ubu­ntu Li­nux. Der DGX-1 soll im drit­ten Quar­tal des Jah­res auf den Markt kom­men und 149.000 Dol­lar kos­ten. Ge­plant ist fer­ner ei­ne ab­ge­speck­te Va­ri­an­te, die DGX Sta­ti­on, mit vier GPU-Ein­hei­ten, die 69.000 Dol­lar kos­ten und Nvi­dia zu­fol­ge im vier­ten Quar­tal 2017 ver­füg­bar sein soll. Bei­de DGXSu­per­com­pu­ter sol­len mit ver­schie­de­nen High-Per­for­mance-Com­pu­ting- so­wie Dee­pLe­arning-Frame­works zu­sam­men­ar­bei­ten, bei­spiels­wei­se mit dem Nvi­dia-ei­ge­nen CUDA so­wie Ten­sor und Caf­fe2.

Nvi­dia bie­tet Ent­wick­lern GPU-Cloud

Um die Ent­wick­lung von KI- und ML-An­wen­dun­gen zu un­ter­stüt­zen, hat Nvi­dia dar­über hin­aus sein Soft­ware-De­ve­lop­ment-Kit (SDK) aus der CUDA-Fa­mi­lie mit ent­spre­chen­den Vol­ta-taug­li­chen Tools, Li­bra­ries und Trei­bern aus­ge­stat­tet. Ent­wick­ler sol­len zu­dem ih­re KI-Lö­sun­gen mit Hil­fe des von Nvi­dia zur Ver­fü­gung ge­stell­ten „Isaac Ro­bot Si­mu­la­tor“schnel­ler und ef­fi­zi­en­ter trai­nie­ren kön­nen. Eben­falls zur Un­ter­stüt­zung der Ent­wick­ler hat der Gra­fik­chip-Spe­zia­list die Nvi­dia GPU Cloud (NGC) vor­ge­stellt. Auf die­ser Cloud-Platt­form er­hiel­ten Ent­wick­ler Zu­griff auf ei­ne Soft­ware-Sui­te zur Ent­wick­lung von Deep-Le­arning-Tech­no­lo­gi­en, teil­te Nvi­dia mit. Ne­ben der Ent­wick­lung ei­ge­ner Lö­sun­gen setzt Nvi­dia auch auf Part­ner­schaf­ten, um sei­ne KI-In­fra­struk­tur im Markt zu eta­blie­ren. Bei­spiels­wei­se bünd­le man mit SAP die Kom­pe­ten­zen in den Be­rei­chen KI und Soft­ware, um neue Bu­si­ness-Ap­pli­ka­tio­nen zu ent­wi­ckeln, hieß es von Sei­ten Nvi­di­as. Ers­te An­wen­dun­gen sei­en be­reits ver­füg­bar. So könn­ten Un­ter­neh­men bei­spiels­wei­se mit Hil­fe von „SAP Brand Im­pact“durch die Aus­wer­tung von Bild- und Vi­deo­da­ten hin­sicht­lich der Darstel­lung von Auf­stel­lern, Pla­ka­ten und Ähn­li­chem den Er­folg von Wer­be­maß­nah­men mes­sen. Was frü­her ma­nu­ell er­fasst und aus­ge­wer­tet wer­den muss­te, las­se sich nun mit Hil­fe von Bil­der­ken­nung und -ana­ly­se we­sent­lich schnel­ler und ge­nau­er be­ar­bei­ten.

Nvi­dia ko­ope­riert auch mit Hew­lett-Pa­ckard En­ter­pri­se (HPE). Dem­zu­fol­ge sol­len die auf SGI-Tech­nik ba­sie­ren­den Hoch­leis­tungs­rech­ner Apol­lo 2000, Apol­lo 6500 und Pro­li­ant DL380 Nvi­di­as neue Tes­la-GPUs un­ter­stüt­zen. Bei­de Un­ter­neh­men wol­len fer­ner ver­schie­de­ne Cen­ter of Ex­cel­lence ein­rich­ten, in de­nen Bench­marks, Soft­ware und Proof-of-Con­cep­tPro­jek­te ent­wi­ckelt wer­den sol­len.

„Deep Le­arning, ein weg­wei­sen­der An­satz für KI, der ler­nen­de Com­pu­ter­soft­ware schafft, hat un­er­sätt­li­chen Be­darf an Re­chen­leis­tung“, sagt Jensen Huang, Grün­der und CEO von Nvi­dia. Mit Vol­ta prä­sen­tier­te er ei­ne neue Ge­ne­ra­ti­on von Gra­phic Pro­ces­sing Units (GPUs), die ge­nau die­se An­for­de­run­gen er­fül­len soll. Al­ler­dings, so räum­te der Ma­na­ger ein, dau­er­te die Ent­wick­lung von Vol­ta lan­ge und kos­te­tet viel Geld. Für mehr Leis­tung und Ef­fi­zi­enz müss­ten die Struk­tur­brei­ten in den Chips im­mer klei­ner wer­den. Doch die Fer­ti­gungs­ver­fah­ren sto­ßen all­mäh­lich an phy­si­ka­li­sche Gren­zen.

Newspapers in German

Newspapers from Germany

© PressReader. All rights reserved.