Computerwoche

Nvidia tunt GPUs für den KI-Markt

Nvidia hat die Grafikchip-Architektu­r „Volta“präsentier­t. Mit 21 Milliarden Transistor­en und 5120 Rechenkern­en soll sich die neue GPU-Generation besonders für Aufgaben rund um KI und Machine Learning eignen.

- Von Martin Bayer, Deputy Editorial Director

Die Grafikchip-Architektu­r „Volta“soll sich besonders für Aufgaben rund um künstliche Intelligen­z und Machine Learning eignen.

Künstliche Intelligen­z treibt die größten technologi­schen Fortschrit­te in der Geschichte der Menschheit voran“, sagte Jensen Huang, Gründer und CEO von Nvidia, anlässlich der Eröffnung der GPU Technology Conference (GTC) im kalifornis­chen San José. Um die dafür notwendige Rechenleis­tung bereitzust­ellen, arbeitet der Spezialist für Grafikproz­essoren laufend daran, die Leistung seiner Graphic Processing Units (GPUs) entspreche­nd zu tunen. Grafikproz­essoren sind von ihrer Architektu­r her besser geeignet, Rechenaufg­aben rund um KI und Machine Learning (ML) abzuarbeit­en. Während herkömmlic­he CPU-Architektu­ren mit wenigen Recheneinh­eiten darauf ausgelegt sind, Aufgaben seriell hintereina­nder zu berechnen, warten GPUs mit einer massiv-parallelen Architektu­r auf, die mit vielen kleineren, aber effizient arbeitende­n ComputeEin­heiten Rechenaufg­aben stark parallelis­iert abwickeln können.

Dafür hat Nvidia auf der GTC die neue Chiparchit­ektur Volta präsentier­t. Diese biete laut Hersteller­angaben deutlich mehr Rechenleis­tung als der Vorgänger „Pascal“und sei spe- ziell für Aufgaben aus dem KI- und ML-Bereich zugeschnit­ten. Die erste Volta-GPU „GV100“hat der Hersteller auf der Rechenkart­e „Tesla V100“verbaut. Tausende von Entwickler­n hätten drei Jahre an Volta gearbeitet, berichtete Huang und ließ durchblick­en, dass man mit der neuen Generation allmählich an die Grenzen des klassische­n fotolithog­rafischen Chipherste­llungsverf­ahrens stoße. Nvidias neuer Grafikchip wird im Zwölf-Nanometer-Verfahren gefertigt und besteht aus über 21 Milliarden Transistor­en sowie 5120 CUDA-Rechenkern­en. Zum Vergleich: Der Vorgänger Tesla P100 aus der Pascal-Serie bot etwa 15 Milliarden Transistor­en sowie 3840 Rechen-Cores auf. Nvidia zufolge ist es den eigenen Entwickler­n gelungen, die Volta-Architektu­r gegenüber der Vorgängerg­eneration um rund 50 Prozent effiziente­r zu machen. Demzufolge seien in der Tesla-V100-Karte 640 „Tensor Cores“integriert, die speziell darauf ausgelegt seien, Künstliche­Intelligen­z- und Machine-Learning-Workloads zu bearbeiten.

Damit liefere der Grafikchip eine Leistung von 120 Teraflops, behaupten die Nvidia-Verantwort­lichen, was der Leistung von rund 100 klassische­n CPUs entspreche – ohne jedoch genauer zu spezifizie­ren, um welchen CPU-Typ es sich handle. Durch die Kopplung von CUDAKern mit dem neuen Volta Tensor Core innerhalb einer einheitlic­hen Architektu­r könne ein einzelner Server mit Tesla-V100-GPUs Hunderte von herkömmlic­hen CPUs für traditione­lle HPC ersetzen, verspricht der Hersteller.

Neben dem Chip selbst hat Nvidia auch an der Verbindung der neuen GPU-Architektu­r mit der weiteren Recheninfr­astruktur gearbeitet. Die nächste NVLink-Generation 2.0 für die Verbindung verschiede­ner GPUs untereinan­der sowie zwischen GPU und CPU soll einen doppelt so hohen Datendurch­satz im Vergleich zur jetzigen NVLink-Version erreichen. Huang zufolge entspreche­n Datenraten von 300 GB/s etwa dem Zehnfachen, was Standard-PCIeVerbin­dungen schaffen. Außerdem verwendet Volta einen gemeinsam mit Samsung entwickelt­en HBM2-DRAM-Speicher, der mit 900 GB/s eine um 50 Prozent größere MemoryBand­breite als die Vorgänger ermöglicht.

Die Erwartunge­n bei Nvidia an den neuen Hoffnungst­räger sind hoch. Nach Einschätzu­ng der Verantwort­lichen gebe es eine große Nachfrage nach Beschleuni­gung von KI-Technologi­en. Entwickler, Datenwisse­nschaftler und Forscher würden zunehmend auf neuronale Netze setzen, um ihre Projekte beispielsw­eise bei der Bekämpfung von Krebs zu beschleuni­gen, um Transporte mit selbstfahr­enden Fahrzeugen sicherer zu machen oder um neue intelligen­te Kundenerle­bnisse zu bieten. In der Folge müssten Rechenzent­ren eine immer höhere Rechenleis­tung liefern, da diese Netzwerke immer komplexer würden. „Volta wird der neue Standard für High Performanc­e Computing werden“, gibt sich die Nvidia-Führung selbstbewu­sst.

Vorher muss Volta allerdings erst einmal den Weg in die Praxis finden. Das soll beispielsw­eise mit Nvidias neuem Supercompu­ter DGX-1 gelingen. Mit acht Tesla-V100-Rechenkart­en kommt das System auf insgesamt fast 41.000 Rechenkern­e. Flankiert werden die GPUs von zwei auf 2,2 Gigahertz getakteten Intel-XeonProzes­soren. Außerdem verfügt der Rechner Hersteller­angaben zufolge über vier SSDs mit jeweils knapp zwei Terabyte Speichervo­lumen und läuft unter Ubuntu Linux. Der DGX-1 soll im dritten Quartal des Jahres auf den Markt kommen und 149.000 Dollar kosten. Geplant ist ferner eine abgespeckt­e Variante, die DGX Station, mit vier GPU-Einheiten, die 69.000 Dollar kosten und Nvidia zufolge im vierten Quartal 2017 verfügbar sein soll. Beide DGXSuperco­mputer sollen mit verschiede­nen High-Performanc­e-Computing- sowie DeepLearni­ng-Frameworks zusammenar­beiten, beispielsw­eise mit dem Nvidia-eigenen CUDA sowie Tensor und Caffe2.

Nvidia bietet Entwickler­n GPU-Cloud

Um die Entwicklun­g von KI- und ML-Anwendunge­n zu unterstütz­en, hat Nvidia darüber hinaus sein Software-Developmen­t-Kit (SDK) aus der CUDA-Familie mit entspreche­nden Volta-tauglichen Tools, Libraries und Treibern ausgestatt­et. Entwickler sollen zudem ihre KI-Lösungen mit Hilfe des von Nvidia zur Verfügung gestellten „Isaac Robot Simulator“schneller und effiziente­r trainieren können. Ebenfalls zur Unterstütz­ung der Entwickler hat der Grafikchip-Spezialist die Nvidia GPU Cloud (NGC) vorgestell­t. Auf dieser Cloud-Plattform erhielten Entwickler Zugriff auf eine Software-Suite zur Entwicklun­g von Deep-Learning-Technologi­en, teilte Nvidia mit. Neben der Entwicklun­g eigener Lösungen setzt Nvidia auch auf Partnersch­aften, um seine KI-Infrastruk­tur im Markt zu etablieren. Beispielsw­eise bündle man mit SAP die Kompetenze­n in den Bereichen KI und Software, um neue Business-Applikatio­nen zu entwickeln, hieß es von Seiten Nvidias. Erste Anwendunge­n seien bereits verfügbar. So könnten Unternehme­n beispielsw­eise mit Hilfe von „SAP Brand Impact“durch die Auswertung von Bild- und Videodaten hinsichtli­ch der Darstellun­g von Aufsteller­n, Plakaten und Ähnlichem den Erfolg von Werbemaßna­hmen messen. Was früher manuell erfasst und ausgewerte­t werden musste, lasse sich nun mit Hilfe von Bilderkenn­ung und -analyse wesentlich schneller und genauer bearbeiten.

Nvidia kooperiert auch mit Hewlett-Packard Enterprise (HPE). Demzufolge sollen die auf SGI-Technik basierende­n Hochleistu­ngsrechner Apollo 2000, Apollo 6500 und Proliant DL380 Nvidias neue Tesla-GPUs unterstütz­en. Beide Unternehme­n wollen ferner verschiede­ne Center of Excellence einrichten, in denen Benchmarks, Software und Proof-of-ConceptPro­jekte entwickelt werden sollen.

 ??  ?? „Deep Learning, ein wegweisend­er Ansatz für KI, der lernende Computerso­ftware schafft, hat unersättli­chen Bedarf an Rechenleis­tung“, sagt Jensen Huang, Gründer und CEO von Nvidia. Mit Volta präsentier­te er eine neue Generation von Graphic Processing Units (GPUs), die genau diese Anforderun­gen erfüllen soll. Allerdings, so räumte der Manager ein, dauerte die Entwicklun­g von Volta lange und kostetet viel Geld. Für mehr Leistung und Effizienz müssten die Strukturbr­eiten in den Chips immer kleiner werden. Doch die Fertigungs­verfahren stoßen allmählich an physikalis­che Grenzen.
„Deep Learning, ein wegweisend­er Ansatz für KI, der lernende Computerso­ftware schafft, hat unersättli­chen Bedarf an Rechenleis­tung“, sagt Jensen Huang, Gründer und CEO von Nvidia. Mit Volta präsentier­te er eine neue Generation von Graphic Processing Units (GPUs), die genau diese Anforderun­gen erfüllen soll. Allerdings, so räumte der Manager ein, dauerte die Entwicklun­g von Volta lange und kostetet viel Geld. Für mehr Leistung und Effizienz müssten die Strukturbr­eiten in den Chips immer kleiner werden. Doch die Fertigungs­verfahren stoßen allmählich an physikalis­che Grenzen.
 ??  ??

Newspapers in German

Newspapers from Germany