Nvidia tunt GPUs für den KI-Markt
Nvidia hat die Grafikchip-Architektur „Volta“präsentiert. Mit 21 Milliarden Transistoren und 5120 Rechenkernen soll sich die neue GPU-Generation besonders für Aufgaben rund um KI und Machine Learning eignen.
Die Grafikchip-Architektur „Volta“soll sich besonders für Aufgaben rund um künstliche Intelligenz und Machine Learning eignen.
Künstliche Intelligenz treibt die größten technologischen Fortschritte in der Geschichte der Menschheit voran“, sagte Jensen Huang, Gründer und CEO von Nvidia, anlässlich der Eröffnung der GPU Technology Conference (GTC) im kalifornischen San José. Um die dafür notwendige Rechenleistung bereitzustellen, arbeitet der Spezialist für Grafikprozessoren laufend daran, die Leistung seiner Graphic Processing Units (GPUs) entsprechend zu tunen. Grafikprozessoren sind von ihrer Architektur her besser geeignet, Rechenaufgaben rund um KI und Machine Learning (ML) abzuarbeiten. Während herkömmliche CPU-Architekturen mit wenigen Recheneinheiten darauf ausgelegt sind, Aufgaben seriell hintereinander zu berechnen, warten GPUs mit einer massiv-parallelen Architektur auf, die mit vielen kleineren, aber effizient arbeitenden ComputeEinheiten Rechenaufgaben stark parallelisiert abwickeln können.
Dafür hat Nvidia auf der GTC die neue Chiparchitektur Volta präsentiert. Diese biete laut Herstellerangaben deutlich mehr Rechenleistung als der Vorgänger „Pascal“und sei spe- ziell für Aufgaben aus dem KI- und ML-Bereich zugeschnitten. Die erste Volta-GPU „GV100“hat der Hersteller auf der Rechenkarte „Tesla V100“verbaut. Tausende von Entwicklern hätten drei Jahre an Volta gearbeitet, berichtete Huang und ließ durchblicken, dass man mit der neuen Generation allmählich an die Grenzen des klassischen fotolithografischen Chipherstellungsverfahrens stoße. Nvidias neuer Grafikchip wird im Zwölf-Nanometer-Verfahren gefertigt und besteht aus über 21 Milliarden Transistoren sowie 5120 CUDA-Rechenkernen. Zum Vergleich: Der Vorgänger Tesla P100 aus der Pascal-Serie bot etwa 15 Milliarden Transistoren sowie 3840 Rechen-Cores auf. Nvidia zufolge ist es den eigenen Entwicklern gelungen, die Volta-Architektur gegenüber der Vorgängergeneration um rund 50 Prozent effizienter zu machen. Demzufolge seien in der Tesla-V100-Karte 640 „Tensor Cores“integriert, die speziell darauf ausgelegt seien, KünstlicheIntelligenz- und Machine-Learning-Workloads zu bearbeiten.
Damit liefere der Grafikchip eine Leistung von 120 Teraflops, behaupten die Nvidia-Verantwortlichen, was der Leistung von rund 100 klassischen CPUs entspreche – ohne jedoch genauer zu spezifizieren, um welchen CPU-Typ es sich handle. Durch die Kopplung von CUDAKern mit dem neuen Volta Tensor Core innerhalb einer einheitlichen Architektur könne ein einzelner Server mit Tesla-V100-GPUs Hunderte von herkömmlichen CPUs für traditionelle HPC ersetzen, verspricht der Hersteller.
Neben dem Chip selbst hat Nvidia auch an der Verbindung der neuen GPU-Architektur mit der weiteren Recheninfrastruktur gearbeitet. Die nächste NVLink-Generation 2.0 für die Verbindung verschiedener GPUs untereinander sowie zwischen GPU und CPU soll einen doppelt so hohen Datendurchsatz im Vergleich zur jetzigen NVLink-Version erreichen. Huang zufolge entsprechen Datenraten von 300 GB/s etwa dem Zehnfachen, was Standard-PCIeVerbindungen schaffen. Außerdem verwendet Volta einen gemeinsam mit Samsung entwickelten HBM2-DRAM-Speicher, der mit 900 GB/s eine um 50 Prozent größere MemoryBandbreite als die Vorgänger ermöglicht.
Die Erwartungen bei Nvidia an den neuen Hoffnungsträger sind hoch. Nach Einschätzung der Verantwortlichen gebe es eine große Nachfrage nach Beschleunigung von KI-Technologien. Entwickler, Datenwissenschaftler und Forscher würden zunehmend auf neuronale Netze setzen, um ihre Projekte beispielsweise bei der Bekämpfung von Krebs zu beschleunigen, um Transporte mit selbstfahrenden Fahrzeugen sicherer zu machen oder um neue intelligente Kundenerlebnisse zu bieten. In der Folge müssten Rechenzentren eine immer höhere Rechenleistung liefern, da diese Netzwerke immer komplexer würden. „Volta wird der neue Standard für High Performance Computing werden“, gibt sich die Nvidia-Führung selbstbewusst.
Vorher muss Volta allerdings erst einmal den Weg in die Praxis finden. Das soll beispielsweise mit Nvidias neuem Supercomputer DGX-1 gelingen. Mit acht Tesla-V100-Rechenkarten kommt das System auf insgesamt fast 41.000 Rechenkerne. Flankiert werden die GPUs von zwei auf 2,2 Gigahertz getakteten Intel-XeonProzessoren. Außerdem verfügt der Rechner Herstellerangaben zufolge über vier SSDs mit jeweils knapp zwei Terabyte Speichervolumen und läuft unter Ubuntu Linux. Der DGX-1 soll im dritten Quartal des Jahres auf den Markt kommen und 149.000 Dollar kosten. Geplant ist ferner eine abgespeckte Variante, die DGX Station, mit vier GPU-Einheiten, die 69.000 Dollar kosten und Nvidia zufolge im vierten Quartal 2017 verfügbar sein soll. Beide DGXSupercomputer sollen mit verschiedenen High-Performance-Computing- sowie DeepLearning-Frameworks zusammenarbeiten, beispielsweise mit dem Nvidia-eigenen CUDA sowie Tensor und Caffe2.
Nvidia bietet Entwicklern GPU-Cloud
Um die Entwicklung von KI- und ML-Anwendungen zu unterstützen, hat Nvidia darüber hinaus sein Software-Development-Kit (SDK) aus der CUDA-Familie mit entsprechenden Volta-tauglichen Tools, Libraries und Treibern ausgestattet. Entwickler sollen zudem ihre KI-Lösungen mit Hilfe des von Nvidia zur Verfügung gestellten „Isaac Robot Simulator“schneller und effizienter trainieren können. Ebenfalls zur Unterstützung der Entwickler hat der Grafikchip-Spezialist die Nvidia GPU Cloud (NGC) vorgestellt. Auf dieser Cloud-Plattform erhielten Entwickler Zugriff auf eine Software-Suite zur Entwicklung von Deep-Learning-Technologien, teilte Nvidia mit. Neben der Entwicklung eigener Lösungen setzt Nvidia auch auf Partnerschaften, um seine KI-Infrastruktur im Markt zu etablieren. Beispielsweise bündle man mit SAP die Kompetenzen in den Bereichen KI und Software, um neue Business-Applikationen zu entwickeln, hieß es von Seiten Nvidias. Erste Anwendungen seien bereits verfügbar. So könnten Unternehmen beispielsweise mit Hilfe von „SAP Brand Impact“durch die Auswertung von Bild- und Videodaten hinsichtlich der Darstellung von Aufstellern, Plakaten und Ähnlichem den Erfolg von Werbemaßnahmen messen. Was früher manuell erfasst und ausgewertet werden musste, lasse sich nun mit Hilfe von Bilderkennung und -analyse wesentlich schneller und genauer bearbeiten.
Nvidia kooperiert auch mit Hewlett-Packard Enterprise (HPE). Demzufolge sollen die auf SGI-Technik basierenden Hochleistungsrechner Apollo 2000, Apollo 6500 und Proliant DL380 Nvidias neue Tesla-GPUs unterstützen. Beide Unternehmen wollen ferner verschiedene Center of Excellence einrichten, in denen Benchmarks, Software und Proof-of-ConceptProjekte entwickelt werden sollen.