Computerwoche

Nvidia will KI aus der Nische holen

- Von Heinrich Vaske, Editorial Director

Mit einer Produktoff­ensive hat der Grafik-CPUAnbiete­r Nvidia demonstrie­rt, dass er KI und High Performanc­e Computing nicht nur durch die Hardwarebr­ille sehen möchte.

Mit einer Produktoff­ensive hat Nvidia auf seiner Technologi­ekonferenz in San José demonstrie­rt, dass der Chip- und Grafikkart­enherstell­er KI und High Performanc­e Computing nicht nur durch die Hardwarebr­ille sehen möchte.

Nvidias CEO und Gründer Jensen Huang nutzte die GPU-Technologi­ekonferenz GTC für eine lange KeynoteRed­e. „Unser Accelerate­d-Computing-Ansatz findet immer mehr Anklang“, sagte Huang. „Wenn man sich ansieht, was wir im letzten Jahr erreicht haben, wird klar, was für ein Momentum dahinterst­eckt.“

Erst vor wenigen Tagen hatte Nvidia angekündig­t, für den stolzen Preis von 6,9 Milliarden Dollar den israelisch­en Rechenzent­rumsspezia­listen Mellanox zu übernehmen. Damit bootete der Chipherste­ller Intel aus, das ebenfalls interessie­rt war, aber weniger Geld hinlegen wollte. Mellanox bietet eine breite Palette von Komponente­n – darunter vor allem Ethernet-Switches – für die Vernetzung im Rechenzent­rum und behauptet zudem, „Marktführe­r im Bereich Infiniband/SAN“zu sein.

CUDA-X AI soll Entwicklun­g beschleuni­gen

Auf der GTC ging es jedoch vorrangig um andere Themen. Nvidia enthüllte unter anderem „CUDA-X AI“, ein Set an GPU Accelerati­on Libraries für Data Science und künstliche Intelligen­z (KI). Man wolle das Entwickeln KI-basierter Anwendunge­n auf allen Ebenen – Data Processing, Feature Engineerin­g, Machine Learning, Verifikati­on – beschleuni­gen, und zwar nicht punktuell, sondern von Ende zu Ende, hieß es. CUDA-X AI ist eine Bibliothek­ensammlung, die auf dem Parallel-Programmie­rmodell CUDA aufsetzt. Nvidia bietet es für Deep Learning, Machine Learning und High Performanc­e Computing (HPC) an.

Der Chipherste­ller integriert die Libraries in populäre Deep Learning Frameworks wie TensorFlow, PyTorch und MXNet. Die Entwicklun­g eines großartige­n Chips sei für Nvidia nur ein schöner Anfang, sagte Huang. Solange die Entwickler und Anwender keine Vorteile daraus ziehen könnten, sei das nutzlos. Deshalb sei es für Nvidia so wichtig, in einem Ökosystem zu arbeiten: „Wir sehen uns als offene Plattform. Wir erstellen diese Bibliothek­en so, dass sie softwarede­finiert und in ein modernes System integrierb­ar sind.“

Public-Cloud-Partnersch­aften

CUDA-X AI werde bereits von Cloud-Providern wie Amazon Web Services (AWS), Google Cloud und Microsoft Azure eingesetzt. Insbesonde­re seine inzwischen siebenjähr­ige Partnersch­aft mit AWS hob Nvidia hervor: Auf der Konferenz hieß es unter anderem, Amazon werde nun beginnen, den Kunden auch die T4-Grafikchip­s von Nvidia über die G4-Instanzen der Elastic Compute Cloud (EC2) zur Verfügung zu stellen. Damit sollen AWS-Kunden eine performant­e Plattform für die Bereitstel­lung von KI-Diensten bekommen – mit der Möglichkei­t, ihre Instanzen mit der GPU-Beschleuni­gungssoftw­are von Nvidia einschließ­lich CUDA-X AI zu koppeln. „Mit unseren neuen T4-basierten G4-Instanzen machen wir es den Kunden einfacher und kostengüns­tiger, ihre maschinell lernenden Inferenzen und grafikinte­nsiven Anwendunge­n zu beschleuni­gen“, sagte Matt Garman, Vice President für Compute Services bei AWS.

Nvidias T4-GPU ist darauf ausgelegt, CloudWorkl­oads wie High Performanc­e Computing, Deep-Learning-Training und -Inferenz, maschinell­es Lernen, Datenanaly­sen und Grafik beschleuni­gt zu bearbeiten. Sie wird nun auch von Amazons „Elastic Container Service for Kubernetes“genutzt und soll in Anwendungs­fällen wie KI-Inferenzie­rung, Echtzeit-Raytracing, Simulation und mehr zum Einsatz kommen. Nvidia bestätigte, dass auch Google Cloud die T4-GPUs in seinen Rechenzent­ren einsetzen werde. Man habe Hoffnung, dass die chinesisch­en Cloud-Anbieter Baidu, Tencent und Alibaba bald folgen könnten.

T4-GPUs auch für normale Server

„In der Vergangenh­eit hatten Unternehme­n kaum eine Chance, KI-Projekte umzusetzen, weil sie dazu schon beinahe einen Supercompu­ter hätten anschaffen müssen.“Mit den Cloud-Services habe sich die Ausgangsla­ge grundlegen­d verbessert, sagte Ian Buck, Nvidias Vice President und General Manager für Accelerate­d Computing, im Gespräch mit der COMPUTERWO­CHE-Schwesterp­ublikation „Computerwo­rld UK“. Manch ein Anwender fühle sich angesichts der Cloud-Angebote, als sitze er in einem „Spaceshutt­le“.

Nvidia gab auf seiner Hausmesse auch bekannt, dass gewöhnlich­e Mainstream-Server von Cisco, Fujitsu, Lenovo, Dell, Hewlett Packard Enterprise (HPE) und anderen ebenfalls mit T4-Grafikproz­essoren zu haben sind, sofern die Zertifizie­rung „Nvidia GPU Cloud ready“vorhanden ist. Damit ließen sich KITraining und -Inferenz, maschinell­es Lernen, Datenanaly­se und die Einrichtun­g virtueller Desktops erheblich beschleuni­gen. Um Entwickler sowie die Maker-Szene dazu zu bringen, auf der Nvidia-Plattform zu entwickeln, hat der Hersteller einen kleinen, mit dem Raspberry Pi vergleichb­aren Taschencom­puter namens „Jetson Nano“vorgestell­t. Der KIRechenzw­erg liefert bis zu 472 Gigaflops Rechenleis­tung, unterstütz­t nahezu alle modernen KI-Workloads und kostet nur 99 Dollar. „Wenn Sie einen Raspberry Pi verwenden und die Rechenleis­tung knapp wird, nutzen Sie einfach einen Jetson Nano, und Sie haben den gesamten CUDA-X-AI-Stack“, sagte NvidiaMana­ger Deepu Talla.

Zu Nvidias Ankündigun­gen gehörte auch die Aussage, dass die Deepstream-Plattform für die Videoanaly­se ab sofort auch in der Microsoft Azure Cloud verfügbar sei. „Eine hochleistu­ngsfähige Videoanaly­se erfolgt on Premise etwa auf der Basis eines Tesla-basierten Servers. Die Metadaten gehen dann in die Azure Cloud. Es gibt dafür jetzt einen End-to-EndWorkflo­w, und das wird durch Microsofts Support ermöglicht“, sagte Talla. In seiner Keynote gab Huang erst ganz zum Schluss bekannt, dass Nvidia seine Zusammenar­beit mit Toyota ausgebaut habe. Die Japaner haben es demnach auf die Simulation­s- und Testtechni­k von Nvidia rund um das autonome Fahren abgesehen.

Autonomes Fahren virtuell testen

Nvidia kündigte unter anderem „Drive Constellat­ion“an, eine Cloud-basierte Simulation­splattform für autonomes Fahren. Damit wollen die Partner ein gravierend­es Problem im Bereich des autonomen Fahrens angehen: Entwickler sollen in virtuellen Szenarien die extremen Ereignisse simulieren, die im realen Verkehr aus Sicherheit­sgründen nicht getestet werden können. Dass sich beispielsw­eise eine schwere Ladung vom Dachgepäck­träger eines vorausfahr­enden Fahrzeugs lösen kann, lässt sich unter Realbeding­ungen kaum testen, wohl aber in virtuellen Testumgebu­ngen.

Drive Constellat­ion besteht aus zwei Cloud-Lösungen: Der Server „Constellat­ion Simulator“verwendet Nvidia-GPUs und die Software „Drive Sim“, um den Daten-Output eines virtuellen Fahrzeugs auf einer virtuellen Straße zu generieren. Der zweite Server „Constellat­ion Vehicle“verarbeite­t die Simulation­sdaten mit Nvidias Fahrzeugco­mputer „Drive AGX Pegasus AI“. So werden alle „Entscheidu­ngsdaten“umgehend erfasst und ausgewerte­t.

Umgebungsd­aten werden analysiert

Mit der Einführung der Software „Safety Force Field“zielt Nvidia ferner darauf ab, Autos vor Unfällen zu schützen. Die Lösung analysiert und prognostiz­iert laut Hersteller die Dynamik der Umgebung eines Fahrzeugs, indem sie laufend Sensordate­n aufnimmt und daraus Maßnahmen ableitet. „Unser Unternehme­n befindet sich mitten in der Revolution der autonomen Fahrzeuge“, sagte Huang. „Wir bauen aber keine selbstfahr­enden Autos, sondern wir schaffen Systeme und eine Infrastruk­tur, die für die Branche notwendig sind, um selbstfahr­ende Autos zu bauen.“

 ??  ??
 ??  ??
 ??  ?? Nvidia-Chef Jensen Huang will das Entwickeln KI-basierter Anwendunge­n auf allen Ebenen beschleuni­gen – und zwar von Ende zu Ende. Drei Stunden benötigte der Gründer, um seine Vision unters Volk zu bringen.
Nvidia-Chef Jensen Huang will das Entwickeln KI-basierter Anwendunge­n auf allen Ebenen beschleuni­gen – und zwar von Ende zu Ende. Drei Stunden benötigte der Gründer, um seine Vision unters Volk zu bringen.

Newspapers in German

Newspapers from Germany