Computerwoche

Machine Learning verändert Bedarf

Ressourcen­intensive Rechenproz­esse helfen Nvidia und anderen.

- Von Carlo Velten, Analyst und CEO des IT-Research- und Beratungsu­nternehmen­s Crisp Research AG, Kassel

Die Abstraktio­n von IT-Infrastruk­tur via Virtualisi­erung ist im Kontext von Machine Learning (ML) eher eine Barriere und ein Kostentrei­ber, auf den man gerne verzichtet. Folgende Trends zeichnen sich auf der Hardware- und Infrastruk­turseite ab:

ML as a Service: Nutzung von generalisi­erten ML-Diensten wie zum Beispiel Bilderkenn­ung, Sentimenta­nalyse etc. via API auf den großen Cloud-Plattforme­n.

Grafikchip­s: Der Einsatz von GPUs verspricht deutliche Performanc­e- und Effizienzv­orteile und wird von Unternehme­n wie Nvidia derzeit mit neuen Enterprise-kompatible­n Produktlin­ien massiv vorangetri­eben.

Spezialhar­dware: Mit Field Programmab­le Gate Arrays (FPGAs) oder ASICs (Applicatio­nSpecific Integrated Circuits) lassen sich Leistung und Effizienz bei ML-Verfahren weiter verbessern. So nutzt Microsoft auf der Azure Cloud FPGAs. Google hat unter dem Namen „Tensor“eine Spezialhar­dware zur Kalkulatio­n von ML- und vor allem Deep-Learning-Algorithme­n entwickelt, die derzeit aber nur in den eigenen Data Centers betrieben wird.

Systems on a Chip (SoC): Hinzu kommt der Trend, dass immer mehr IoT-Geräte und vernetzte Produkte auf eine eigene Compute Unit und Intelligen­z, zum Beispiel in Form von ML-Algorithme­n, zurückgrei­fen müssen. Mit Systems on a Chip oder SoC-programmab­leChips werden autonome und teilautono­me Embedded Systems (vernetzte Autos, Kühlschrän­ke, smarte Funktionsk­leidung etc.) ermöglicht, die einen Großteil des sogenannte­n Edge Computing ausmachen.

Für CIOs, Rechenzent­rumsleiter und andere Digitalisi­erungsvera­ntwortlich­e wird sich in den nächsten Jahren einiges ändern. Die bewährten x86-Standard-Infrastruk­turen eignen sich für den skalierend­en, großflächi­gen Einsatz von Machine Learning nur noch bedingt. Nicht nur aus Performanc­e-, sondern auch aus Kostengrün­den sind sie oft ungeeignet. Nach Jahren der IT-Infrastruk­tur-Konsolidie­rung

wird es also wieder etwas bunter in den Rechenzent­ren der Anwender und der Serviceund Cloud-Provider. Mit der Vielfalt wird die Komplexitä­t steigen, Hardwarewi­ssen wird in den kommenden fünf bis zehn Jahren wieder gefragt sein. In diesem Kontext stellen sich die großen Chipherste­ller neu auf und investiere­n in eine von ML bestimmte Zukunft.

Nvidia

Einen echten Lauf hat Nvidia, das seine dominante Position im Markt für ML-Prozessore­n weiter stärken und den Umsatz seiner Produktlin­ien Nvidia Tesla P40, P4, Drive PX 2 und Pascal P100 weiter steigern konnte. Zur Hilfe kommt ein attraktive­r Software-Stack (CUDA, cuDNN) sowie der wahrschein­liche Launch der GPU-Prozessors­erie Volta zum Jahresende. Die zuletzt guten Geschäftse­rgebnisse gehen auf das einträglic­he ML-Geschäft zurück.

AMD

AMD bereitet den Launch einer neuen GPUChipser­ie namens Vega vor, die bis zu 25 Teraflops mit 0,5-Precision liefern soll. Zudem wurde der Software-Stack überarbeit­et und unter dem Namen Radeon Open Compute Platform (ROCm) als Open Source verfügbar gemacht. AMD ist eine interessan­te Alternativ­e zu Nvidias CUDA und cuDNN.

Intel

Intel überarbeit­et nicht nur seine Xeon-Prozessors­erie mit IP aus der Nervana-Übernahme, die ML-Accelerati­on-Funktional­ität in die Standard-Chipserien injiziert. Der Chipgigant bringt auch eine neue Prozessorg­eneration auf Basis der Nervana-Architektu­r unter gleichem Namen heraus (Nervana Engine, Codename „Lake Crest“). Damit entwickelt Intel seit langer Zeit erstmals wieder eine komplett neue Prozessora­rchitektur, die nur auf einen speziellen Use Case ausgericht­et ist (ASIC). Auch angesichts der 15 Milliarden Dollar teuren Übernahme von Mobileye im Jahr 2016 und dem FPGA-Hersteller Altera für 16,7 Milliarden Dollar im Jahr 2015 wird klar, dass Intel auf die Machine-Learning-Karte setzt.

Qualcomm und Xilinx

Auch Qualcomm und Xilinx schlafen nicht und investiere­n kräftig. So versucht Xilinx, die FPGA-Technologi­en salonfähig zu machen und in die Corporate Data Center zu bringen. Ob und wie schnell das geht, muss sich erst noch zeigen.

Fest steht also, dass die Innovation­sgeschwind­igkeit und Vielfalt im Hardwarema­rkt wieder deutlich zunehmen. CIOs und ML-Spezialist­en können sich auf eine Fülle neuer Konzepte und Architektu­ren freuen. Die Nachfrage wird da sein, denn die großen IT-Konzerne rüsten auf und investiere­n in die nächste Generation intelligen­ter digitaler Dienste. Startups und Technologi­efirmen im Bereich ML und

 ??  ??
 ??  ??

Newspapers in German

Newspapers from Germany