Machine Learning verändert Bedarf
Ressourcenintensive Rechenprozesse helfen Nvidia und anderen.
Die Abstraktion von IT-Infrastruktur via Virtualisierung ist im Kontext von Machine Learning (ML) eher eine Barriere und ein Kostentreiber, auf den man gerne verzichtet. Folgende Trends zeichnen sich auf der Hardware- und Infrastrukturseite ab:
ML as a Service: Nutzung von generalisierten ML-Diensten wie zum Beispiel Bilderkennung, Sentimentanalyse etc. via API auf den großen Cloud-Plattformen.
Grafikchips: Der Einsatz von GPUs verspricht deutliche Performance- und Effizienzvorteile und wird von Unternehmen wie Nvidia derzeit mit neuen Enterprise-kompatiblen Produktlinien massiv vorangetrieben.
Spezialhardware: Mit Field Programmable Gate Arrays (FPGAs) oder ASICs (ApplicationSpecific Integrated Circuits) lassen sich Leistung und Effizienz bei ML-Verfahren weiter verbessern. So nutzt Microsoft auf der Azure Cloud FPGAs. Google hat unter dem Namen „Tensor“eine Spezialhardware zur Kalkulation von ML- und vor allem Deep-Learning-Algorithmen entwickelt, die derzeit aber nur in den eigenen Data Centers betrieben wird.
Systems on a Chip (SoC): Hinzu kommt der Trend, dass immer mehr IoT-Geräte und vernetzte Produkte auf eine eigene Compute Unit und Intelligenz, zum Beispiel in Form von ML-Algorithmen, zurückgreifen müssen. Mit Systems on a Chip oder SoC-programmableChips werden autonome und teilautonome Embedded Systems (vernetzte Autos, Kühlschränke, smarte Funktionskleidung etc.) ermöglicht, die einen Großteil des sogenannten Edge Computing ausmachen.
Für CIOs, Rechenzentrumsleiter und andere Digitalisierungsverantwortliche wird sich in den nächsten Jahren einiges ändern. Die bewährten x86-Standard-Infrastrukturen eignen sich für den skalierenden, großflächigen Einsatz von Machine Learning nur noch bedingt. Nicht nur aus Performance-, sondern auch aus Kostengründen sind sie oft ungeeignet. Nach Jahren der IT-Infrastruktur-Konsolidierung
wird es also wieder etwas bunter in den Rechenzentren der Anwender und der Serviceund Cloud-Provider. Mit der Vielfalt wird die Komplexität steigen, Hardwarewissen wird in den kommenden fünf bis zehn Jahren wieder gefragt sein. In diesem Kontext stellen sich die großen Chiphersteller neu auf und investieren in eine von ML bestimmte Zukunft.
Nvidia
Einen echten Lauf hat Nvidia, das seine dominante Position im Markt für ML-Prozessoren weiter stärken und den Umsatz seiner Produktlinien Nvidia Tesla P40, P4, Drive PX 2 und Pascal P100 weiter steigern konnte. Zur Hilfe kommt ein attraktiver Software-Stack (CUDA, cuDNN) sowie der wahrscheinliche Launch der GPU-Prozessorserie Volta zum Jahresende. Die zuletzt guten Geschäftsergebnisse gehen auf das einträgliche ML-Geschäft zurück.
AMD
AMD bereitet den Launch einer neuen GPUChipserie namens Vega vor, die bis zu 25 Teraflops mit 0,5-Precision liefern soll. Zudem wurde der Software-Stack überarbeitet und unter dem Namen Radeon Open Compute Platform (ROCm) als Open Source verfügbar gemacht. AMD ist eine interessante Alternative zu Nvidias CUDA und cuDNN.
Intel
Intel überarbeitet nicht nur seine Xeon-Prozessorserie mit IP aus der Nervana-Übernahme, die ML-Acceleration-Funktionalität in die Standard-Chipserien injiziert. Der Chipgigant bringt auch eine neue Prozessorgeneration auf Basis der Nervana-Architektur unter gleichem Namen heraus (Nervana Engine, Codename „Lake Crest“). Damit entwickelt Intel seit langer Zeit erstmals wieder eine komplett neue Prozessorarchitektur, die nur auf einen speziellen Use Case ausgerichtet ist (ASIC). Auch angesichts der 15 Milliarden Dollar teuren Übernahme von Mobileye im Jahr 2016 und dem FPGA-Hersteller Altera für 16,7 Milliarden Dollar im Jahr 2015 wird klar, dass Intel auf die Machine-Learning-Karte setzt.
Qualcomm und Xilinx
Auch Qualcomm und Xilinx schlafen nicht und investieren kräftig. So versucht Xilinx, die FPGA-Technologien salonfähig zu machen und in die Corporate Data Center zu bringen. Ob und wie schnell das geht, muss sich erst noch zeigen.
Fest steht also, dass die Innovationsgeschwindigkeit und Vielfalt im Hardwaremarkt wieder deutlich zunehmen. CIOs und ML-Spezialisten können sich auf eine Fülle neuer Konzepte und Architekturen freuen. Die Nachfrage wird da sein, denn die großen IT-Konzerne rüsten auf und investieren in die nächste Generation intelligenter digitaler Dienste. Startups und Technologiefirmen im Bereich ML und