Intel bringt Spezialprozessoren für Machine Learning heraus
Intel baut sein Chipportfolio aus. Mit den Spezialprozessoren aus der „Nervana“- und der „Movidius“-Familie sollen sich verschiedene KI- und Machine-Learning-Szenarien beschleunigen lassen.
Nachdem die Chinesen mit Huawei und den Ascend-KI-CPUs bislang im Rennen um ein umfassendes Portfolio an spezialisierten KI-Chips in Führung lagen, kontert nun Intel mit eigenen, dedizierten KI-Prozessoren. Man wolle, wie es Mitte November auf dem Intel AI Summit in San Francisco hieß, die Konkurrenz in Sachen Performance um den Faktor zehn und bei der Leistungsfähigkeit um den Faktor sechs übertreffen. Zudem sollen die KI-Prozessoren die Xeon-CPUs in Servern und Rechnern entlasten und so schnellere und effizientere KI-Anwendungen erlauben. Dies soll die Entwicklung und Bereitstellung von KI-Systemen von der Cloud bis zum Edge beschleunigen.
Intels KI-Portfolio
Neu im Intel-Portfolio präsentieren sich zwei Neural Network Processors (NNP) der „Nervana“-Reihe: Der „NNP-T1000“ist für das Training und Lernen von KI-Anwendungen gedacht, der Inferenzprozessor „NNP-11000“für das Verarbeiten von Daten anhand der gelernten Daten. Beide Chips sind die ersten ASICs, die Intel speziell für komplexes Deep Learning entwickelt hat. Ergänzt wird das Portfolio durch die Vision Processing Unit (VPU) „Movidius“für KI-unterstützte Anwendungen mit Bilderkennung – also etwa die visuelle Qualitätskontrolle in der Fertigung. Intel wirbt nun damit, das angeblich breiteste KI-Portfolio der Branche zu haben. Eine Darstellung, die man wohl bei Huawei nicht unbedingt teilen wird. Mit seinen KI-Lösungen will Intel in diesem Jahr 3,5 Milliarden Dollar Umsatz erwirtschaften.
Die Nervana-NNPs liefert Intel ab sofort aus, während die Movidius-VPU in der ersten Jahreshälfte 2020 verfügbar werden soll. Intel sieht seine NNPs als Teil seines AI-Konzepts auf Systemebene. Die eigentliche Hardware ergänzt Intel wie die Konkurrenten um einen eigenen Software-Stack, der die Softwareentwicklung vereinfachen soll.
Chips für Facebook und Baidu
Glaubt man Intel, schafft der NNP-T die Balance zwischen Datenverarbeitung, Kommunikation sowie Speicher und ermöglicht eine nahezu lineare, energieeffiziente Skalierung. Auf diese Weise sei er von kleinen Clustern bis hin zu großen Supercomputern nutzbar. Dagegen eigne sich der NNP-I für intensive multimodale Inferenzen. Beide Produkte seien mit Blick auf die KI-Anforderungen von großen Anwendern wie Baidu oder Facebook entwickelt worden. Facebook will etwa mit seinem DeepLearning-Compiler „Glow“die Inferenzberechnungen per NNP-I unterstützen.
Intel kündigte außerdem seine neue „DevCloud for the Edge“an, die zusammen mit der Distribution des OpenVINO-Toolkits ein entscheidendes Problem für Entwickler lösen soll. Sie können ihre KI-Lösungen auf einer breiten Palette von Intel-Prozessoren ausprobieren, testen sowie prototypisieren, bevor sie die Hardware kaufen.