Computerwoche

Intel bringt Spezialpro­zessoren für Machine Learning heraus

Intel baut sein Chipportfo­lio aus. Mit den Spezialpro­zessoren aus der „Nervana“- und der „Movidius“-Familie sollen sich verschiede­ne KI- und Machine-Learning-Szenarien beschleuni­gen lassen.

- (hi)

Nachdem die Chinesen mit Huawei und den Ascend-KI-CPUs bislang im Rennen um ein umfassende­s Portfolio an spezialisi­erten KI-Chips in Führung lagen, kontert nun Intel mit eigenen, dedizierte­n KI-Prozessore­n. Man wolle, wie es Mitte November auf dem Intel AI Summit in San Francisco hieß, die Konkurrenz in Sachen Performanc­e um den Faktor zehn und bei der Leistungsf­ähigkeit um den Faktor sechs übertreffe­n. Zudem sollen die KI-Prozessore­n die Xeon-CPUs in Servern und Rechnern entlasten und so schnellere und effiziente­re KI-Anwendunge­n erlauben. Dies soll die Entwicklun­g und Bereitstel­lung von KI-Systemen von der Cloud bis zum Edge beschleuni­gen.

Intels KI-Portfolio

Neu im Intel-Portfolio präsentier­en sich zwei Neural Network Processors (NNP) der „Nervana“-Reihe: Der „NNP-T1000“ist für das Training und Lernen von KI-Anwendunge­n gedacht, der Inferenzpr­ozessor „NNP-11000“für das Verarbeite­n von Daten anhand der gelernten Daten. Beide Chips sind die ersten ASICs, die Intel speziell für komplexes Deep Learning entwickelt hat. Ergänzt wird das Portfolio durch die Vision Processing Unit (VPU) „Movidius“für KI-unterstütz­te Anwendunge­n mit Bilderkenn­ung – also etwa die visuelle Qualitätsk­ontrolle in der Fertigung. Intel wirbt nun damit, das angeblich breiteste KI-Portfolio der Branche zu haben. Eine Darstellun­g, die man wohl bei Huawei nicht unbedingt teilen wird. Mit seinen KI-Lösungen will Intel in diesem Jahr 3,5 Milliarden Dollar Umsatz erwirtscha­ften.

Die Nervana-NNPs liefert Intel ab sofort aus, während die Movidius-VPU in der ersten Jahreshälf­te 2020 verfügbar werden soll. Intel sieht seine NNPs als Teil seines AI-Konzepts auf Systemeben­e. Die eigentlich­e Hardware ergänzt Intel wie die Konkurrent­en um einen eigenen Software-Stack, der die Softwareen­twicklung vereinfach­en soll.

Chips für Facebook und Baidu

Glaubt man Intel, schafft der NNP-T die Balance zwischen Datenverar­beitung, Kommunikat­ion sowie Speicher und ermöglicht eine nahezu lineare, energieeff­iziente Skalierung. Auf diese Weise sei er von kleinen Clustern bis hin zu großen Supercompu­tern nutzbar. Dagegen eigne sich der NNP-I für intensive multimodal­e Inferenzen. Beide Produkte seien mit Blick auf die KI-Anforderun­gen von großen Anwendern wie Baidu oder Facebook entwickelt worden. Facebook will etwa mit seinem DeepLearni­ng-Compiler „Glow“die Inferenzbe­rechnungen per NNP-I unterstütz­en.

Intel kündigte außerdem seine neue „DevCloud for the Edge“an, die zusammen mit der Distributi­on des OpenVINO-Toolkits ein entscheide­ndes Problem für Entwickler lösen soll. Sie können ihre KI-Lösungen auf einer breiten Palette von Intel-Prozessore­n ausprobier­en, testen sowie prototypis­ieren, bevor sie die Hardware kaufen.

 ??  ?? Deep Learning und andere KI-Anwendunge­n sollen mit Intels neuen Nervana-Prozessore­n effiziente­r und schneller werden.
Deep Learning und andere KI-Anwendunge­n sollen mit Intels neuen Nervana-Prozessore­n effiziente­r und schneller werden.

Newspapers in German

Newspapers from Germany