HPE setzt auf Docker und IoT
Auf der Hausmesse Discover 2016 in Las Vegas stellte HP Enterprise Systeme mit Docker- und IoT-Unterstützung sowie die Plattform „Helion Cloud“ins Rampenlicht.
Auf der Discover 2016 in Las Vegas stellte HPE Systeme mit Docker- und IoT-Unterstützung sowie die Plattform „Helion Cloud“ins Rampenlicht. Hoffnungsträger ist auch die neue Rechnerarchitektur „The Machine“.
Hewlett-Packard Enterprise (HPE) hat eine strategische Allianz mit dem Container-Spezialisten Docker vereinbart. Mit dessen Technik lassen sich Anwendungen kapseln und auf beliebigen IT-Plattformen betreiben. Auch die Bereitstellung von Applikationen lässt sich durch vorkonfigurierte Container-Images vereinfachen und beschleunigen. Die Partnerschaft umfasst den Vertrieb und die Entwicklung von HPE-Docker-Lösungen sowie den Support. Darüber hinaus hat HPE erste Server mit einer Docker-Engine sowie Docker-Ready Converged- und ComposableSysteme angekündigt. Dazu zählen Rechner aus der ProLiant-, Apollo- und Cloudline-Familie sowie Systeme aus dem Produktbereich Synergy, BladeSystem und Converged System. Die Docker-optimierten HPE-Systeme sollen im vierten Quartal 2016 verfügbar sein. Zusätz- lich arbeitet HPE an der Implementierung von Docker in sein Cloud- und Softwareportfolio, indem das Unternehmen in die Nutzung von APIs, des Docker-Plugin-Frameworks und in die Docker-Datacenter-Entwicklerlizenzen investiert. Gartner prognostiziert, dass bis 2018 bis zu 50 Prozent aller Workloads auch in einer Container-Umgebung genutzt werden.
Um seine Kunden bei Digitalisierungs- und IoT-Projekten zu unterstützen, offeriert HPE seine erste konvergente IoT-Lösung in Form der Geräte „Edgeline EL1000“und „Edgeline EL4000“. Diese Systeme sind dem Hersteller zufolge in der Lage, Daten direkt am Entstehungsort zu erfassen, zu analysieren und zu speichern. Dabei kommt die Analytics-Plattform „HPE Vertica“im Edgeline-EL4000-System zum Einsatz. Sie soll Predictive Analytics und Machine Learning quasi in Echtzeit ermöglichen. Für eine sichere Datenübertragung setzt HPE auf den VPN-Client „Virtual Intranet AccessTM“(VIATM) sowie auf „ClearPass“von Aruba Networks, das HPE im vergangenen Jahr für 2,7 Milliarden Dollar gekauft hatte.
Um IoT-Anwendungen auch über die Cloud zugänglich zu machen, hat HPE eine strategische Partnerschaft mit GE Digital angekündigt. Mit dessen Platform as a Service (PaaS) „Predix“soll die Analyse von Industriedaten in einer sicheren Cloud-Umgebung möglich sein. Im Gegenzug avanciert HPE zum bevorzugten Partner für Server- und Speicherinfrastrukturen für die Predix-Cloud-Plattform und unterstützt General
Electric strategisch bei der Implementierung und dem Rollout der GE-Predix-Systeme. Außerdem stellte HPE mit den IoT Transformation Workshops (TW) neue IoT-Dienstleistungen vor und kündigte die Eröffnung von vier IoT Innovation Labs an, um den Kunden bei der Entwicklung und dem Testen neuer Lösungen unter die Arme zu greifen.
Für seine eigene Plattform Helion Cloud präsentierte HPE die „Helion Cloud Suite“, die eine Vielzahl von hybriden Cloud-Funktionen in einer einzigen Software vereinen soll. So stellt die Suite Anwendern Optionen wie das BetriebsManagement, die Cloud-Orchestrierung sowie Big Data Analytics und Compliance zur Verfügung, um IT-Services für Private-, Public- oder Managed-Cloud-Umgebungen zu entwickeln.
Für das „Helion CloudSystem“zeigte der Hersteller mit Version 10 ein Update. Dabei handelt es sich um ein vorkonfiguriertes System aus Hardware und Software, das Hosting, die Automation und die Orchestrierung von herkömmlichen Anwendungen und Cloud-Workloads übernimmt, um Private oder Hybrid Clouds aufzubauen. HPE Helion CloudSystem 10 setzt sich aus den Komponenten „HPE Helion OpenStack 3.0“, „HPE Cloud Service Automation 4.6“sowie „HPE Helion Stackato 4.0“zusammen. Die offene Multi-Cloud-PaaS HPE Helion Stackato in Version 4.0 soll Nutzern bei der Entwicklung von eigenen Cloud-Anwendungen helfen. Neu in der aktuellen Version sind zum Beispiel: die Unterstützung von Con- tainer-Technologien, Cloud-Foundry-Services sowie Workflows für Continuous Integration/ Continuous Delivery (CI/CD). Darüber hinaus bietet Stackato 4.0 ein zentrales Monitoring, eine Logging-Funktion und eine Multi-CloudSteuerungsebene. Zusätzlich unterstützt das CloudSystem 10 bereits das ManagementWerkzeug „HPE OneView“in der neuen Version 3.0, das neben einem neuen Dashboard auch ein vereinfachtes End-to-End-Management von heterogenen Netz-Switches bietet.
The Machine – eine Community soll helfen
Neben seinen Cloud- und IoT-Initiativen treibt HPE auch sein Projekt The Machine voran. Dafür hat der Hersteller eine The-Machine-Distribution aus vier Entwicklerwerkzeugen für die Plattform präsentiert und diese der Open Source Community zur Verfügung gestellt. HPE erhofft sich davon, dass The Machine schneller zur Nutzungsreife gelangt. Zurzeit arbeiten an diesem Projekt nur wenige ausgewählte Entwickler, so dass die neuartige Computerarchitektur nur langsam Fortschritte macht.
Das Projekt ist ambitioniert. HPE verfolgt das Ziel, eine Rechnerarchitektur zu entwickeln, die vergleichbar dem menschlichen Gehirn funktioniert. Dort verarbeiten rund 100 Milliarden Nervenzellen über Billionen von Synapsen ständig extrem parallelisiert Informationen. HPE will diese parallelisierte Datenverarbeitung mit seiner Memristor-Halbleitertechnik sowie einer speziellen Architektur nachahmen, erläuterte Cat Graves, Forscher aus den Hewlett-Packard Labs. In traditionellen ComputingArchitekturen werden die Daten im Zuge der Verarbeitung vom Speicher zum Prozessor und Arbeitsspeicher transportiert. Dabei gingen wertvolle Compute-Ressourcen verloren, sagt Graves. In der neuen Architektur finde die Verarbeitung dagegen direkt in den Zellen statt, in denen die Daten abgelegt sind. Darüber hinaus würden die einzelnen Speicherzellen miteinander verbunden – wie Neuronen über Synapsen. Das entspreche der Arbeitsweise des menschlichen Gehirns.
Es dürfte allerdings noch einige Jahre dauern, bis solche Systeme Marktreife erlangen. HPE kann bis dato erste Prototypen zeigen, in denen Memristor-Module in einer Art GridStruktur miteinander verschaltet sind. Es sei außerdem nicht davon auszugehen, dass The Machine die herkömmlichen Compute-Architekturen von heute auf morgen ablösen werde, hieß es. Vielmehr könnten diese neuronalen Chips, die nicht nach exakten mathematischen Regeln arbeiten, sondern Annahmen und Wahrscheinlichkeiten kalkulieren, als CoProzessoren bei bestimmten Aufgaben helfen, etwa bei Sprach- und Bilderkennung. Man sei noch am Anfang, räumte HPE-Forscher Graves ein. Er äußerte sich jedoch zuversichtlich, dass es in Zukunft intelligente Computer geben werde, die Daten ähnlich wie das menschliche Gehirn verarbeiteten: „Wir kennen noch längst nicht alle Antworten, aber wir haben schon ein paar sehr nützliche Erkenntnisse gewonnen.“