SAP präsentiert Data Hub
Über Daten-Pipelines sollen Anwender Datenflüsse und -bearbeitung lenken und steuern können. Dabei bleiben die Daten an ihrem ursprünglichen Ablageort.
Mit ihrem neuen Data Hub will SAP das Daten-Handling vereinfachen. Über Daten-Pipelines sollen Anwender Datenflüsse und -bearbeitung lenken und steuern können. Dabei bleiben die Daten an ihrem ursprünglichen Ablageort.
SAP hat seinen neuen SAP Data Hub vorgestellt. Die Lösung soll Unternehmen dabei unterstützen, die wachsende Komplexität ihrer Datensysteme zu reduzieren und damit mehr aus ihren Datenbeständen herauszuholen. „Firmen suchen eine einheitliche und offene Lösung, um den Datenfluss in allen ihren Datenlandschaften auszuweiten, zu beschleunigen und für alle Benutzer zugänglich zu machen“, erklärte Bernd Leukert, der als Mitglied des Vorstands von SAP SE den Bereich Products & Innovation verantwortet. Auf Basis des Data Hub ließen sich Anwendungen entwickeln, die das Potenzial der Daten in der gesamten Organisation ausschöpften, egal, ob sich diese Daten in der Cloud oder auf lokalen Systemen, in einem Data Lake oder im Enterprise Data Warehouse, in einem SAP- oder SAP-fremden System befinden.
Der Data Hub beinhaltet Funktionen für Datenintegration, -orchestrierung und -Governance. SAP-Vertreter sprechen von einer neuen Kategorie von Software, mit deren Funktionen sich Systemlandschaften überwachen und verwalten sowie die Daten-Pipeline in der gesamten Organisation verarbeiten lasse. Anwender erhielten so eine detaillierte und leicht verständliche Sicht auf die gesamte Datenlandschaft, verspricht der Hersteller. Das reiche von SAPSoftwarequellen wie der SAP-HANA-Plattform bis hin zu SAP-fremden Quellen wie etwa Apache Hadoop. Dadurch ließen sich die Nutzung und die Qualität von Daten sowie deren Wirkungszusammenhänge besser verstehen sowie Veränderungen im Datensystem besser nachvollziehen. So könnten neue Geschäftschancen im Zusammenhang mit Daten identifiziert, potenzielle Datenrisiken beseitigt und die richtigen Pfade für den Datenfluss sichergestellt werden, stellt SAP seinen Kunden in Aussicht. Zentraler Bestandteil der Datendrehscheibe sind die sogenannten Daten-Pipelines. Entwickler können SAP zufolge im Data Hub verschiedene Modelle für Daten-Pipelines entwickeln, über die sich Informationen aus unterschiedlichsten Quellen in der Organisation abrufen, harmonisieren, transformieren und verarbeiten lassen. Darüber hinaus könnten verschiedene Aktivitäten und Funktionen direkt in die entsprechenden Pipelines integriert werden, beispielsweise Bibliotheken für Berechnungen und Machine Learning wie Googles TensorFlow. Rechen- und Verarbeitungsprozesse würden damit direkt an den Ort verlagert, wo die Daten liegen. Das ist der Unterschied zu klassischen Datenarchitekturen, in denen Daten in aller Regel via ETL-Prozessen (Extract, Transform, Load) zunächst in einem zentralen Datenlager wie einem Data Warehouse oder Hadoop-System gesammelt und dann dort weiterverarbeitet werden. Um die Entwicklung und Implementierung der Daten-Pipelines zu vereinfachen, sollen sich die Modelle im SAP Data Hub einfach kopieren, modifizieren und wiederverwenden lassen.
SAP wird seinen Data Hub zunächst klassisch als On-Premise-Software anbieten, die in den Rechenzentren der Anwenderunternehmen installiert wird. Die Architektur des Data Hub sei jedoch Cloud-ready, hieß es. Versionen für Platform as a Service (PaaS) sowie Software as a Service (SaaS) sollen im Rahmen der nächsten Releases folgen, kündigten die SAP-Verantwortlichen an. Die Preise richten sich laut SAP nach der Zahl der im Data Hub integrierten Systeme sowie der Zahl der Rechenknoten, auf der die Processing Engine des Data Hub ausgerollt wird. Als Grundlage für die Nutzung des Data Hub benötigen die Unternehmen jedoch eine Lizenz für SAP HANA.