SCHWERELOS IN DER MULTI -CLOUD
Das bedrohliche Phänomen „Data Gravity“- und wie Sie es mit dem richtigen Datenmanagement in den Griff bekommen.
Cloud-computing hat sich als Standard etabliert. Und Multi-cloud-umgebungen haben immer öfter die Nase vorn: So werden laut einer Studie von Crisp Research bis 2020 mehr als drei Viertel der Unternehmen Hybrid-cloud- oder Multi-cloud-architekturen einsetzen. Der große Vorteil dabei: Firmen bleiben flexibel und unabhängig vom Provider. Dank der parallelen Nutzung haben sie die Wahl, wo sie ihre Datensätze ablegen und welchen Public- oder Private-cloud-service sie für welchen Anwendungsfall nutzen. Aber Flexibilität und Unabhängigkeit haben ihren Preis: Denn die Cloud-umgebungen werden so immer komplexer.
VORSICHT FALLE!
Erschwerend kommt das Phänomen der sogenannten „Data Gravity“hinzu, die zu einer Art Falle werden kann: Unternehmensdaten besitzen eine gewisse Trägheit, die dazu führt, dass Datenbestände an der bestehenden Infrastruktur „kleben“.
Jede It-umgebung hat so ihre eigene Gravitation. Und je größer das Unternehmen ist und je mehr unterschiedliche Cloud-anbieter es nutzt, desto schwieriger wird es, die Datenmengen zu migrieren. Für Multi-cloud-umgebungen ist die „Data Gravity“aber fatal: Sie verhindert, dass die Flexibilität der Multi Cloud optimal genutzt werden kann. Um die Schwerkraft zu überwinden, ist daher ein gutes
Datenmanagement unentbehrlich.
In vielen It-umgebungen erschwert die „Data Gravity“den effizienten Einsatz von Cloud-ressourcen. Wer beispielsweise eine
Storage-infrastruktur im Petabyte-bereich betreibt, wird sich schwertun, diese Datenmengen auf eine neue Plattform zu migrieren. Daten aber sind innerhalb der digitalen Transformation zum unverzichtbaren Treibstoff für Innovation geworden. Die zentrale Frage lautet deshalb: Wie schaffen es Unternehmen, die „Data Gravity“hinter sich zu lassen und Daten den Bewegungsspielraum zu geben, den sie brauchen?
Um bis zu 60% lassen sich Daten durch Deduplizierung komprimieren
DIE SCHWERKRAFT ÜBERWINDEN
Die Schwierigkeit liegt darin, das Datenmanagement in der Multi-cloud-umgebung so zu gestalten, dass die Daten den Nutzern möglichst schnell, effizient und kostengünstig zur Verfügung stehen. Mittlerweile gibt es Angebote, die sowohl Ablage als auch Verwaltung von Datensätzen über verschiedene Cloud-provider hinweg anbieten. Damit lässt sich das Datenmanagement einheitlich auf die verschiedenen Systeme und Technologien anwenden, sodass dieselben Prozesse und Tools greifen – unabhängig davon, wo gerade Daten geklont, gesichert oder wiederhergestellt werden.
Außerdem müssen sich Daten aus verschiedenen Umgebungen effizient zusammenführen lassen. Dafür ist eine einheitliche Datenübertragung erforderlich. Diese spielt auch eine wichtige Rolle, wenn Unternehmen Daten von einer Cloud in eine andere verschieben möchten, etwa weil das Angebot dort besser und günstiger ist oder weil ein Cloud-anbieter einen Service einstellt.
UNVERZICHTBARE WERKZEUGE
Wie bereits erwähnt: Tools, die ein so umfangreiches und komplexes Datenmanagement unterstützen, sind bereits erhältlich. Sie setzen etwa auf Deduplizierung. Bei diesem Prozess werden redundante Daten gelöscht, sodass sich die Größe des Datensatzes reduziert. Dadurch benötigen die Daten weniger Speicherplatz und verursachen weniger Netzwerkverkehr, was wiederum die dafür anfallenden Kosten verringert. Auch das Backup wird folglich günstiger. Mit weiteren Funktionen können die Daten anschließend komprimiert und verdichtet werden – insgesamt um rund 60 Prozent.
Außerdem lassen sich mit entsprechenden Werkzeugen Daten in Sekundenschnelle klonen und ständig synchron halten. Mit Cloud Volumes Service von Netapp haben Entwickler die Möglichkeit, schreibbare Klone von Datensätzen zu erstellen, ohne das Quellsystem zu beeinträchtigen. Ein Klon basiert dabei auf einem Snapshot, der den Zustand der Daten zu einem bestimmten Zeitpunkt abbildet. Um den Klon zu aktualisieren, wird einfach ein neuer Snapshot erstellt. Entwickler können viele Klone von einem Storage-volume parallel bilden und diese gleichzeitig in verschiedenen Umgebungen einsetzen. Außerdem dienen Klone auch als Backup, falls es einmal nötig sein sollte, auf einen früheren Zustand zurückzugreifen. Der große Vorteil liegt in der Geschwindigkeit, in der die Snaphots erstellt und wiederhergestellt werden können – das Replizieren erfolgt bis zu zehn Mal schneller, die Erstellung beschleunigt sich sogar um den Faktor 30.
UNTERSTÜTZUNG VON AUSSEN
Was aber dennoch bleibt, ist die Frage nach dem Knowhow. Verantwortliche stehen trotz vieler hilfreicher Tools weiterhin vor der Frage, welcher ihrer Mitarbeiter die zeitlichen Kapazitäten hat, um der Komplexität der Multi-cloud-umgebung dauerhaft zu trotzen. Und die Antwortet lautet meist: Niemand. Denn die It-services zeichnen sich meist durch unterschiedliche Benutzeroberflächen und Usability aus. Auch über stete Neuerungen gilt es immer informiert zu bleiben. Darüber hinaus kommen mit der Cloud auch unzählige Preis- und Lizenzmodelle ins Spiel, was die Abrechnung erschwert. Aus diesen Gründen lagern immer mehr Unternehmen die Betreuung und Integration der Multi Cloud komplett an einen Managed-services-provider aus. Oft handelt es sich dabei um sogenannte Infrastructure-as-a-service-modelle (Iaas). Die Kunden müssen sich in einer solchen Managed-service-lösung nicht mehr um den Betrieb der Hardware kümmern. Beispielsweise könnte der virtualisierte Speicher wie ein kleines Storage-system im Rechenzentrum erscheinen und so die gewohnte Arbeitsumgebung bieten, was Verantwortlichen den Einsatz erleichtern sollte. Der Komplexität der Multi Cloud wird so Einhalt geboten.
Alternativ gibt es auch Platformas-a-service-modelle (Paas) für die gängigen Cloud- Plattformen von Amazon, Microsoft und Google. Bei solchen Angeboten wird die Infrastruktur als Cloud-nativer File-storage angezeigt und nicht als komplette Speicherumgebung. Für den Kunden entfällt so die gesamte Betriebssystempflege – um die Konfiguration, die Skalierbarkeit und die I/o-performance braucht er sich nicht zu kümmern. Für den Betrieb sind damit keine Storage-kenntnisse nötig. Das spart Zeit und optimiert Prozesse.