Nachholbedarf beim Management der Cloud-kosten
Eines der stärksten Argumente für die Cloud ist das Einsparpotenzial. Doch die Migration vom eigenen Rechenzentrum in die Cloud führt nicht automatisch zu niedrigeren Kosten. Und aktuelle Herausforderungen erhöhen den Handlungsdruck.
Laut Gartner bezahlen Unternehmen, die ● keine oder nur wenig Kostenoptimierung in der Cloud betreiben, bis zu 70 % zu viel, im Vergleich zu Unternehmen mit optimiertem Cloud-setup. Gartner schätzt, dass in 2020 80 % der Unternehmen ihr Budget für Infrastruktur überzogen haben. Das verwundert nicht, sind einer Studie von Densify nach doch 34 % Prozent der Unternehmen ihre Cloudkosten überhaupt nicht bekannt.
Outsourcen oder selber machen?
Auch ohne die pandemiebedingten Verwerfungen hätten Unternehmen hier großen Nachholbedarf. Doch aktuelle Lage erhöht den Handlungsdruck. Es stehen Herausforderungen bevor, die nur mit der Cloud und guter Kosteneffizienz bewältigt werden können. Um die Kostenseite der Cloud in den Griff zu bekommen, können sich Unternehmen einerseits die Expertise bei einem Cloud Enabler wie Allcloud einkaufen. Dieser kann dann einmalig die Kostenoptimierung vornehmen oder auch laufend die Kosten im Blick behalten. Wollen Unternehmen selber die Kosten optimieren, gehen sie wie folgt vor: Erstens brauchen Unternehmen ein Verständnis für die Art und Weise, wie ihre jeweiligen Hyperscaler die genutzten Services abrechnen. Als zweiter Schritt steht die Suche nach Optimierungspotenzialen an, die dann drittens umgesetzt werden, indem die Nutzung besser an die eigenen Bedürfnisse angepasst wird.
Wie rechnen Hyperscaler ab?
Die Cloud-anbieter rechnen die verschiedenen Services anhand von Dimensionen wie Zeit, Speicher, Transfer, Anfragen, Hersteller (Marketplace) und erweiterte Services ab. Je nach Hyperscaler können das hunderte Services sein, die in der Regel ein bis zwei Kostendimensionen aufweisen. Wie in anderen Bereichen auch fällt Experten die Analyse der Cloud-kosten naturgemäß leichter. Unternehmen ohne diese Expertise müssen messen und rechnen. Dazu nutzen sie beispielsweise von den Hyperscalern bereitgestellte Rechner, um verschiedene Architekturen durchzuspielen und durchzurechnen.
Applikationen als Ursache
Die Cloud skaliert in beide Richtungen. Mehr Rechenleistung, Speicher etc. ist jederzeit möglich, aber auch weniger. Das müssen die Applikationen allerdings unterstützen. Andere Applikationen wiederum sind von ihrer Architektur einfach ungeeignet für die Cloud-umgebung, in der nach Demand abgerechnet wird, weil ständig irgendwelche Prozesse laufen. On-prem ist das kein Problem, in der Cloud schon[1]. Werden derartige Apps einfach per Lift & Shift (Rehosting) in die Cloud verschoben, entsteht bereits im Zuge der Cloud-migration eine ungesunde Kostenstruktur. Applikationen müssen aber nicht legacy sein, um inakzeptable Kosten zu produzieren. Beispielsweise werden in der Cloud oft Proof of Concepts zusammengebaut, ohne auf die Kosten zu schauen. Der Fokus liegt auf der Implementierung einer Lösung, die technisch funktioniert. Das passiert sehr oft bei Start-ups, die ihr Produkt möglichst früh auf die Straße bekommen wollen, um zu überprüfen, ob ihr Geschäftsmodell so überhaupt funktionieren würde. Um ihre Apps fit für die Cloud zu machen, sollten Unternehmen sie in Gruppen einteilen und auf die Gruppen
unterschiedliche Strategien anwenden – siehe Infobox. Der Ansatz kommt aus der Cloud-migration, eignet sich aber auch für die Kostenoptimierung.
Server und Speicher überprüfen
Wenn die Apps nicht die Ursache für zu hohe Kosten sind, sind im nächsten Analyseschritt die Server dran. Alles, was nicht laufen muss, sollte ausgeschaltet sein. So laufen etwa viele Entwicklungs- und Testumgebungen 24/7. Automatisches Abschalten außerhalb der Bürozeiten spart leicht drei Viertel der Kosten für diese Umgebungen ein. Datenbanken, zu denen in letzter Zeit keine Verbindungen aufgebaut wurden, können abgeschaltet werden, genauso wie Load Balancer. Auch die Instanzgrößen können optimiert werden. Ist man unsicher, welche Größe am besten zum Workload passt, muss getestet werden. Dabei schaut man auf die Performance der Workloads, aber auch auf die Prozessorund Speicherauslastung. Am besten bewegt man sich dabei in kleinen Schritten inkrementell nach unten und sollte auf etwa 75 bis 85 % Auslastung als Kompromiss zwischen Kosten und Performance hinarbeiten. Eine zweite Faustregel ist, lieber in Richtung mehrerer kleiner Instanzen zu optimieren. Denn es ist einfacher, durch das Hinzufügen oder Entfernen kleinerer Instanzen horizontal zu skalieren, als durch vertikales Skalieren, also den Austausch von kleineren Instanzen durch größere. Bei den Instanztypen besteht ebenfalls Spielraum. Instanzen on-demand sind meist die teuerste Variante. Bei einer Bindung von 1-3 Jahren winken leicht 75 % Ersparnis. Noch mehr sparen lässt sich mit temporären Überkapazitäten, die die Hyperscaler gerne günstig verdie minimalsten Kosten zu generieren. Ausgehend von dieser Grundlage sollten Unternehmen dann Kostenoptimierung als einen kontinuierlichen internen Prozess etablieren oder an Experten auslagern. Denn die eigene IT und die Angebote der Hyperscaler sind ständig im Fluss. Die sich im Wettbewerb befindenden Hyperscaler führen neue Services ein, die alte ersetzen können und günstiger sind. Oder sie entwickeln vorhandene weiter und ändern die Preise. Bei Instanzen on-demand oder reservierten Servern lohnt es sich meistens, auf die neueste Generation zu wechseln, da diese meist günstiger sind und bessere