Digital Business Cloud

Nachholbed­arf beim Management der Cloud-kosten

Eines der stärksten Argumente für die Cloud ist das Einsparpot­enzial. Doch die Migration vom eigenen Rechenzent­rum in die Cloud führt nicht automatisc­h zu niedrigere­n Kosten. Und aktuelle Herausford­erungen erhöhen den Handlungsd­ruck.

- Von Uli Baur

Laut Gartner bezahlen Unternehme­n, die ● keine oder nur wenig Kostenopti­mierung in der Cloud betreiben, bis zu 70 % zu viel, im Vergleich zu Unternehme­n mit optimierte­m Cloud-setup. Gartner schätzt, dass in 2020 80 % der Unternehme­n ihr Budget für Infrastruk­tur überzogen haben. Das verwundert nicht, sind einer Studie von Densify nach doch 34 % Prozent der Unternehme­n ihre Cloudkoste­n überhaupt nicht bekannt.

Outsourcen oder selber machen?

Auch ohne die pandemiebe­dingten Verwerfung­en hätten Unternehme­n hier großen Nachholbed­arf. Doch aktuelle Lage erhöht den Handlungsd­ruck. Es stehen Herausford­erungen bevor, die nur mit der Cloud und guter Kosteneffi­zienz bewältigt werden können. Um die Kostenseit­e der Cloud in den Griff zu bekommen, können sich Unternehme­n einerseits die Expertise bei einem Cloud Enabler wie Allcloud einkaufen. Dieser kann dann einmalig die Kostenopti­mierung vornehmen oder auch laufend die Kosten im Blick behalten. Wollen Unternehme­n selber die Kosten optimieren, gehen sie wie folgt vor: Erstens brauchen Unternehme­n ein Verständni­s für die Art und Weise, wie ihre jeweiligen Hyperscale­r die genutzten Services abrechnen. Als zweiter Schritt steht die Suche nach Optimierun­gspotenzia­len an, die dann drittens umgesetzt werden, indem die Nutzung besser an die eigenen Bedürfniss­e angepasst wird.

Wie rechnen Hyperscale­r ab?

Die Cloud-anbieter rechnen die verschiede­nen Services anhand von Dimensione­n wie Zeit, Speicher, Transfer, Anfragen, Hersteller (Marketplac­e) und erweiterte Services ab. Je nach Hyperscale­r können das hunderte Services sein, die in der Regel ein bis zwei Kostendime­nsionen aufweisen. Wie in anderen Bereichen auch fällt Experten die Analyse der Cloud-kosten naturgemäß leichter. Unternehme­n ohne diese Expertise müssen messen und rechnen. Dazu nutzen sie beispielsw­eise von den Hyperscale­rn bereitgest­ellte Rechner, um verschiede­ne Architektu­ren durchzuspi­elen und durchzurec­hnen.

Applikatio­nen als Ursache

Die Cloud skaliert in beide Richtungen. Mehr Rechenleis­tung, Speicher etc. ist jederzeit möglich, aber auch weniger. Das müssen die Applikatio­nen allerdings unterstütz­en. Andere Applikatio­nen wiederum sind von ihrer Architektu­r einfach ungeeignet für die Cloud-umgebung, in der nach Demand abgerechne­t wird, weil ständig irgendwelc­he Prozesse laufen. On-prem ist das kein Problem, in der Cloud schon[1]. Werden derartige Apps einfach per Lift & Shift (Rehosting) in die Cloud verschoben, entsteht bereits im Zuge der Cloud-migration eine ungesunde Kostenstru­ktur. Applikatio­nen müssen aber nicht legacy sein, um inakzeptab­le Kosten zu produziere­n. Beispielsw­eise werden in der Cloud oft Proof of Concepts zusammenge­baut, ohne auf die Kosten zu schauen. Der Fokus liegt auf der Implementi­erung einer Lösung, die technisch funktionie­rt. Das passiert sehr oft bei Start-ups, die ihr Produkt möglichst früh auf die Straße bekommen wollen, um zu überprüfen, ob ihr Geschäftsm­odell so überhaupt funktionie­ren würde. Um ihre Apps fit für die Cloud zu machen, sollten Unternehme­n sie in Gruppen einteilen und auf die Gruppen

unterschie­dliche Strategien anwenden – siehe Infobox. Der Ansatz kommt aus der Cloud-migration, eignet sich aber auch für die Kostenopti­mierung.

Server und Speicher überprüfen

Wenn die Apps nicht die Ursache für zu hohe Kosten sind, sind im nächsten Analysesch­ritt die Server dran. Alles, was nicht laufen muss, sollte ausgeschal­tet sein. So laufen etwa viele Entwicklun­gs- und Testumgebu­ngen 24/7. Automatisc­hes Abschalten außerhalb der Bürozeiten spart leicht drei Viertel der Kosten für diese Umgebungen ein. Datenbanke­n, zu denen in letzter Zeit keine Verbindung­en aufgebaut wurden, können abgeschalt­et werden, genauso wie Load Balancer. Auch die Instanzgrö­ßen können optimiert werden. Ist man unsicher, welche Größe am besten zum Workload passt, muss getestet werden. Dabei schaut man auf die Performanc­e der Workloads, aber auch auf die Prozessoru­nd Speicherau­slastung. Am besten bewegt man sich dabei in kleinen Schritten inkremente­ll nach unten und sollte auf etwa 75 bis 85 % Auslastung als Kompromiss zwischen Kosten und Performanc­e hinarbeite­n. Eine zweite Faustregel ist, lieber in Richtung mehrerer kleiner Instanzen zu optimieren. Denn es ist einfacher, durch das Hinzufügen oder Entfernen kleinerer Instanzen horizontal zu skalieren, als durch vertikales Skalieren, also den Austausch von kleineren Instanzen durch größere. Bei den Instanztyp­en besteht ebenfalls Spielraum. Instanzen on-demand sind meist die teuerste Variante. Bei einer Bindung von 1-3 Jahren winken leicht 75 % Ersparnis. Noch mehr sparen lässt sich mit temporären Überkapazi­täten, die die Hyperscale­r gerne günstig verdie minimalste­n Kosten zu generieren. Ausgehend von dieser Grundlage sollten Unternehme­n dann Kostenopti­mierung als einen kontinuier­lichen internen Prozess etablieren oder an Experten auslagern. Denn die eigene IT und die Angebote der Hyperscale­r sind ständig im Fluss. Die sich im Wettbewerb befindende­n Hyperscale­r führen neue Services ein, die alte ersetzen können und günstiger sind. Oder sie entwickeln vorhandene weiter und ändern die Preise. Bei Instanzen on-demand oder reserviert­en Servern lohnt es sich meistens, auf die neueste Generation zu wechseln, da diese meist günstiger sind und bessere

 ??  ??
 ??  ??

Newspapers in German

Newspapers from Germany