KI-Systeme kommen zurück ins eigene Data Center
In den USA zeichnet sich ein Umdenken ab: KI-Anwendungen werden wieder zurück ins eigene Rechenzentrum On-Premises geholt. Die Cloud ist schlicht zu teuer.
Cloud Computing hat den Einsatz von künstlicher Intelligenz (KI) und maschinellem Lernen (ML) revolutioniert, denn es hat es erschwinglich gemacht. Branchenkenner beobachten in den USA dennoch ein Umdenken bei der Frage, wo KI/ML-Verarbeitung und KI/ML-gekoppelte Daten gehostet werden sollen. Lange Zeit war es selbstverständlich, öffentliche Cloud-Anbieter zu nutzen. Mittlerweile werde das Hosting von KI/ML und der benötigten Daten bei CloudHyperscalern infrage gestellt.
Der Grund: Die Kosten explodieren. So haben viele Unternehmen schnell und kostengünstig dedizierte, auf ihre Zwecke zugeschnittene KI/ ML-Systeme in der Cloud entwickelt. Doch im Regelbetrieb sieht das rasch anders aus, wenn am Ende des Monats die Cloud-Rechnungen eintreffen. KI/ML-Systeme inklusive Terabytes oder Petabytes an Daten zu hosten, ist teuer. Außerdem treiben die Kosten für die Übertragung der Daten zu und vom Cloud-Anbieter, die Rechnung in die Höhe. Unternehmen sehen sich deshalb nach anderen, kostengünstigeren Optionen um. Sie wenden sich an ManagedService- und Co-Location-Provider (Colos) oder verlagern die Systeme sogar zurück in den alten Server-Raum On-Premises.
Das hat schlichtweg Kostengründe: Die Preise für herkömmliche Rechen- und Speichergeräte sind in den letzten fünf Jahren stark gesunken. So stellen viele IT-Verantwortliche fest, dass traditionelle IT-Ansätze, einschließlich des Aufwands, eigene Hardware und Software warten zu müssen, häufig günstiger sind als die ständig steigenden Cloud-Rechnungen. Zum anderen haben viele Anwender im Zusammenhang mit der Cloud mit langen Latenzzeiten zu kämpfen. Abläufe verlangsamen sich, weil die meisten Unternehmen cloudbasierte Systeme über das offene Internet nutzen. Zudem bedeutet das Modell der Mehrfachnutzung, dass Prozessoren und Speichersysteme in der Cloud mit anderen Nutzern geteilt werden. Wartezeiten können zu Umsatzeinbußen von mehreren Tausend Dollar pro Jahr führen, je nachdem, wozu die spezifischen cloudbasierten KI/MLSysteme in der Cloud dienen.
Viele der KI/ML-Systeme, die von Cloud-Anbietern zur Verfügung gestellt werden, laufen auch auf herkömmlichen On-Premises-Systemen. Die Migration von einem Cloud-Anbieter auf einen lokalen Server ist per Lift-and-Shift meist schnell zu bewerkstelligen – vorausgesetzt, man ist nicht an ein KI/ML-System gebunden, das nur bei einem einzigen Cloud-Anbieter läuft.
Fazit: Rückkehr ins RZ kann Geld sparen
Die Cloud-Nutzung wird weiterwachsen. Allerdings sind einige Applikationen, insbesondere KI-/ML-Systeme, die große Datenmengen nutzen und empfindlich auf Latenzzeiten reagieren, in der Cloud längst nicht so kosteneffizient zu betreiben wie On-Premises. Dies könnte auch bei einigen größeren analytischen Anwendungen wie Data Lakes und Data Warehouses der Fall sein. Verlagern Unternehmen KI/MLSysteme ins eigene Rechenzentrum vor Ort, können sie im Vergleich zum Hosting bei einem öffentlichen Cloud-Anbieter bis zur Hälfte ihrer jährlichen Kosten einsparen. Ein überzeugender Business Case. So ist in den USA bereits zu beobachten, dass viele Arbeitslasten erst gar nicht in die Cloud verlagert werden. Die Cloud für KI/ML zu nutzen, ist auf jeden Fall keine Selbstverständlichkeit mehr.