Microsoft versenkt RZs im Meer
Auf der Suche nach RZ-Standorten in kühlen Umgebungen geht Microsoft einen ungewöhnlichen Weg: Der Konzern hat den Prototypen eines Data Center im Meer getestet – zirka einen Kilometer vor der amerikanischen Pazifikküste.
Um die Klimatisierungskosten zu senken und schneller zu werden, erforscht Microsoft Möglichkeiten, Rechenzentren ins Meer zu verlagern.
Seit einigen Jahren bemühen sich die großen Internet-Player für ihre Rechenzentren um Standorte in möglichst kühlen Umgebungen, um die Klimatisierungskosten zu senken und der Kritik der Umweltschützer zu entgehen. Facebook beispielsweise hat ein Rechenzentrum im schwedischen Lulea gebaut, wo die ganzjährig kalten Außentemperaturen für vergleichsweise geringen Stromverbrauch sorgen. Google betreibt ein Data Center in Hamina, das rund 150 Kilometer von Helsinki entfernt ist und mit Wasser aus dem Finnischen Meerbusen kühlt.
Jetzt geht Microsoft mit dem „Project Natick“einen Schritt weiter: Das Vorhaben sieht die Verlagerung hochstandardisierter, gekapselter Rechenzentren ins Meer vor. Dabei geht es dem Softwareriesen vor allem um die Versorgung von Kunden in küstennahen Regionen. Die Data Centers können theoretisch binnen 90 Tagen den Betrieb aufnehmen – das wäre ein enormer Zeit- und Kostengewinn, dauert es doch heute bis zu zwei Jahre, bis ein herkömmliches Rechenzentrum laufbereit ist.
Konkret hat Microsoft im Rahmen des Teilprojekts „Leona Philpot“, benannt nach der Figur eines Xbox-Spiels, zwischen August und November 2015 eine Stahlkapsel mit einem Durchmesser von rund 2,5 Metern zirka neun Meter tief vor der pazifischen Küste, unweit von San Luis Obispo, versenkt. Das Unternehmen weist ausdrücklich darauf hin, dass man sich noch in einem frühen Stadium befinde und keineswegs sicher sei, ob dieser Weg der richtige für Microsoft und andere Cloud-Provider sei. Immerhin zeigten sich die Forscher, die mit zahlreichen Hardwareproblemen und Ausfällen gerechnet hatten, vom reibungslosen Ablauf überrascht. Das Unterwassersystem war mit Hunderten Sensoren ausgestattet, die beispielsweise Druck, Feuchtigkeit im Rechnerraum und Bewegungen gemessen haben. Das System hielt stand, so dass die Testphase verlängert und erste Azure-Cloud-Services ausprobiert werden konnten.
Wie die „New York Times“urteilt, ist das Vorhaben durchaus schlüssig. Solche ServerContainer unter Wasser könnten nicht nur helfen Energie zu sparen, sondern auch zu einer besseren Versorgung der Bevölkerung mit Rechendiensten führen. Heute lebt rund die Hälfte der Weltbevölkerung in Regionen, die sich nicht mehr als 200 Kilometer von den Küsten entfernt befinden. Rechenzentren hingegen werden oft in eher abgelegenen Gebieten im Hinterland errichtet, wo die Kosten meist geringer und die klimatischen Bedingungen – etwa in Höhenlagen – günstig sind. Gelingt es, die Rechenpower näher an die Verbraucher heranzuführen, könnten die Latenzzeiten gesenkt und die Kundenzufriedenheit verbessert werden.
Angesichts des aufkommenden Rechenbedarfs, der insbesondere durch Cloud Computing und das Internet of Things (IoT) erzeugt wird, könnte das Versenken standardisierter Rechenzentrums-Module vor den Küsten der großen Städte eine Lösung sein. Allein Microsoft betreibt rund um den Globus mehr als 100 Rechenzentren – Tendenz steigend. Das Unternehmen hat in sein weltumspannendes Data-Center-Netz mehr als 15 Milliarden Dollar investiert. Heute werden daraus über 200 Online-Dienste angeboten. Gemeinsam mit einem noch auszuwählenden Anbieter von alternativen Energien will Microsoft nun ausloten, ob die Kombination mit einem Turbinen- oder Gezeitenkraftwerk Sinn geben könnte.