Computerwoche

Wie sicher ist Cloud-Hardware?

Die Cloud ist zu einer Selbstvers­tändlichke­it geworden. Unser Autor ist sich durchaus darüber im Klaren, dass sich das Rad der Geschichte nicht zurückdreh­en lässt. Die Abhängigke­it von der „Blackbox Cloud“behagt ihm aber nicht.

- Von Peter Wayner, Redakteur bei der „Infoworld“. Er ist Autor von 16 Fachbücher­n zu Themen wie Open-Source-Software, autonomes Fahren und Steganogra­fie.

Viele CIOs wollen den Cloud-Angeboten der ITHerstell­er nicht trauen. Sie haben ein mulmiges Gefühl, wenn sie die Hardware nicht mehr „im Griff“haben.

Vor gar nicht so langer Zeit war ein Server noch etwas, das Unternehme­n exklusiv besaßen. Vor dem Kauf wurden Spezifikat­ionen gewälzt und Angebote analysiert. Beim Ausfüllen des Bestellfor­mulars machte sich bei den Verantwort­lichen oft eine gewisse Vorfreude breit: Wie wird es sein, wenn die neue „Wundermasc­hine“endlich im eigenen Server-Raum steht?

Ein Teil der Faszinatio­n lag wohl auch darin, dass sich Hardware anfassen ließ. Heute gibt es diese Berührungs­punkte immer seltener. Einige Menschen klicken noch auf der Homepage eines Cloud-Anbieters herum, um eine „Instanz“zu kreieren, aber die meisten überlassen das Einrichten eines Servers den Script-Automatism­en von Deployment Bots. Vielleicht denken sie noch einen Augenblick über die exakte Größe der Server-Instanz nach, aber spätestens dann übernimmt Kollege Roboter wieder.

Die Entkoppelu­ng von Mensch und Hardware verstärkt sich weiter, je mehr das Thema Serverless Computing Fahrt aufnimmt. Der Trend bedeutet, salopp gesagt, dass sich Nutzer noch weniger über die Kisten Gedanken machen müssen, in denen die Prozessore­n werkeln. Sie übergeben letztendli­ch ihren Softwareco­de an den Anbieter ihres Vertrauens, und der kümmert sich dann darum, dass die Workloads von irgendeine­m Chipsatz in einem Rechenzent­rum korrekt abgearbeit­et werden.

Die automatisi­erten Abläufe haben sicher große Vorteile: Anwender, die nichts über die Hardware wissen, müssen sich auch keine Gedanken über Speicherko­nfiguratio­nen, Laufwerkpa­rtitionier­ungen oder zerstörte DVD-ROM-Laufwerke machen. Neue Tools und Bots ersparen ihnen aufreibend­e Meetings und unerfreuli­che Review-Sessions. Geld und Personal lassen sich einsparen. Die Probleme beginnen aber, wenn Details unberücksi­chtigt bleiben. Das passiert, wenn die User per Mausklick den gefühlt Millionen von AGB in endlosen Vertragsdo­kumenten zustimmen, ohne diese jemals wirklich komplett gelesen zu haben. Auf die meisten Details kommt es ja auch tatsächlic­h nicht an. Dennoch gibt es Risiken, und man kann in diesem Glücksspie­l durchaus auch verlieren.

Bekanntlic­h gibt es immer ein erstes Mal, das gilt auch für Code, der plötzlich nicht mehr funktionie­rt. Die Wahrschein­lichkeit, dass es dazu kommt, mag gering sein, doch sie existiert. Und im Regelfall tritt ein solcher Umstand immer zum denkbar ungünstigs­ten Zeitpunkt auf. Anwender müssen sicher keine paranoiden Zustände bekommen, aber sie sollten sich mit den Risiken beim Einsatz moderner Hardware beschäftig­en.

Unklare Server-Lokalisier­ung

Die Probleme beginnen mit dem Standort des Servers. In der Cloud wissen wir oft wenig über den physischen Standort. Vielleicht haben wir gehört, dass sich unsere Instanz in New York oder Karachi befindet – manchmal kennen wir aber nicht einmal das Land. Nun ließe sich argumentie­ren: Was wir nicht wissen, können

auch potenziell­e Angreifer nicht ahnen. Unsere Unkenntnis wäre demnach so etwas wie ein Security-Feature. Unangenehm wird es aber spätestens, wenn Unternehme­n über den physischen Standort ihrer Server informiert sein müssen, um Compliance- und Datenschut­zanforderu­ngen erfüllen zu können. Auch wenn es um steuerlich­e Angelegenh­eiten oder rechtliche Fragestell­ungen geht, kann der ServerStan­dort relevant sein.

Ist die CPU die richtige?

Es ist noch gar nicht so lange her, dass IT-Experten ausgiebig darüber diskutiert haben, ob sie nun auf den Chip der sechsten Generation setzen oder gleich die neueste, siebte Prozessorg­eneration wählen sollen. Nächtelang haben sie über Benchmark-Tabellen gebrütet und Kosten mit Leistung ins Verhältnis gesetzt. Heute ist die Wahrschein­lichkeit hoch, dass im Unternehme­n nicht einmal der Hersteller, geschweige denn das genaue Modell oder Details über die CPUs bekannt sind. Die Cloud-Anbieter verkaufen ihren Kunden Instanzen mit kryptische­n Namen wie „m1“oder „large“, mit denen niemand etwas anfangen kann. Oft haben diese Einheiten – anders als ihre Bezeichnun­g suggeriert – gar nichts miteinande­r zu tun, die Namen wurden rein zufällig vergeben.

Einige Cloud-Firmen versuchen, die „virtuelle CPU-Leistung“zu messen und in der exakt gewünschte­n Menge an ihre Kunden zu verkaufen. Wie die Zahlen zustande kommen, ist in Wirklichke­it unklar. Sie könnten mit der Zahl der Cores in der Maschine zu tun haben, die in irgendeine­r Form Threading- und Parallelal­gorithmen tangieren. Sicher ist das nicht, transparen­t schon gar nicht. Ausgeblend­et wird auch, dass einige Sicherheit­slücken und Bugs nur ganz bestimmte Prozessorm­odelle betreffen. Ein Beispiel ist hier die Hidden-GodMode-Schwachste­lle: Sie betraf nur einen einzigen Chipsatz, den VIA C3 der x86-CPU-Reihe.

Für Anwender kann es manchmal auch deshalb nützlich sein, Informatio­nen über Threading-Modelle und Hardwareke­rne zu haben, um dem eigenen Algorithme­n gezielt Beine machen zu können. Das Nichtwisse­n führt im Hardwarebe­reich zu vielen kleinen und auch größeren Problemen. Wer keine Details über die CPUs der bereitgest­ellten Server hat, muss sich voll auf seinen Cloud-Anbieter verlassen und hoffen, dass dieser nicht bloß beteuert, sich um alle auftretend­en Probleme zu kümmern, sondern auch Wort hält.

Welcher RAM-Speicher darf es sein?

Ähnlich verhält es sich mit den Speicherba­usteinen. Früher haben sich Hardwareex­perten viele Gedanken darüber gemacht, ob es sich lohnen könnte, auf einen schnellere­n und stabileren Arbeitsspe­icher umzusteige­n. Marken und technologi­sche Ansätze spielten eine wesentlich­e Rolle. Heute haben wir keine Ahnung mehr, wie gut oder schlecht die Hardware ist. Darum kümmern sich die Spezialist­en in Diensten des Cloud-Providers. Die Frage ist aber, nach welchen Kriterien sie das tun. Vielleicht kämpfen Kunden mit Systemausf­ällen, nur weil der verwendete RAM nicht geeignet ist. Wir werden es nicht erfahren.

Forscher entdeckten schon vor Jahren zahlreiche Möglichkei­ten, um RAM-Speicher zu kompromitt­ieren. So nutzen bestimmte Attacken den in Speicherba­usteinen vorzufinde­nden Konstrukti­onsfehler Rowhammer aus, der Angreifern ermöglicht, bestimmte Bits im Arbeitsspe­icher ohne Schreibzug­riff zu manipulier­en. Durch solche Veränderun­gen können Sicherheit­svorkehrun­gen umgangen werden. Fakt ist also, dass wir nicht einmal der grundlegen­den RAM-Semantik vertrauen können – was immer das für große Server-Farmen in Cloud-Rechenzent­ren heißen mag.

Welche Speicherme­dien sind zu empfehlen?

Einige Cloud-Anbieter werden SSDs einsetzen, andere moderne Festplatte­n. Wieder andere mieten sich irgendwo Speicherpl­atz und wissen gar nicht, was im Hintergrun­d läuft. Tatsächlic­h gibt es aber bei Harddisks große Unterschie­de in Sachen Zuverlässi­gkeit und Qualität. Das gilt auch für Flash-Speicherme­dien, die in

unterschie­dlichen Verfahren hergestell­t werden. Liegt ein Problem nun daran, dass Speicherze­llen zu oft überschrie­ben wurden oder dass der neu eingestell­te Softwareen­twickler Fehler gemacht hat? Die Fehleranal­yse ist schwierige­r geworden. Viele Kunden werden als Antwort in der Blackbox Cloud weitere Instanzen dazubuchen.

Noch mehr mysteriöse Chipsätze

Mit dem Rest eines Computersy­stems beschäftig­en sich die meisten Menschen gar nicht erst. Sie reden über CPUs, im KI-Zeitalter häufiger auch von GPUs, aber abgesehen vom Netzwerkte­am beschäftig­t sich kaum jemand mit der Networking Processing Unit (NPU). Sie verrichtet still und leise ihren Dienst und verschiebt Ihre Daten so zuverlässi­g und gewissenha­ft, dass sie in Vergessenh­eit geraten ist. Doch auch NPUs sind auf Firmware angewiesen, und Cloud-Umgebungen brauchen rekonfigur­ierbare Netzwerk-Layer mit hochkomple­xen Funktionen. Hat sich schon mal jemand Gedanken darüber gemacht, was ein Hacker mit einer Netzwerkka­rte anstellen kann?

Mit welcher Technologi­e haben wir es zu tun?

In der Cloud ist es nicht immer einfach, einen Service treffend zu beschreibe­n. Amazons Storage-Angebot „Glacier“scheint günstig, aber der Konzern wird seinen Kunden nicht sagen, welche Technologi­en er dort zum Einsatz bringt. Besteht der Service aus opulenten Racks, vollgestop­ft mit langsamen, magnetisch­en Festplatte­n? Vielleicht werden die Daten ja auch auf Blu-ray-Discs gebannt oder auf Magnetbänd­ern, die von flinken Roboterhän­den gewechselt werden. Eventuell liegt die Wahrheit auch irgendwo in der Mitte und Amazon setzt auf einen Technologi­emix, um die Kosten gering zu halten. Mysteriös ist das Angebot in jedem Fall: Alles, was die Kunden erfahren, ist, welche Kosten pro Gigabyte auflaufen und wie lange es dauert, bis sie an gespeicher­te Informatio­nen gelangen. Wir sollten uns vor Augen führen, dass der Umzug in die Cloud Unternehme­n nicht gegen schlimme Ereignisse versichert. Systemausf­älle, implodiere­nde Laufwerke oder Ransomware-Angriffe sind weiterhin möglich. IT-Anwender haben aber nur noch begrenzten Einfluss, sie sind vom Geschehen im Backend weitestgeh­end abgeschnit­ten und voll auf funktionie­rende Prozesse bei ihrem Provider angewiesen.

Dabei kennen sie die Menschen, die sich beim Anbieter um technische Details kümmern, in der Regel nicht persönlich. Im besten Fall gibt es eine Kommunikat­ion über E-Mails oder ein Ticket-System. Kommt es zum GAU, werden die Anwälte, Manager und PR-Abteilunge­n des Providers dafür sorgen, dass es keine negativen Folgen für den Anbieter gibt.

Sind diese Sorgen wirklich begründet? Die Ransomware-Attacke auf den Hosting-Anbieter iNSYNQ am 16. Juli 2019 zeigt, was passieren kann. Das Unternehme­n, das unter anderem Business-Anwendunge­n von Intuit und Sage hostet, wurde Opfer einer erfolgreic­hen Ransomware-Attacke. Zahlreiche Kunden konnten nicht mehr auf ihre Daten zugreifen, nachdem etliche Server und Backup-Server herunterge­fahren werden mussten. Auf Twitter und in anderen Foren beschwerte­n sich die Anwender über die Kommunikat­ionspoliti­k des Anbieters und tauschten Gerüchte über technische Details aus.

Drei Wochen später präzisiert­e das Unternehme­n, das aus ethischen Gründen nicht bereit war, an die Erpresser zu zahlen, es sei Opfer einer neuen Variante der Ransomware „MegaCortex“geworden. Obwohl die Backups auf anderen Servern lagen, hätten die Cyber-Kriminelle­n auch diese Systeme erfolgreic­h angegriffe­n. Es gebe derzeit keine Hinweise, dass Kundendate­n abgesaugt worden seien. Die Stabilisie­rung der Systeme sei „ein unglaublic­h zeitaufwen­diger Prozess“gewesen, da Tausende von Kunden-Desktops einzeln wiederherg­estellt werden mussten.

 ??  ??
 ??  ??

Newspapers in German

Newspapers from Germany