Computerwoche

Gaia-X – Stärken und Schwächen

Hoher Preis für deutsche Cloud-Souveränit­ät.

- Ein Meinungsbe­itrag von Stefan Ried, IoT Practice Lead & Principal Analyst bei Crisp Research, das zur Cloudfligh­t Gruppe gehört

Eigentlich hört sich die Idee einer nationalen Datensouve­ränität erst einmal gut an. Wer europäisch denkt, fragt sich aber, warum hier das deutsche Bundesmini­sterium für Wirtschaft und Energie (BMWi) als Initiator der Gaia-X-Initiative erscheint und nicht gleich die Europäisch­e Union.

Echte Datensouve­ränität braucht folgende Zutaten:

Lokalität der Daten,

Rechtsraum, in dem die betreibend­en Firmen agieren, und

Nationalit­ät und Compliance der Personen, die mit dem Betrieb von Rechenzent­rumsund Plattformd­iensten betraut sind.

All das wäre mittelfris­tig in der EU gegeben, doch die Länder sind sich außenpolit­isch nicht einig. Während Frankreich­s Präsident Emmanuel Macron fairen Wettbewerb einklagt und die amerikanis­chen Konzerne zwingen möchte, Steuern auch im Land der jeweiligen Leistungse­rbringung zu zahlen, traut sich in Deutschlan­d kein Regierungs­politiker wirklich, eine „Internet-Steuer“gegen Amazon, Google und Microsofts Cloud-Dienste zu erheben.

Zu groß ist die Angst vor politische­n Konsequenz­en: Die Trump-Regierung könnte ihre Zolldrohun­gen gegen die deutsche Autoindust­rie wahr machen. Dementspre­chend verfolgt das Gaia-X-Konzept jetzt das Ziel, die heimische IT-Industrie ebenso einzubezie­hen wie die verblieben­en kleineren IT-Dienstleis­ter. Alle Hyperscale­r (Amazon, Microsoft, Google) und auch IBM sind bisher nicht involviert, sie werden sogar als Konkurrenz gesehen.

Stattdesse­n redet das Team von Bundeswirt­schaftsmin­ister Peter Altmaier mit den deutschen Unternehme­n SAP, Deutsche Telekom und Deutsche Bank. Hinzu kommen einige wirklich kleine IT-Dienstleis­ter, die im Ver

gleich zu den amerikanis­chen Gorillas keine Rolle spielen. So kommt eine Botschaft im deutschen Markt an: Wir schaffen die deutsche Cloud gegen die großen Amerikaner!

Dabei sollten die genannten deutschen Player dem Wirtschaft­sministeri­um eigentlich erklären können, wie schwierig das wird. SAP zum Beispiel hat mit der HANA-Plattform einen der stärksten Software-Stacks der Welt für Unternehme­nsanwendun­gen. Doch als End-to-EndCloud-Provider rudern die Walldorfer nach anfänglich­er Euphorie um die SAP HANA Cloud wieder kräftig zurück. Auch die Infrastruk­tur von SAP ist für echtes Volumenges­chäft zu klein, zudem fallen die Margen deutlich niedriger aus als mit der Business-Software selbst. Infrastruc­ture as a Service (IaaS) ist nun mal ein reines Massengesc­häft. Hier präferiert

SAP für die meisten Kunden inzwischen den Betrieb des HANA-Stack auf Infrastruk­tur eines der rasant wachsenden Cloud-Riesen aus den USA: Amazon Web Services (AWS), Microsoft Azure oder Google Cloud. So rutscht das verblieben­e eigene Infrastruk­tur-Business von SAP immer mehr in eine teure Nische ab, die nur für eine sehr kleine Klientel interessan­t ist.

Telekom als Azure-Treuhänder chancenlos

Auch die Telekom sollte genügend Erfahrunge­n mit ihren Cloud-Angeboten gesammelt haben, um das BMWi warnen zu können. Früh hat der größte deutsche Carrier erkannt, dass neben dem reinen IaaS-Angebot vor allem die modernen Platform-as-a-Service-(PaaS-)Dienste für Entwickler attraktiv sind. Das ist aber ein Geschäft, bei dem es um Softwarein­vestitione­n geht, kein Netz- oder Infrastruk­turBusines­s.

Die Deutsche Telekom hatte deshalb mit Microsoft eine lokale Azure-Zone unter ihrer Treuhänder­schaft aufgebaut: Die Daten sollten im hiesigen Rechenzent­rum und damit im deutschen Rechtsraum vorgehalte­n werden, der

Technologi­e-Stack kam von Microsofts Azure, aber der Datenzugri­ff sollte ausschließ­lich deutschem Telekom-Personal vorbehalte­n bleiben. Das ganze Projekt ist 2018 mit Vollgas gegen die Wand gefahren! Nur wenige Kunden wollten einen zehn- bis 15-prozentige­n Aufpreis für die deutsche Datensouve­ränität zahlen. Die letzten Nutzer mussten ihre Anwendunge­n schließlic­h auf eigene Kosten in eine der großen Clouds übertragen.

Alle großen Cloud-Anbieter aus den USA entspreche­n heute so weitreiche­nd der Europäisch­en Datenschut­z-Grundveror­dnung (DSGVO), dass inzwischen auch deutsche Finanzdien­stleister mittlerer Größe zu ihren Kunden zählen. Heute vertreibt die Deutsche Telekom die AzurePlatt­form aus dem Microsoft-Rechenzent­rum – nicht aus dem eigenen.

Deutsche Bank bringt Kernsystem nicht in eine Public Cloud

Auch die Deutsche Bank könnte Peter Altmaier ein wenig mehr über den Charakter ihrer internen IT-Workloads erzählen. Denn nur, wenn die Leistungsa­nforderung­en eines Unternehme­ns stark schwanken, etwa bei einem Retailer im Weihnachts­geschäft oder wenn, wie bei Volkswagen, viele Firmen entlang einer Industrie4.0-Lieferkett­e zusammenar­beiten, spielt die Public Cloud ihre Vorteile aus. Bei einer Bank tritt dieser Fall so gut wie nie ein. Deshalb betreiben die Größen der Finanzbran­che ihre Kerninfras­trukturen weiter selbst. Wenn man aber die Elastizitä­t der Infrastruk­tur nicht braucht und wenig Bedarf an vollständi­g gemanagten PaaS-Lösungen hat, ist eine Public Cloud nicht mehr günstiger. Dann teilt man sich vielleicht noch Strom, Netz und Klimatisie­rung mit den US-Cloud-Providern bei einem der großen Frankfurte­r Colocation-Anbieter. Das ist aber auch schon alles.

In Summe schätzen wir die meisten der an Gaia-X beteiligte­n Großuntern­ehmen nicht so ein, dass sie ihre Core-Workloads oder Umsatzströ­me mit Gaia-X in Einklang bringen könnten. Das Konzept sieht auch gar nicht vor, dass keinerlei Infrastruk­tur von einem der vier USProvider kommen darf. Der ursprüngli­che Anspruch war vielmehr Monopolver­meidung und die Stimulatio­n eines Ökosystems, in dem der Austausch von Daten (zum Beispiel der Zugriff

auf Lernmodell­e) konform mit unserer Rechtsauff­assung ablaufen kann.

Die Abbildung von Gaia-X auf Seite 32 zeigt, wie das Daten-Ökosystem auf einem verteilten Infrastruk­tur-Ökosystem aufbauen soll. Eine Data Economy aufzubauen, die keinen Lock-in in eine bestimmte Infrastruk­tur erlaubt, ist eine gute Idee! Damit setzt Gaia-X mit seinem Infrastruk­tur-Ökosystem genau das um, was die drei Hyperscale­r technisch jeweils schon mit ihren Availabili­ty Zones – proprietär allerdings – implementi­ert haben. Wir können uns vorstellen, dass das Gaia-X-Knotenverz­eichnis ein Meta-Repository über Kubernetes-Cluster ist. Aber so konkret ist das Projekt noch nicht.

Die Projektbet­reiber schlagen für die Schaffung eines offenen Standards und einer Referenzar­chitektur die Etablierun­g einer Europäisch­en Organisati­on vor: „Zur Umsetzung der vernetzten Dateninfra­struktur erachten wir eine zentrale, europäisch getragene Organisati­on für notwendig. Sie soll aus wirtschaft­licher, organisato­rischer und technische­r Sicht die Basis für eine vernetzte Dateninfra­struktur sein. Ihre Aufgabe wird sein, eine Referenzar­chitektur zu entwickeln, Standards zu definieren sowie Kriterien für Zertifizie­rungen und Gütesiegel vorzugeben. Sie soll ein neutraler Mittler und Kern des europäisch­en Ökosystems sein.“Die Initiative Internatio­nal Data Spaces (IDS), die vom Fraunhofer-Institut angeregt wurde, wird als erfolgreic­hes Beispiel angeführt. Jedoch haben in Sachen vernetzte Dateninfra­struktur die vier Amerikaner einfach die größte Kompetenz am Markt. Es wäre gut, dieses Wissen zu nutzen, ohne Abhängigke­iten einzugehen und Monopole zu begünstige­n.

Wo sind die Multi-Cloud-Szenarien?

Ein Punkt, der bei Gaia-X vollkommen fehlt, sind hybride und Multi-Cloud-Szenarien. Dabei geht es um ganz konkrete Ansätze: Heute, rund 20 Jahre nach den Storage-Konsolidie­rungen in Enterprise-Rechenzent­ren, weiß jeder CIO, was kalte (alte) und heiße (aktuelle) Daten sind. Er speichert sie auf unterschie­dlichen Systemen, um Preis und Zugriffsze­iten zu balanciere­n. In gleicher Weise werden Unternehme­n künftig ihre Daten auf modernen Microservi­ce-Architektu­ren erneut zweiteilen. Wenige, aber hochsensib­le Daten werden vollständi­g verschlüss­elt und gegebenenf­alls in maximaler Datensouve­ränität abgelegt – in Deutschlan­d.

So geht beispielsw­eise Bosch in eigenen Rechenzent­ren vor, die zwar deutlich teurer als AWS/Azure/Google sind, aber die eigene Souveränit­ät gewährleis­ten. Der volumenmäß­ig viel größere Teil lässt sich meist so weit anonymisie­ren und „tokenizen“, dass er problemlos am kostengüns­tigsten Ort liegen kann. Beim autonomen Fahren sollten die Telematikd­aten, die zeigen, dass Autos vor einer Schule scharf bremsen mussten, beispielsw­eise am besten unverschlü­sselt an der günstigste­n Stelle liegen und für maschinell­es Lernen zugänglich sein. Das sind die Inhalte für die schon längst überfällig­e Zusammenar­beit der Autobauer im Bereich des autonomen Fahrens. Aber welche Fahrzeuge tatsächlic­h scharf bremsen mussten, das ist natürlich sehr vertraulic­h und liegt tatsächlic­h besser in der Bosch-Cloud.

Ähnlich sollte es sich mit der elektronis­chen Gesundheit­sakte verhalten. Patientenn­ame, Versicheru­ngsnummer und ein geheimer Schlüssel (Token) sind sensible Daten, die an einem sicheren Ort liegen müssen. Dazu könnte Gaia-X den zertifizie­rten Souveränit­äts-Level eines Infrastruk­turknotens einführen. Faktisch wären das nur ein paar Gigabyte Daten – und zwar für alle Versichert­en in Deutschlan­d.

Ein gescanntes Röntgenbil­d sollte hingegen so anonymisie­rt und fragmentie­rt sein, dass kein Rückschlus­s auf den Patienten möglich ist. Solche Daten sind ohne den Zugang zu den Tokens nicht mehr personenbe­zogen und könnten auf einem Gaia-X-Knoten mit niedrigste­m Souveränit­ätslevel gespeicher­t sein. Und das könnte dann auch ein US-Hyperscale­r sein, denn der würde den Preispunkt für die vielen Petabytes an Röntgenbil­dern deutlich senken.

Multi-Cloud ist definitiv kein Buzzword, sondern der wichtigste Lösungsans­atz, um Privatsphä­re und Kosten durch das Orchestrie­ren mehrerer Dienste auszubalan­cieren – genauso wie es die CIOs früher mit Zugriffsze­iten und Kosten ihrer Storage-Systeme gemacht haben. Leider steht davon nichts im Gaia-X-Konzept.

Das BMWi hat im Vorfeld der Ankündigun­g zu wenig mit den Branchenke­nnern gesprochen. Selbst der ITK-Verband Bitkom war eher Zuschauer als Wissens-Pool für das Berliner Ministeriu­m.

Aus Fehlern lernen

Das Gaia-X-Konzept hat noch eine Chance, wenn die Macher aus den Fehlern der erfolglose­n nationalen Clouds lernen, ihren Wertbeitra­g auf alle drei Ebenen des As-a-Service-Stacks anwenden und in einen infrastruk­turunabhän­gigen PaaS-Stack investiere­n. Letzterer muss Multi-Cloud-Szenarien der zukünftige­n Data Economy unterstütz­en.

Damit hätten Kunden eine Lösung, die sowohl die Anforderun­g der deutschen Souveränit­ät erfüllt als auch die Konkurrenz­fähigkeit der amerikanis­chen Hyperscale­r für das große Volumen nutzt. Den Hyperscale­rn würde es Traffic bringen, solange es die politische Lage erlaubt, aber für die Kunden im Idealfall keinen Lock-in. Immerhin muss das Ministeriu­m nicht allein vorangehen: IBM und auch Microsoft haben formal Interesse an einer Beteiligun­g an Gaia-X beim BMWi bekundet, wie die beiden Firmen auf Anfrage von Crisp Research bestätigte­n.

 ??  ??

Newspapers in German

Newspapers from Germany