IDCs Prognosen für die nächsten Jahre: Beyond 2019 – so wird die IT-Zukunft
Die IT-Industrie betritt eine „Phase dramatischer und disruptiver Transformation“, sagen die Analysten von IDC. In den nächsten drei bis fünf Jahren kommen massive Veränderungen auf Unternehmen und ihre IT-Organisationen zu.
Da digitale Services und Technologien die wirtschaftliche Wertschöpfung von Unternehmen immer stärker beeinflussen, sind Erfolg und Überlebenschancen von Betrieben zunehmend von ihren IT-Fähigkeiten abhängig. Dabei bezeichnen die Marktforscher von IDC Public Clouds und die zugehörigen Ökosysteme als wichtigste Quelle von Technologieinnovationen. Für Unternehmen werde es darauf ankommen, eine verteilte Cloud-Topologie, integriert mit den eigenen Rechenzentren und Edge-Lokationen, flexibel zu managen. Um schnell genug zu sein, setzen die Betriebe ihren eingeschlagenen Weg in Richtung Agile Computing und DevOps mit höherer Geschwindigkeit fort. Immer geht es laut IDC darum, digitale Innovation zu beschleunigen. Die Zahl der Anwendungen und Services, die Firmen entwickeln und bereitstellen, wird explodieren. Die Technologien, die diesen Prozess beschleunigen, sind Container, Serverless Computing, MicroservicesArchitekturen, APIs, Platform as a Service, Code-Sharing in Communities, Plattformen und Marktplätze sowie Low-Code-Environments, die zu einer rasant steigenden Zahl an Entwicklern führen sollen.
Auch KI-Technologien werden die Unternehmen und ihre IT-Bereiche in großen Schritten voranbringen. Das betrifft die Schnittstellen zu Kunden und Mitarbeitern (Customer und Employee Experience), IoT- beziehungsweise Edge-Services, Enterprise-Anwendungen sowie komplexe Backend-Prozesse. Zu Letzteren gehören etwa Cybersecurity, der IT-Betrieb, Anwendungsentwicklung- und -Management sowie die Supply-Chain-Optimierung. Mit ihren Prognosen beschränken sich die Analysten von IDC nicht auf 2019, sondern sie richten sich auf die nächsten drei bis fünf Jahre. Wie bei Marktforschern üblich, sind die Thesen nicht allzu verbindlich formuliert. Eine Orientierung darüber, was auf IT-Shops zukommt, geben sie aber allemal.
These 1:
Bis 2022 basieren über 60 Prozent der nationalen Bruttoinlandsprodukte (BIP) von Industrieländern auf digitaler Wertschöpfung. Die IT-Investitionen werden sich auf sieben Billionen Dollar summieren.
Laut IDC hat das digitale Zeitalter begonnen: Führungskräfte in allen Unternehmen setzen die Digitalisierung ganz nach oben auf ihre Prioritätenliste. Organisationen, die zu spät dran sind, müssen sich mit anderen Nachzüglern um schrumpfende Anteile an traditionellen Märkten streiten. IDC hat bislang mehr als 600 Use Cases für die digitale Transformation
in 16 Industrien identifiziert. Die Zahl steigt derzeit exponentiell. Jedes Unternehmen in jeder Industrie ist betroffen. „Die Digitalisierung ist wie eine Uhr, die im Kopf eines jeden CEO laut tickt“, schreibt IDC. Das Rennen sei in vollem Gang. Die Analysten glauben, dass „digitales Denken“zur Kernqualifikation jedes Managers werden muss.
Der C-Level kann die Entscheidungen nicht an sein IT-Team auslagern. Der Einfluss auf das Unternehmen ist so gewaltig, dass diese Aufgabe nicht an den CIO oder einen Chief Digital Officer (CDO) abgeladen werden kann. IDC empfiehlt, eine Geschäftsstrategie rund um die digitale Transformation zu entwerfen und eine langfristige Roadmap aufzustellen, um die formulierten Ziele mit den richtigen Use Cases nach und nach zu erreichen. Gleichzeitig gelte es, eine integrierte Technologiearchitektur einzuziehen. Die Auguren sprechen von einer „Digital-Native-IT“, die der Tatsache gerecht werde, dass IT zum zentralen Nervensystem und Wertschöpfungshebel geworden ist.
These 2:
Bis 2023 werden drei Viertel aller IT-Ausgaben auf jüngere Themen wie Cloud und Mobile Computing, Big Data, künstliche Intelligenz (KI), Robotics, Internet of Things (IoT), 3D-Druck, Mixed Reality etc. entfallen.
IDC spricht schon länger von den „3d Platform Technologies“. Die Analysten wollen damit sagen, dass sich das Legacy-Problem allmählich erledigt und immer mehr Mittel für Technologien aufgewendet werden, die in den Jahren nach 2007 aufgekommen sind. Betriebe, die in der globalisierten Wirtschaft bestehen wollen, bauen ihre IT-Umgebungen rund um die neuen Technologien der dritten Plattform auf. Ihre älteren Systeme beurteilen sie danach, ob sie in der neuen Welt bestehen können, ohne diese zu beeinträchtigen. Rund 46 Prozent der Firmen sind laut IDC bereits „digital determiniert“, das heißt, sie haben eine integrierte digitale Strategie und Architektur. Dazu gehören Cloud-zentrische Services, intensive Agile- und DevOps-Erfahrung, eine tiefe Vernetzung mit digitalen Plattformen und Communities sowie ein Fokus auf integriertes Daten-Management.
Laut IDC muss die Strategie für jedes Unternehmen „Cloud first“sein. Um dorthin zu gelangen, sind langjährige IT-Partner nicht mehr unbedingt die richtige Adresse. Es komme darauf an, ob sich diese Weggefährten schnell genug weiterentwickelten. „Einige etablierte Anbieter werden ins Stolpern geraten und fallen“, so die Prognose. Die Analysten empfehlen, die neue technische Architektur sorgfältig auszuarbeiten, so dass auf dieser Basis die Transformationsinitiativen der nächsten drei bis fünf Jahre ungefährdet stattfinden können. „Die Architektur ist der Schlüssel für den langfristigen Erfolg der gesamten Organisation“, heißt es. Starke Veränderungen bei Infrastruktur, Software-Stack, Entwicklungs- und Deployment-Tools, Sicherheit, IT-Betrieb, Vendor-Management etc. seien für viele Betriebe unumgänglich. Auch müsse die „Buildor-buy-Frage“neu gestellt werden: In vielen Technologiekategorien wird laut IDC künftig eher gekauft als gebaut, was zu einer veränderten Sourcing-Strategie führe.
These 3:
Bis 2022 werden mehr als 40 Prozent der Unternehmen in ihrer Cloud-Strategie auch Edge-Infrastrukturen berücksichtigen. Ein Viertel der Endgeräte und -Systeme wird laut IDC KI-Algorithmen ausführen.
„Die Service-Delivery und -Execution wird auf Cloud-Infrastrukturen und Plattformdiensten aufsetzen, die hybride Multi-Cloud-Deployments unterstützen“, heißt es bei den Marktforschern. Eine Mischung aus Public Cloud, Hosted Private Cloud, lokalen On-PremiseAnwendungen und zunehmend auch EdgeLokationen werde typisch. Die dezentrale Edge-Infrastruktur entstehe dort, wo die Nähe zu IoT-Geräten und -Datenquellen zwingend sei. In dieser verteilten IT-Welt werden Container und Container-Management-Plattformen zu einer grundlegenden Technologie. IDC erwartet, dass in einer verteilten Edge-CloudUmgebung häufiger KI-Services bereitgestellt werden. Zudem sollen die „Endpoint-Devices“bis 2022 immer intelligenter werden. Oft werden Algorithmen lokal trainiert, da sie auf vor Ort erzeugten Daten und Insights basieren.
Wie IDC vorhersagt, werden Unternehmen mehr und mehr darin konkurrieren, einen umgehenden Zugriff auf relevante Daten zu bekommen und so schneller zu entscheiden – am liebsten in Realtime. Edge-Daten müssen daher nicht nur in der lokalen Verarbeitung verfügbar sein, sondern auch in den zentralen Rechenzentren. Die Netz-Connectivity wird in solchen verteilten IT-Welten viel wichtiger, insbesondere dort, wo eine große Bandbreite an verschiedenen Edge-Geräten und -Systemen zum Einsatz kommt. Die Auguren warnen, dass es schwieriger werde, eine gute Customer Experience am Edge zu garantieren als aus dem zentralen Data Center heraus, wo Hochverfügbarkeit selbstverständlich ist.
Anwender sollten Kompetenzen für eine verteilte Landschaft aufbauen, in der sie
Edge-Systeme zuverlässig, kostengünstig und ohne große menschliche Interaktion betreiben können. Dazu werden sie IT-Lösungen der nächsten Generation brauchen. IDC empfiehlt, robuste Anwendungen mit autonomen Funktionen und ersten Möglichkeiten der „Selbstheilung“zu wählen. Wenn die IT Services über eine Vielzahl von Standorten hinweg managt, sind Fernüberwachung und Automatisierung unerlässlich, um sicherzustellen, dass die Betriebskosten im Griff bleiben.
These 4:
Bis 2022 werden neun von zehn Anwendungen auf der Basis von Microservices-Architekturen entstehen. Dafür braucht es Fähigkeiten in Disziplinen wie Design, Debugging, Updates und Nutzung von Third-Party-Code.
IDC spricht von „hyperagilen Apps“, die Cloudnative entwickelt werden, hochmodular und kombinierbar sind und einem permanenten Update-Prozess unterworfen werden können. Sie lassen sich besonders schnell entwickeln und bereitstellen – in einer Geschwindigkeit, die letztendlich der Kunde vorgibt. „Traditionelle Anwendungsarchitekturen, betriebliche Abläufe und Entwicklungsgeschwindigkeiten sind für die digitale Wirtschaft unbrauchbar“, warnen die Marktbeobachter. Es gebe schon große Unternehmen, die vollständig auf agile und DevOps-Methoden umgestellt hätten und die dafür verfügbaren Technologien und Tools nutzten. Damit könnten sie Innovationen 50- bis 100-mal schneller umsetzen.
Die neue Welt der hyperagilen Apps darf laut IDC aber nicht von den Legacy-Anwendungen isoliert betrachtet werden. Nach und nach würden die Enterprise Apps von den hyperagilen Apps absorbiert. Die Modernisierung der Anwendungslandschaft in Richtung Cloudnative-Architektur vollzieht sich in immer kürzeren Phasen. Weil die Produktangebote der Softwarehersteller reifer und die Skills der Systemintegratoren besser würden, beschleunige sich die Anwendungsmodernisierung entsprechend. Bis 2022 werden laut IDC mehr als ein Drittel aller Anwendungen „hyperagil“sein. Container und Microservices stellen den IT-Betrieb allerdings auch vor Herausforderungen. Es wird schwieriger, die Systemabhängigkeiten in den Anwendungsumgebungen nachzuvollziehen. IDC spricht auch von größeren Herausforderungen rund um Schwachstellen-Analyse und die Nachvollziehbarkeit von Datenflüssen und Services in hybriden IT-Landschaften. Anwender sollten sich daher mit neuen Monitoring- und Management-Systemen beschäftigen, die mit Microservices-basierten Anwendungen umgehen können. Und sie sollten eine Automatisierungsstrategie entwerfen und implementieren.
Auch sei es empfehlenswert, den Zusammenhalt zwischen Softwareentwicklung und Betrieb zu stärken und die steuernden Kennzahlen sorgfältig zu wählen. „Transformieren Sie DevOps im Einklang mit neuen Cloud-nativen Funktionen und Entwicklungsansätzen“, so die Marktforscher. Es sei wichtig, mit den Fachbereichen zusammenzuarbeiten, um die Legacyund Greenfield-Workloads zu priorisieren und sowohl die strategische Bedeutung als auch die technische Machbarkeit eines Umbaus zu ermitteln. Nicht jeder Workload sollte in einer Cloud-native-Anwendung enden.
These 5:
Bis 2024 wird weltweit die Zahl der Entwickler um bis zu 30 Prozent steigen, weil die Tools einfacher und mächtiger werden. Unternehmen müssen in der Lage sein, digitale Lösungen in hoher Frequenz zu entwickeln.
Dazu gilt es, den Pool der Entwickler zu vergrößern. IT-Abteilungen stoßen hier an ihre Grenzen: Die Liste der Profis, die sich auf Custom Scripting spezialisiert haben, ist meistens nicht allzu lang. Also wird eine neue Klasse von Entwicklern mit visuell geführten Entwicklungswerkzeugen, Low-Code- und
No-Code-Plattformen sowie modellgetriebenen Werkzeugen digitale Lösungen erstellen und verfeinern. Entwickler, die nicht codieren, sondern eher konfektionieren, werden sich laut IDC rasant vermehren. Diese neue Kategorie führe zu einer tiefgreifenden Transformation in der Demografie: Die Entwicklergemeinde werde sich bis 2024 um knapp ein Drittel vergrößern. Neben klassischen „Codeingenieuren“werden dann auch digital affine Stakeholder im Business, Mitarbeiter aus dem DatenManagement sowie IT-Operations-Fachleute programmieren.
Unternehmen brauchen solche digitalen Innovatoren, um die sich schnell ändernden Marktanforderungen entdecken und bedienen zu können. Die Zusammenarbeit von C- und Java-Professionals mit diesen Neueinsteigern wird eine Herausforderung. Die Newcomer werden Ungleichbehandlung in Form eines eingeschränkten Zugangs zu Daten und Unternehmensressourcen kaum akzeptieren. Daher wird es nötig, die entsprechenden Policies neu zu gestalten und in einem weiter gesteckten Rahmen den Zugang zu ermöglichen. Wenn irgendwann jeder ein Entwickler wird, dann braucht es intelligente automatisierte Zugangssysteme zu den Unternehmensdaten und -ressourcen im Self-Service.
Unternehmen sollten daher proaktiv Governance-Regeln formulieren, damit Softwareentwicklung konsistent und in wiederholbaren Prozessen abläuft. Die Grundregeln dafür müssen allen im Unternehmen klar und zugänglich sein. Die neue Entwicklergeneration braucht zudem eine angemessene Führung, Training und die Unterstützung von Mentoren. Auch sollte sie frühzeitig mit der Corporate IT zusammengeführt werden. Mit der Personalabteilung sollten die IT-Verantwortlichen die Botschaft bekräftigen, dass diese neuen Entwickler mit den klassischen Softwareingenieuren auf Augenhöhe agieren. Eine Zweiklassengesellschaft ist das Letzte, was Unternehmen hier gebrauchen können.
These 6:
Zwischen 2018 und 2023 werden weltweit rund 500 Millionen neue Applikationen entstehen – so viele wie in den vergangenen 40 Jahren zusammen.
Dazu tragen neue Tools und Plattformen, mehr Entwickler, agile Methoden und die verstärkte Wiederverwendung von Code bei. Die AppExplosion ist auf zwei Trends zurückführen: den genannten Shift in Richtung hyperagiler App-Technologien, Architekturen und Methoden sowie das rasante Anwachsen der Entwicklerpopulation durch Low-Code- und No-Code-Umgebungen. Ein dritter Trigger ist die Verfügbarkeit gewaltiger öffentlicher und privater Codebestände. Entwickler haben künftig zwei Optionen: neuen Code schreiben oder sich Programmbausteine beschaffen – von Snippets bis hin zu kompletten Services. Diese lassen sich dann in größere Applikationen integrieren. In den nächsten fünf Jahren ist zu erwarten, dass neue Anwendungen zunehmend durch das Sammeln und Zusammensetzen verfügbarer Bausteine entstehen. Unternehmen sollten sich deshalb damit beschäftigen, wie sie externen Code professionell auf potenzielle Schwachstellen analysieren können. Dieser muss den Qualitäts- und Funktionsansprüchen genügen – eine Aufgabe für Compliance- und Testing-Bereiche. Außerdem sollte die interne IT ein Repository mit sauberen und hochwertigen Programmbausteinen und Services bereitstellen.
KI-fähige Analyse-Tools für DevOps werden helfen, die steigende Komplexität von Deployments in heterogenen Multi-Cloud-, On-Premise- und Edge-Umgebungen in den Griff zu bekommen. Hilfe ist von der Flut an robusten Entwicklerservices durch die Cloud-Hyperscaler zu erwarten sowie von den technischen Fortschritten in den Bereichen Machine Learning, Datenservices, Analytics und IoT-Services. Die Verfügbarkeit intelligenter DevOpsTechnologien wird laut IDC den Schulungsauf- wand senken, die Effizienz der Entwickler verbessern und die professionelle Zusammenarbeit von Dev und Ops optimieren. IDC empfiehlt Unternehmen, agile DevOps-Ansätze im ganzen Unternehmen zum Standard zu machen. Sie müssten außerdem lernen, wie sich fertige Programmbausteine und Services in die eigenen Anwendungen sicher integrieren lassen. Eine Voraussetzung sei es, sich mit den Vor- und Nachteilen der verschiedenen OpenSource-Lizenzmodelle zu befassen und herauszufinden, was diese Lizenzen erlauben.
These 7:
Bis 2022 wird ein Viertel der Public-CloudWorkloads nicht mehr auf x86-Prozessoren laufen. Gleichzeitig werden Unternehmen mehr Geld für branchenspezifische als für horizontale Cloud-Angebote ausgeben. Es wird also sowohl eine Spezialisierung am oberen als auch am unteren Ende des Stacks geben.
Auf der Hardwareebene kommt es zu einer schnellen Verbreitung heterogener Architekturen, wofür Entwicklungen rund um Grafikprozessoren (GPUs), Field Programmable Gate Arrays (FPGAs) oder auch Quanten-Computing verantwortlich sind. Insbesondere das Aufkommen von künstlicher Intelligenz und Machine Learning hat einen starken Einfluss auf die Prozessorlandschaft in den Rechenzentren gehabt. Lange Zeit war die Hardware dort homogen, x86-CPUs übernahmen die meisten, manchmal sogar alle Workloads. Da jetzt aber KI neue Anforderungen an Parallelverarbeitung stellt, nimmt die Heterorgenität der Prozessoren zu. GPUs, FPGAs und spezialisierte MultiCore-Chips für Parallelverarbeitung (Manycore-Prozessoren) beschleunigen das Training der KI-Modelle und die Interferenz-Workloads. Dieser Trend wird sich bis 2022 massiv verstärken, dann wird ein Viertel der Rechenpower von schnellen Spezial-Servern kommen.
Viele dieser neuen Server werden auch NichtKI-Anwendungsfälle ausführen, die massivparalleles Computing (MPC) erfordern. Für das KI-Segment des MPC gibt es indes ein stark wachsendes Interesse an der Verwendung von ASICs für die Bereiche Leistung und Effizienz. Dazu tragen Googles Entwicklungen rund um die TensorFlow Processing Units (TPUs) und die zu erwartenden KI-Prozessor-Entwicklungen anderer Cloud-Player bei. Der StartupMarkt für KI-ASICs ist lebendig, Intel wird Ende 2019 ebenfalls KI-ASICs herausbringen. Sie können KI-Workloads beschleunigen und das Training von Modellen effizienter und ökonomischer machen.
These 8:
Für eine wachsende Zahl von Apps und Services wird die Benutzerschnittstelle KIgesteuert sein und Sprach-, Gesten- oder andere Formen der Eingabe ermöglichen.
IDC glaubt, dass bis 2024 ein Drittel der heutigen Screen-basierten Apps abgelöst und durch KI-basierte Systeme ersetzt sein werden. „AI is the new UI“, schreiben die Marktforscher. Es gehe darum, auch in Zukunft die Kundenaufmerksamkeit zu ergattern und die Produktivität der eigenen Mitarbeiter hochzuhalten. Die große Akzeptanz von Consumer-Tools wie Google Assistant, Siri, Microsoft Cortana und Amazon Alexa belegt den Trend zu intelligenten „Conversational Assistant Systems“. Massive Fortschritte bei Techniken, die gesprochene Sprache verarbeiten können, sorgen demnach für eine steigende Akzeptanz von Virtual Digital Assistants und Chatbots. Tools wie Google Translate und Deepl übersetzen geschriebene Sprache immer besser.
Die Kombination von Spracherkennung mit Suche, Übersetzungen, Analytics und KI wird die Art und Weise, wie wir mit Computern kommunizieren, revolutionieren, meint IDC. So wie Menschen untereinander reden, werden sie in Zukunft auch mit Maschinen sprechen. IDC weist in diesem Zusammenhang darauf hin, das sich die Demografie der Konsumenten und Knowledge Worker ändere. Vertreter der Generationen Y und Z vereinen einen immer größeren Teil der arbeitenden Bevölkerung auf sich. Für diese User ist die natürlichsprachige Bedienung von Endgeräten nicht neu, weshalb immer mehr Enterprise-Anwendungen Sprachschnittstellen erhalten und Chatbots selbstverständlich werden.
IDC warnt allerdings vor der Komplexität von Sprachtechnologien, sie müssten den Unwägbarkeiten menschlicher Interaktion standhalten. Es handele sich nicht um traditionelle „Solid-State“-Technologien, die mit wenig kontinuierlicher Überwachung und Kontrolle betrieben werden können. Unternehmen sollten einen Plan entwickeln, wann und wo sie sprachbasierte Systeme einsetzen wollen. Gemeinsam mit der Personalabteilung und den geeigneten Fachbereichen gilt es auch, über eine „Sprache des Business“nachzudenken. Tatsächlich ist die Sprache der Bots elementar wichtig für das Marken-Image.
These 9:
2022 werden 50 Prozent der Server-basierten Stamm- und Bewegungsdaten verschlüsselt sein. Über 50 Prozent der Sicherheits-Alerts werden KI-gestützt automatisiert gemanagt. Und 150 Millionen Menschen werden Blockchain-basierte digitale Identitäten besitzen.
In den vergangenen Jahren arbeiteten Unternehmen mit diversen Verschlüsselungs-Tools. Dabei wurden unterschiedliche Werkzeuge für die jeweiligen Daten-Pools genutzt und unterm Strich nur wenige Daten überhaupt verschlüsselt. Jetzt gibt es einen Richtungswechsel hin zu „Pervasive Encryption“: Verschlüsselung erfasst die gesamte Plattform einschließlich Datenbanken, Anwendungen, Netzverkehr und Dateisystemen, Speichereinheiten, SystemLogs und APIs für die Kommunikation mit der Außenwelt jenseits der eigenen Plattform.
IDC sagt vorher, dass bis 2022 die Hälfte aller Server-Plattformen eine Art Pervasive Encryption auf Hardware und Betriebssystemen laufen hat. Die KI werde die Arbeit der CyberSicherheits-Teams dramatisch verändern und ihre Effizienz in der Abwehr von Attacken signifikant erhöhen. Das sei wichtig, denn in den nächsten fünf Jahren seien herkömmliche Cyber-Sicherheits-Architekturen den sich rasant ausweitenden Angriffsflächen (hybride Cloud-Infrastrukturen, IoT, Mobile und DevOpsUmgebungen) nicht mehr gewachsen. In den nächsten drei bis vier Jahren werden Anbieter von Threat-Management-Lösungen den Level der Automatisierung deutlich erhöhen, indem sie Analytics, Machine Learning und andere Data-Science-Modelle nutzen, um Menschen bei mindestens 50 Prozent der Threat-Management-Ereignisse außen vor zu lassen.
Die Auguren erwarten weiter, dass überprüfbare digitale Identitäten im großen Stil kommen werden. Eine überraschend große Zahl von Menschen könne sich heute nicht digital ausweisen, so die Marktforscher. Mehr als 1,5 Milliarden Personen seien damit immer noch von der Teilnahme an der Wirtschaft des 21. Jahrhunderts ausgeschlossen. Sie können Finanz-, Gesundheits- oder Behördenservices nicht nutzen. Um dieses Problem anzugehen, nutzen manche Regierungen und nichtstaatliche Organisationen (NGOs) Blockchainbasierte Identitätsdienste, um den Bürgern eine Möglichkeit zu bieten, sich auszuweisen. Blockchain-Technologien versprechen die sichere Identifikation im Netz, stehen aber noch ganz am Anfang. Die Anforderungen an Infrastruktur wie Speicher und Netze sind gerade bei großen Projekten noch unerforscht. IDC moniert, dass es zu wenige Talente gebe, die das Blockchain-Thema voll verstanden hätten.
These 10:
Bis 2014 werden die vier großen Public-CloudPlattformen 80 Prozent der IaaS- und PaaSDeployments hosten. Doch bis 2024 werden 90 Prozent der 1000 größten Unternehmen auf Multicloud- und Hybrid-Technologien setzen, um den Lock-in-Effekt abzufedern.
Wie schon in den vergangenen Jahren prognostiziert, konsolidiert sich die Marktmacht auf wenige Cloud-Megaplattformen weltweit. In mancher Hinsicht bringt das Vorteile: Die Innovationskraft des Marktes bündelt sich aus Sicht von Softwareentwicklern, Dienstleistern und anderen Teilnehmern an Ökosystemen um eine begrenzte Zahl von Plattformen. Eine unproduktive Fragmentierung wird vermieden. Auf der anderen Seite gibt die starke Machtkonzentration den Kunden das Gefühl, keine Auswahl zu haben und von ein oder zwei dominanten Anbietern abhängig zu sein. Für die nächsten vier bis fünf Jahre ist zu erwarten, dass die Lock-in-Effekte eher schwächer werden. Die Einführung integrierter Hybrid- und Multicloud-Tools und -Strategien macht‘s möglich. Das ganzheitliche Distributed-CloudModell wird durch Container-Technologien wie Kubernetes und Container-ManagementPlattformen massiv unterstützt. Die Cloud-Megaplattform-Player werden diese Hybrid- und Multicloud-Funktionen unterstützen und die Integration der On-Premiseund Edge-Lösungen der Kunden ermöglichen. Sie werden beispielsweise Multicloud-Support für Kubernetes-Umgebungen anbieten. In den nächsten drei Jahren wird eine integrierte Hybrid- und Multicloud-Management-Strategie zu einer Schlüsselfähigkeit für Unternehmen.
Anwender sollten also eine integrierte Hybridund Multicloud-Strategie erarbeiten, um die Vorteile der einzelnen Public-Cloud-Plattformen nutzen zu können. Wichtig ist es, ein Verzeichnis der eingesetzten Management-Tools zu pflegen, um den Überblick zu behalten. Hybridund Multicloud-Umgebungen sind komplex. Ohne Automatisierung, gutes Monitoring und Management sind sie kaum zu verwalten.