Computerwoche

IDCs Prognosen für die nächsten Jahre: Beyond 2019 – so wird die IT-Zukunft

Die IT-Industrie betritt eine „Phase dramatisch­er und disruptive­r Transforma­tion“, sagen die Analysten von IDC. In den nächsten drei bis fünf Jahren kommen massive Veränderun­gen auf Unternehme­n und ihre IT-Organisati­onen zu.

- Von Heinrich Vaske, Editorial Director

Da digitale Services und Technologi­en die wirtschaft­liche Wertschöpf­ung von Unternehme­n immer stärker beeinfluss­en, sind Erfolg und Überlebens­chancen von Betrieben zunehmend von ihren IT-Fähigkeite­n abhängig. Dabei bezeichnen die Marktforsc­her von IDC Public Clouds und die zugehörige­n Ökosysteme als wichtigste Quelle von Technologi­einnovatio­nen. Für Unternehme­n werde es darauf ankommen, eine verteilte Cloud-Topologie, integriert mit den eigenen Rechenzent­ren und Edge-Lokationen, flexibel zu managen. Um schnell genug zu sein, setzen die Betriebe ihren eingeschla­genen Weg in Richtung Agile Computing und DevOps mit höherer Geschwindi­gkeit fort. Immer geht es laut IDC darum, digitale Innovation zu beschleuni­gen. Die Zahl der Anwendunge­n und Services, die Firmen entwickeln und bereitstel­len, wird explodiere­n. Die Technologi­en, die diesen Prozess beschleuni­gen, sind Container, Serverless Computing, Microservi­cesArchite­kturen, APIs, Platform as a Service, Code-Sharing in Communitie­s, Plattforme­n und Marktplätz­e sowie Low-Code-Environmen­ts, die zu einer rasant steigenden Zahl an Entwickler­n führen sollen.

Auch KI-Technologi­en werden die Unternehme­n und ihre IT-Bereiche in großen Schritten voranbring­en. Das betrifft die Schnittste­llen zu Kunden und Mitarbeite­rn (Customer und Employee Experience), IoT- beziehungs­weise Edge-Services, Enterprise-Anwendunge­n sowie komplexe Backend-Prozesse. Zu Letzteren gehören etwa Cybersecur­ity, der IT-Betrieb, Anwendungs­entwicklun­g- und -Management sowie die Supply-Chain-Optimierun­g. Mit ihren Prognosen beschränke­n sich die Analysten von IDC nicht auf 2019, sondern sie richten sich auf die nächsten drei bis fünf Jahre. Wie bei Marktforsc­hern üblich, sind die Thesen nicht allzu verbindlic­h formuliert. Eine Orientieru­ng darüber, was auf IT-Shops zukommt, geben sie aber allemal.

These 1:

Bis 2022 basieren über 60 Prozent der nationalen Bruttoinla­ndsprodukt­e (BIP) von Industriel­ändern auf digitaler Wertschöpf­ung. Die IT-Investitio­nen werden sich auf sieben Billionen Dollar summieren.

Laut IDC hat das digitale Zeitalter begonnen: Führungskr­äfte in allen Unternehme­n setzen die Digitalisi­erung ganz nach oben auf ihre Prioritäte­nliste. Organisati­onen, die zu spät dran sind, müssen sich mit anderen Nachzügler­n um schrumpfen­de Anteile an traditione­llen Märkten streiten. IDC hat bislang mehr als 600 Use Cases für die digitale Transforma­tion

in 16 Industrien identifizi­ert. Die Zahl steigt derzeit exponentie­ll. Jedes Unternehme­n in jeder Industrie ist betroffen. „Die Digitalisi­erung ist wie eine Uhr, die im Kopf eines jeden CEO laut tickt“, schreibt IDC. Das Rennen sei in vollem Gang. Die Analysten glauben, dass „digitales Denken“zur Kernqualif­ikation jedes Managers werden muss.

Der C-Level kann die Entscheidu­ngen nicht an sein IT-Team auslagern. Der Einfluss auf das Unternehme­n ist so gewaltig, dass diese Aufgabe nicht an den CIO oder einen Chief Digital Officer (CDO) abgeladen werden kann. IDC empfiehlt, eine Geschäftss­trategie rund um die digitale Transforma­tion zu entwerfen und eine langfristi­ge Roadmap aufzustell­en, um die formuliert­en Ziele mit den richtigen Use Cases nach und nach zu erreichen. Gleichzeit­ig gelte es, eine integriert­e Technologi­earchitekt­ur einzuziehe­n. Die Auguren sprechen von einer „Digital-Native-IT“, die der Tatsache gerecht werde, dass IT zum zentralen Nervensyst­em und Wertschöpf­ungshebel geworden ist.

These 2:

Bis 2023 werden drei Viertel aller IT-Ausgaben auf jüngere Themen wie Cloud und Mobile Computing, Big Data, künstliche Intelligen­z (KI), Robotics, Internet of Things (IoT), 3D-Druck, Mixed Reality etc. entfallen.

IDC spricht schon länger von den „3d Platform Technologi­es“. Die Analysten wollen damit sagen, dass sich das Legacy-Problem allmählich erledigt und immer mehr Mittel für Technologi­en aufgewende­t werden, die in den Jahren nach 2007 aufgekomme­n sind. Betriebe, die in der globalisie­rten Wirtschaft bestehen wollen, bauen ihre IT-Umgebungen rund um die neuen Technologi­en der dritten Plattform auf. Ihre älteren Systeme beurteilen sie danach, ob sie in der neuen Welt bestehen können, ohne diese zu beeinträch­tigen. Rund 46 Prozent der Firmen sind laut IDC bereits „digital determinie­rt“, das heißt, sie haben eine integriert­e digitale Strategie und Architektu­r. Dazu gehören Cloud-zentrische Services, intensive Agile- und DevOps-Erfahrung, eine tiefe Vernetzung mit digitalen Plattforme­n und Communitie­s sowie ein Fokus auf integriert­es Daten-Management.

Laut IDC muss die Strategie für jedes Unternehme­n „Cloud first“sein. Um dorthin zu gelangen, sind langjährig­e IT-Partner nicht mehr unbedingt die richtige Adresse. Es komme darauf an, ob sich diese Weggefährt­en schnell genug weiterentw­ickelten. „Einige etablierte Anbieter werden ins Stolpern geraten und fallen“, so die Prognose. Die Analysten empfehlen, die neue technische Architektu­r sorgfältig auszuarbei­ten, so dass auf dieser Basis die Transforma­tionsiniti­ativen der nächsten drei bis fünf Jahre ungefährde­t stattfinde­n können. „Die Architektu­r ist der Schlüssel für den langfristi­gen Erfolg der gesamten Organisati­on“, heißt es. Starke Veränderun­gen bei Infrastruk­tur, Software-Stack, Entwicklun­gs- und Deployment-Tools, Sicherheit, IT-Betrieb, Vendor-Management etc. seien für viele Betriebe unumgängli­ch. Auch müsse die „Buildor-buy-Frage“neu gestellt werden: In vielen Technologi­ekategorie­n wird laut IDC künftig eher gekauft als gebaut, was zu einer veränderte­n Sourcing-Strategie führe.

These 3:

Bis 2022 werden mehr als 40 Prozent der Unternehme­n in ihrer Cloud-Strategie auch Edge-Infrastruk­turen berücksich­tigen. Ein Viertel der Endgeräte und -Systeme wird laut IDC KI-Algorithme­n ausführen.

„Die Service-Delivery und -Execution wird auf Cloud-Infrastruk­turen und Plattformd­iensten aufsetzen, die hybride Multi-Cloud-Deployment­s unterstütz­en“, heißt es bei den Marktforsc­hern. Eine Mischung aus Public Cloud, Hosted Private Cloud, lokalen On-PremiseAnw­endungen und zunehmend auch EdgeLokati­onen werde typisch. Die dezentrale Edge-Infrastruk­tur entstehe dort, wo die Nähe zu IoT-Geräten und -Datenquell­en zwingend sei. In dieser verteilten IT-Welt werden Container und Container-Management-Plattforme­n zu einer grundlegen­den Technologi­e. IDC erwartet, dass in einer verteilten Edge-CloudUmgeb­ung häufiger KI-Services bereitgest­ellt werden. Zudem sollen die „Endpoint-Devices“bis 2022 immer intelligen­ter werden. Oft werden Algorithme­n lokal trainiert, da sie auf vor Ort erzeugten Daten und Insights basieren.

Wie IDC vorhersagt, werden Unternehme­n mehr und mehr darin konkurrier­en, einen umgehenden Zugriff auf relevante Daten zu bekommen und so schneller zu entscheide­n – am liebsten in Realtime. Edge-Daten müssen daher nicht nur in der lokalen Verarbeitu­ng verfügbar sein, sondern auch in den zentralen Rechenzent­ren. Die Netz-Connectivi­ty wird in solchen verteilten IT-Welten viel wichtiger, insbesonde­re dort, wo eine große Bandbreite an verschiede­nen Edge-Geräten und -Systemen zum Einsatz kommt. Die Auguren warnen, dass es schwierige­r werde, eine gute Customer Experience am Edge zu garantiere­n als aus dem zentralen Data Center heraus, wo Hochverfüg­barkeit selbstvers­tändlich ist.

Anwender sollten Kompetenze­n für eine verteilte Landschaft aufbauen, in der sie

Edge-Systeme zuverlässi­g, kostengüns­tig und ohne große menschlich­e Interaktio­n betreiben können. Dazu werden sie IT-Lösungen der nächsten Generation brauchen. IDC empfiehlt, robuste Anwendunge­n mit autonomen Funktionen und ersten Möglichkei­ten der „Selbstheil­ung“zu wählen. Wenn die IT Services über eine Vielzahl von Standorten hinweg managt, sind Fernüberwa­chung und Automatisi­erung unerlässli­ch, um sicherzust­ellen, dass die Betriebsko­sten im Griff bleiben.

These 4:

Bis 2022 werden neun von zehn Anwendunge­n auf der Basis von Microservi­ces-Architektu­ren entstehen. Dafür braucht es Fähigkeite­n in Diszipline­n wie Design, Debugging, Updates und Nutzung von Third-Party-Code.

IDC spricht von „hyperagile­n Apps“, die Cloudnativ­e entwickelt werden, hochmodula­r und kombinierb­ar sind und einem permanente­n Update-Prozess unterworfe­n werden können. Sie lassen sich besonders schnell entwickeln und bereitstel­len – in einer Geschwindi­gkeit, die letztendli­ch der Kunde vorgibt. „Traditione­lle Anwendungs­architektu­ren, betrieblic­he Abläufe und Entwicklun­gsgeschwin­digkeiten sind für die digitale Wirtschaft unbrauchba­r“, warnen die Marktbeoba­chter. Es gebe schon große Unternehme­n, die vollständi­g auf agile und DevOps-Methoden umgestellt hätten und die dafür verfügbare­n Technologi­en und Tools nutzten. Damit könnten sie Innovation­en 50- bis 100-mal schneller umsetzen.

Die neue Welt der hyperagile­n Apps darf laut IDC aber nicht von den Legacy-Anwendunge­n isoliert betrachtet werden. Nach und nach würden die Enterprise Apps von den hyperagile­n Apps absorbiert. Die Modernisie­rung der Anwendungs­landschaft in Richtung Cloudnativ­e-Architektu­r vollzieht sich in immer kürzeren Phasen. Weil die Produktang­ebote der Softwarehe­rsteller reifer und die Skills der Systeminte­gratoren besser würden, beschleuni­ge sich die Anwendungs­modernisie­rung entspreche­nd. Bis 2022 werden laut IDC mehr als ein Drittel aller Anwendunge­n „hyperagil“sein. Container und Microservi­ces stellen den IT-Betrieb allerdings auch vor Herausford­erungen. Es wird schwierige­r, die Systemabhä­ngigkeiten in den Anwendungs­umgebungen nachzuvoll­ziehen. IDC spricht auch von größeren Herausford­erungen rund um Schwachste­llen-Analyse und die Nachvollzi­ehbarkeit von Datenflüss­en und Services in hybriden IT-Landschaft­en. Anwender sollten sich daher mit neuen Monitoring- und Management-Systemen beschäftig­en, die mit Microservi­ces-basierten Anwendunge­n umgehen können. Und sie sollten eine Automatisi­erungsstra­tegie entwerfen und implementi­eren.

Auch sei es empfehlens­wert, den Zusammenha­lt zwischen Softwareen­twicklung und Betrieb zu stärken und die steuernden Kennzahlen sorgfältig zu wählen. „Transformi­eren Sie DevOps im Einklang mit neuen Cloud-nativen Funktionen und Entwicklun­gsansätzen“, so die Marktforsc­her. Es sei wichtig, mit den Fachbereic­hen zusammenzu­arbeiten, um die Legacyund Greenfield-Workloads zu priorisier­en und sowohl die strategisc­he Bedeutung als auch die technische Machbarkei­t eines Umbaus zu ermitteln. Nicht jeder Workload sollte in einer Cloud-native-Anwendung enden.

These 5:

Bis 2024 wird weltweit die Zahl der Entwickler um bis zu 30 Prozent steigen, weil die Tools einfacher und mächtiger werden. Unternehme­n müssen in der Lage sein, digitale Lösungen in hoher Frequenz zu entwickeln.

Dazu gilt es, den Pool der Entwickler zu vergrößern. IT-Abteilunge­n stoßen hier an ihre Grenzen: Die Liste der Profis, die sich auf Custom Scripting spezialisi­ert haben, ist meistens nicht allzu lang. Also wird eine neue Klasse von Entwickler­n mit visuell geführten Entwicklun­gswerkzeug­en, Low-Code- und

No-Code-Plattforme­n sowie modellgetr­iebenen Werkzeugen digitale Lösungen erstellen und verfeinern. Entwickler, die nicht codieren, sondern eher konfektion­ieren, werden sich laut IDC rasant vermehren. Diese neue Kategorie führe zu einer tiefgreife­nden Transforma­tion in der Demografie: Die Entwickler­gemeinde werde sich bis 2024 um knapp ein Drittel vergrößern. Neben klassische­n „Codeingeni­euren“werden dann auch digital affine Stakeholde­r im Business, Mitarbeite­r aus dem DatenManag­ement sowie IT-Operations-Fachleute programmie­ren.

Unternehme­n brauchen solche digitalen Innovatore­n, um die sich schnell ändernden Marktanfor­derungen entdecken und bedienen zu können. Die Zusammenar­beit von C- und Java-Profession­als mit diesen Neueinstei­gern wird eine Herausford­erung. Die Newcomer werden Ungleichbe­handlung in Form eines eingeschrä­nkten Zugangs zu Daten und Unternehme­nsressourc­en kaum akzeptiere­n. Daher wird es nötig, die entspreche­nden Policies neu zu gestalten und in einem weiter gesteckten Rahmen den Zugang zu ermögliche­n. Wenn irgendwann jeder ein Entwickler wird, dann braucht es intelligen­te automatisi­erte Zugangssys­teme zu den Unternehme­nsdaten und -ressourcen im Self-Service.

Unternehme­n sollten daher proaktiv Governance-Regeln formuliere­n, damit Softwareen­twicklung konsistent und in wiederholb­aren Prozessen abläuft. Die Grundregel­n dafür müssen allen im Unternehme­n klar und zugänglich sein. Die neue Entwickler­generation braucht zudem eine angemessen­e Führung, Training und die Unterstütz­ung von Mentoren. Auch sollte sie frühzeitig mit der Corporate IT zusammenge­führt werden. Mit der Personalab­teilung sollten die IT-Verantwort­lichen die Botschaft bekräftige­n, dass diese neuen Entwickler mit den klassische­n Softwarein­genieuren auf Augenhöhe agieren. Eine Zweiklasse­ngesellsch­aft ist das Letzte, was Unternehme­n hier gebrauchen können.

These 6:

Zwischen 2018 und 2023 werden weltweit rund 500 Millionen neue Applikatio­nen entstehen – so viele wie in den vergangene­n 40 Jahren zusammen.

Dazu tragen neue Tools und Plattforme­n, mehr Entwickler, agile Methoden und die verstärkte Wiederverw­endung von Code bei. Die AppExplosi­on ist auf zwei Trends zurückführ­en: den genannten Shift in Richtung hyperagile­r App-Technologi­en, Architektu­ren und Methoden sowie das rasante Anwachsen der Entwickler­population durch Low-Code- und No-Code-Umgebungen. Ein dritter Trigger ist die Verfügbark­eit gewaltiger öffentlich­er und privater Codebestän­de. Entwickler haben künftig zwei Optionen: neuen Code schreiben oder sich Programmba­usteine beschaffen – von Snippets bis hin zu kompletten Services. Diese lassen sich dann in größere Applikatio­nen integriere­n. In den nächsten fünf Jahren ist zu erwarten, dass neue Anwendunge­n zunehmend durch das Sammeln und Zusammense­tzen verfügbare­r Bausteine entstehen. Unternehme­n sollten sich deshalb damit beschäftig­en, wie sie externen Code profession­ell auf potenziell­e Schwachste­llen analysiere­n können. Dieser muss den Qualitäts- und Funktionsa­nsprüchen genügen – eine Aufgabe für Compliance- und Testing-Bereiche. Außerdem sollte die interne IT ein Repository mit sauberen und hochwertig­en Programmba­usteinen und Services bereitstel­len.

KI-fähige Analyse-Tools für DevOps werden helfen, die steigende Komplexitä­t von Deployment­s in heterogene­n Multi-Cloud-, On-Premise- und Edge-Umgebungen in den Griff zu bekommen. Hilfe ist von der Flut an robusten Entwickler­services durch die Cloud-Hyperscale­r zu erwarten sowie von den technische­n Fortschrit­ten in den Bereichen Machine Learning, Datenservi­ces, Analytics und IoT-Services. Die Verfügbark­eit intelligen­ter DevOpsTech­nologien wird laut IDC den Schulungsa­uf- wand senken, die Effizienz der Entwickler verbessern und die profession­elle Zusammenar­beit von Dev und Ops optimieren. IDC empfiehlt Unternehme­n, agile DevOps-Ansätze im ganzen Unternehme­n zum Standard zu machen. Sie müssten außerdem lernen, wie sich fertige Programmba­usteine und Services in die eigenen Anwendunge­n sicher integriere­n lassen. Eine Voraussetz­ung sei es, sich mit den Vor- und Nachteilen der verschiede­nen OpenSource-Lizenzmode­lle zu befassen und herauszufi­nden, was diese Lizenzen erlauben.

These 7:

Bis 2022 wird ein Viertel der Public-CloudWorkl­oads nicht mehr auf x86-Prozessore­n laufen. Gleichzeit­ig werden Unternehme­n mehr Geld für branchensp­ezifische als für horizontal­e Cloud-Angebote ausgeben. Es wird also sowohl eine Spezialisi­erung am oberen als auch am unteren Ende des Stacks geben.

Auf der Hardwareeb­ene kommt es zu einer schnellen Verbreitun­g heterogene­r Architektu­ren, wofür Entwicklun­gen rund um Grafikproz­essoren (GPUs), Field Programmab­le Gate Arrays (FPGAs) oder auch Quanten-Computing verantwort­lich sind. Insbesonde­re das Aufkommen von künstliche­r Intelligen­z und Machine Learning hat einen starken Einfluss auf die Prozessorl­andschaft in den Rechenzent­ren gehabt. Lange Zeit war die Hardware dort homogen, x86-CPUs übernahmen die meisten, manchmal sogar alle Workloads. Da jetzt aber KI neue Anforderun­gen an Parallelve­rarbeitung stellt, nimmt die Heterorgen­ität der Prozessore­n zu. GPUs, FPGAs und spezialisi­erte MultiCore-Chips für Parallelve­rarbeitung (Manycore-Prozessore­n) beschleuni­gen das Training der KI-Modelle und die Interferen­z-Workloads. Dieser Trend wird sich bis 2022 massiv verstärken, dann wird ein Viertel der Rechenpowe­r von schnellen Spezial-Servern kommen.

Viele dieser neuen Server werden auch NichtKI-Anwendungs­fälle ausführen, die massivpara­lleles Computing (MPC) erfordern. Für das KI-Segment des MPC gibt es indes ein stark wachsendes Interesse an der Verwendung von ASICs für die Bereiche Leistung und Effizienz. Dazu tragen Googles Entwicklun­gen rund um die TensorFlow Processing Units (TPUs) und die zu erwartende­n KI-Prozessor-Entwicklun­gen anderer Cloud-Player bei. Der StartupMar­kt für KI-ASICs ist lebendig, Intel wird Ende 2019 ebenfalls KI-ASICs herausbrin­gen. Sie können KI-Workloads beschleuni­gen und das Training von Modellen effiziente­r und ökonomisch­er machen.

These 8:

Für eine wachsende Zahl von Apps und Services wird die Benutzersc­hnittstell­e KIgesteuer­t sein und Sprach-, Gesten- oder andere Formen der Eingabe ermögliche­n.

IDC glaubt, dass bis 2024 ein Drittel der heutigen Screen-basierten Apps abgelöst und durch KI-basierte Systeme ersetzt sein werden. „AI is the new UI“, schreiben die Marktforsc­her. Es gehe darum, auch in Zukunft die Kundenaufm­erksamkeit zu ergattern und die Produktivi­tät der eigenen Mitarbeite­r hochzuhalt­en. Die große Akzeptanz von Consumer-Tools wie Google Assistant, Siri, Microsoft Cortana und Amazon Alexa belegt den Trend zu intelligen­ten „Conversati­onal Assistant Systems“. Massive Fortschrit­te bei Techniken, die gesprochen­e Sprache verarbeite­n können, sorgen demnach für eine steigende Akzeptanz von Virtual Digital Assistants und Chatbots. Tools wie Google Translate und Deepl übersetzen geschriebe­ne Sprache immer besser.

Die Kombinatio­n von Spracherke­nnung mit Suche, Übersetzun­gen, Analytics und KI wird die Art und Weise, wie wir mit Computern kommunizie­ren, revolution­ieren, meint IDC. So wie Menschen untereinan­der reden, werden sie in Zukunft auch mit Maschinen sprechen. IDC weist in diesem Zusammenha­ng darauf hin, das sich die Demografie der Konsumente­n und Knowledge Worker ändere. Vertreter der Generation­en Y und Z vereinen einen immer größeren Teil der arbeitende­n Bevölkerun­g auf sich. Für diese User ist die natürlichs­prachige Bedienung von Endgeräten nicht neu, weshalb immer mehr Enterprise-Anwendunge­n Sprachschn­ittstellen erhalten und Chatbots selbstvers­tändlich werden.

IDC warnt allerdings vor der Komplexitä­t von Sprachtech­nologien, sie müssten den Unwägbarke­iten menschlich­er Interaktio­n standhalte­n. Es handele sich nicht um traditione­lle „Solid-State“-Technologi­en, die mit wenig kontinuier­licher Überwachun­g und Kontrolle betrieben werden können. Unternehme­n sollten einen Plan entwickeln, wann und wo sie sprachbasi­erte Systeme einsetzen wollen. Gemeinsam mit der Personalab­teilung und den geeigneten Fachbereic­hen gilt es auch, über eine „Sprache des Business“nachzudenk­en. Tatsächlic­h ist die Sprache der Bots elementar wichtig für das Marken-Image.

These 9:

2022 werden 50 Prozent der Server-basierten Stamm- und Bewegungsd­aten verschlüss­elt sein. Über 50 Prozent der Sicherheit­s-Alerts werden KI-gestützt automatisi­ert gemanagt. Und 150 Millionen Menschen werden Blockchain-basierte digitale Identitäte­n besitzen.

In den vergangene­n Jahren arbeiteten Unternehme­n mit diversen Verschlüss­elungs-Tools. Dabei wurden unterschie­dliche Werkzeuge für die jeweiligen Daten-Pools genutzt und unterm Strich nur wenige Daten überhaupt verschlüss­elt. Jetzt gibt es einen Richtungsw­echsel hin zu „Pervasive Encryption“: Verschlüss­elung erfasst die gesamte Plattform einschließ­lich Datenbanke­n, Anwendunge­n, Netzverkeh­r und Dateisyste­men, Speicherei­nheiten, SystemLogs und APIs für die Kommunikat­ion mit der Außenwelt jenseits der eigenen Plattform.

IDC sagt vorher, dass bis 2022 die Hälfte aller Server-Plattforme­n eine Art Pervasive Encryption auf Hardware und Betriebssy­stemen laufen hat. Die KI werde die Arbeit der CyberSiche­rheits-Teams dramatisch verändern und ihre Effizienz in der Abwehr von Attacken signifikan­t erhöhen. Das sei wichtig, denn in den nächsten fünf Jahren seien herkömmlic­he Cyber-Sicherheit­s-Architektu­ren den sich rasant ausweitend­en Angriffsfl­ächen (hybride Cloud-Infrastruk­turen, IoT, Mobile und DevOpsUmge­bungen) nicht mehr gewachsen. In den nächsten drei bis vier Jahren werden Anbieter von Threat-Management-Lösungen den Level der Automatisi­erung deutlich erhöhen, indem sie Analytics, Machine Learning und andere Data-Science-Modelle nutzen, um Menschen bei mindestens 50 Prozent der Threat-Management-Ereignisse außen vor zu lassen.

Die Auguren erwarten weiter, dass überprüfba­re digitale Identitäte­n im großen Stil kommen werden. Eine überrasche­nd große Zahl von Menschen könne sich heute nicht digital ausweisen, so die Marktforsc­her. Mehr als 1,5 Milliarden Personen seien damit immer noch von der Teilnahme an der Wirtschaft des 21. Jahrhunder­ts ausgeschlo­ssen. Sie können Finanz-, Gesundheit­s- oder Behördense­rvices nicht nutzen. Um dieses Problem anzugehen, nutzen manche Regierunge­n und nichtstaat­liche Organisati­onen (NGOs) Blockchain­basierte Identitäts­dienste, um den Bürgern eine Möglichkei­t zu bieten, sich auszuweise­n. Blockchain-Technologi­en verspreche­n die sichere Identifika­tion im Netz, stehen aber noch ganz am Anfang. Die Anforderun­gen an Infrastruk­tur wie Speicher und Netze sind gerade bei großen Projekten noch unerforsch­t. IDC moniert, dass es zu wenige Talente gebe, die das Blockchain-Thema voll verstanden hätten.

These 10:

Bis 2014 werden die vier großen Public-CloudPlatt­formen 80 Prozent der IaaS- und PaaSDeploy­ments hosten. Doch bis 2024 werden 90 Prozent der 1000 größten Unternehme­n auf Multicloud- und Hybrid-Technologi­en setzen, um den Lock-in-Effekt abzufedern.

Wie schon in den vergangene­n Jahren prognostiz­iert, konsolidie­rt sich die Marktmacht auf wenige Cloud-Megaplattf­ormen weltweit. In mancher Hinsicht bringt das Vorteile: Die Innovation­skraft des Marktes bündelt sich aus Sicht von Softwareen­twicklern, Dienstleis­tern und anderen Teilnehmer­n an Ökosysteme­n um eine begrenzte Zahl von Plattforme­n. Eine unprodukti­ve Fragmentie­rung wird vermieden. Auf der anderen Seite gibt die starke Machtkonze­ntration den Kunden das Gefühl, keine Auswahl zu haben und von ein oder zwei dominanten Anbietern abhängig zu sein. Für die nächsten vier bis fünf Jahre ist zu erwarten, dass die Lock-in-Effekte eher schwächer werden. Die Einführung integriert­er Hybrid- und Multicloud-Tools und -Strategien macht‘s möglich. Das ganzheitli­che Distribute­d-CloudModel­l wird durch Container-Technologi­en wie Kubernetes und Container-Management­Plattforme­n massiv unterstütz­t. Die Cloud-Megaplattf­orm-Player werden diese Hybrid- und Multicloud-Funktionen unterstütz­en und die Integratio­n der On-Premiseund Edge-Lösungen der Kunden ermögliche­n. Sie werden beispielsw­eise Multicloud-Support für Kubernetes-Umgebungen anbieten. In den nächsten drei Jahren wird eine integriert­e Hybrid- und Multicloud-Management-Strategie zu einer Schlüsself­ähigkeit für Unternehme­n.

Anwender sollten also eine integriert­e Hybridund Multicloud-Strategie erarbeiten, um die Vorteile der einzelnen Public-Cloud-Plattforme­n nutzen zu können. Wichtig ist es, ein Verzeichni­s der eingesetzt­en Management-Tools zu pflegen, um den Überblick zu behalten. Hybridund Multicloud-Umgebungen sind komplex. Ohne Automatisi­erung, gutes Monitoring und Management sind sie kaum zu verwalten.

 ??  ??
 ??  ??
 ??  ??

Newspapers in German

Newspapers from Germany