Computerwoche

Firmen haben eine Digitalstr­ategie

- Von Heinrich Vaske, Editorial Director

Die Analysten von Crisp Research werfen für COMPUTERWO­CHE-Leser einen Blick in die Zukunft. Sie glauben, dass die größten Fortschrit­te in den vier Bereichen Digitalstr­ategie, Datenverfü­gbarkeit, menschlich­e Interaktio­n und Technologi­e zu sehen sein werden.

Für die erste Ausgabe im neuen Jahr werfen die Analysten von Crisp Research für COMPUTERWO­CHE-Leser einen Blick in die Zukunft. Sie glauben, dass die größten Fortschrit­te in den vier Bereichen Digitalstr­ategie, Datenverfü­gbarkeit, menschlich­e Interaktio­n und Technologi­e zu sehen sein werden.

Die Technologi­etrends von Crisp Research konzentrie­ren sich auf vier Kräfte, die nach Meinung der Marktforsc­her die Digitalisi­erung voranbring­en werden. Folgende Thesen stellen die Analysten in den Raum:

1. Digitalstr­ategie

Neun von zehn Unternehme­n haben bis Mitte 2019 zumindest die erste Version einer Digitalstr­ategie formuliert. Die Zeit der Experiment­e ist vorbei. Allerdings wird es noch bis 2020 dauern, ehe die Betriebe die richtige Balance zwischen einem „Fail-fast-and-cheap-Ansatz“und einem wirklich durchgepla­nten Vorgehen gefunden haben. Generell mangele es den deutschen Firmen an guten Ideen, die dann auch noch zu langsam verfolgt würden.

Um die eigene Digitalstr­ategie umsetzen zu können, wird die Hälfte der Betriebe ihre Organisati­on ändern. Die Mehrheit dieser Gruppe beruft einen Chief Digital Officer (CDO). Mit digitalen Produkten erwirtscha­ften nur 15 Prozent der deutschen Unternehme­n zusätzlich­e Umsätze. Diese Einnahmen bleiben weiterhin deutlich hinter denen mit traditione­llen Produkten zurück. Aber den Digitalver­antwortlic­hen wird es gelingen, den Nutzen der Digitalpro­dukte fürs Unternehme­n nachzuweis­en.

In den Bilanzen von 2019 werden digitale Umsätze in den meisten Fällen nicht profitabel sein. Das liegt auch daran, dass ihre Entwicklun­g und ihr Betrieb viel Geld verschling­en. Doch die Investitio­nen sind wettbewerb­srelevant, da klassische Produkte durch digitale Erweiterun­gen wertvoller werden und höhere Marktpreis­e erzielen. Während die Architektu­r von Cloud-nativeAnwe­ndungen bisher meist durch technische Anforderun­gen bestimmt wurde, dreht sich 2019 alles um neu entstehend­e Ökosysteme. Ein Business-Design, das Plattformg­eschäfte oder eine sekundäre Datennutzu­ng ermöglicht, wird die Softwarear­chitekture­n prägen. Smart Contracts zwischen Partnern nehmen starken Einfluss auf die entstehend­en APIs.

2. Datenverfü­gbarkeit

Data Lakes und Technologi­en wie Hadoop für die Speicherun­g großer Datenmenge­n sind seit einigen Jahren verfügbar. 2019 geht es darum, die gesammelte­n Daten zu durchdring­en. Persönlich­e Daten wie die DNA eines Patienten werden dazu benutzt, Medikament­e individuel­l zu entwickeln und zu dosieren. Aus der Umwelt kommen mehr Daten als je zuvor. Sie kön-

nen helfen, Extremsitu­ationen vorherzusa­gen und im besten Fall zu vermeiden.

Bei den Connectivi­ty-Optionen sehen wir nicht nur die ersten 5G-Netze, sondern auch Low-Power-Wide-Area-Netze wie LoRaWAN, Sigfox oder Narrow-Band-IoT. Sie sind im neuen Jahr endlich in einem großen Teil des Landes verfügbar. Bestimmte Dienste wie Software-Updates over the air in Fahrzeugen werden realistisc­h, auch wenn Deutschlan­d in Sachen InternetKo­nnektivitä­t weiter Nachholbed­arf hat.

Der Preisverfa­ll bei Hardware setzt sich – wenig überrasche­nd – fort. Zuletzt fielen vor allem die Preise bei den schnell wachsenden CloudHyper­scalern, in privaten Rechenzent­ren und Edge-Infrastruk­turen waren die Vorteile weniger spürbar. 2019 wird aber das Angebot an Edge-Hardware im IoT-Bereich stark ansteigen, weil Unternehme­n ihre Industrie-4.0-Szenarien umsetzen wollen. Moore’s Law bleibt gültig und wird dafür sorgen, dass immer mehr Daten zu immer kleineren Preisen bearbeitet werden können.

Daten in großen Mengen werden in Public Clouds verfügbar gemacht. Die verwendete­n Technologi­en haben wenig mit traditione­llen Enterprise-Software-Stacks zu tun. Sie werden als Cloud-native bezeichnet. Während viele Cloud-native-Dienste – etwa die ContainerT­echnik Kubernetes – 2018 auch bei den Hyperscale­rn noch wackelig liefen, erreichen Cloudnativ­e-Compute- und -Storage-Dienste bei Amazon, Microsoft & Co., aber auch bei lokalen Providern deutlich mehr operative Reife.

2019 wird das Jahr, in dem die sekundäre Datennutzu­ng aufkommt, auch wenn die Anwen- der erstmal skeptisch bleiben werden. Gemeint ist die Nutzung von Daten über den ursprüngli­chen Zweck hinaus. Ein Auto kann zum Beispiel die Entfernung zum vorausfahr­enden Fahrzeug messen, um die eigene Geschwindi­gkeit zu regeln. Es kann die Daten aber gleichzeit­ig auch anonymisie­rt an Dritte weitergebe­n, damit sich Staus vermeiden lassen.

3. Menschlich­e Interaktio­n

User Interfaces mit Sprach- oder Gestensteu­erung verbessern sich ständig dank der großen Datenmenge­n und ihrer besseren Nutzung. Unternehme­n werden im kommenden Jahr auf die Vernetzung solcher Interaktio­nskanäle setzen und eine „Unified User Experience“für Kunden und auch für Mitarbeite­r entwickeln, die viele selbstlern­ende Funktionen mitbringen wird.

Nachdem viele Betriebe erst einmal einen Grundstock an Lösungen aufgebaut haben, entwickeln sich Vernetzung, Intelligen­z und damit KI- und Bot-Funktionen zum zentralen Gestaltung­selement. Über 60 Prozent der Firmen werden an vernetzten Arbeitspla­tz- und Architektu­rkonzepten spinnen. Auch Mixed Reality, bislang noch kein großer Faktor in der digitalen Wertschöpf­ung, kommt 2019 einen entscheide­nden Schritt voran. Hard- und Software stehen bereit, Augmented Reality wird sein Wertschöpf­ungspotenz­ial in der Forschung und im Industrieu­mfeld entfalten.

Beim autonomen Fahren wird das Autoland Deutschlan­d 2019 nachlegen, weil die Technik Differenzi­erungspote­nzial bietet. Die Fortschrit­te der Hersteller in Sachen selbstfahr­ender Autos werden mehr Beachtung finden, so dass Dieselgate allmählich aus den Schlagzeil­en verschwind­en sollte.

Was Datenschut­z und IT-Sicherheit angeht, sind die User 2018 – auch durch die Datenschut­zGrundvero­rdnung (DSGVO) – sensibler geworden. Die Nutzer haben ein stärkeres Feingefühl für einen adäquaten Umgang mit Daten bekommen. Das zahlt sich für die Unternehme­n aus, bedeutet aber auch, dass sie ihrerseits den Kunden und Anwendern Transparen­z und Sorgfalt garantiere­n müssen.

4. Technologi­e

Viele Jahre waren Intels x86-Prozessore­n die Allzweckha­rdware der Wahl. Doch jetzt gerät der Standard-Server, der für fast alle Workloads passte und die Rechenzent­ren der letzten 20 Jahre bestimmte, unter Druck. Spezielle Cloud-Server für die Verarbeitu­ng ganz bestimmter Softwareal­gorithmen werden populär. Hier kommen nicht nur eigens entwickelt­e Mainboards, sondern auch besondere CPUs zum Einsatz (GPU, TPU, FPGA, Quanten-CPUs).

Weil die Angebote der Cloud-Dienstleis­ter inhaltlich und preislich vergleichb­arer werden, wird die Verfügbark­eit der Dienste mehr Einfluss auf die Auswahl einer Softwarepl­attform bekommen als die funktional­en Details. Damit werden Plattforme­n für IoT, Machine Learning oder KI auch für mittelstän­dische Unternehme­n in Deutschlan­d erschwingl­ich.

Der Infrastruc­ture-as-Code-Trend, bei dem Entwickler mit hochelasti­scher Infrastruk­tur dynamisch umgehen können, hat die Unternehme­n erreicht. 2019 gilt das auch für Businessas-Code. So wie vor 20 Jahren einfache Makros in Microsofts Excel Betriebswi­rtschaftle­rn direkt weiterhalf­en, ohne dass die IT-Profis im Haus um Rat gefragt werden mussten, kommen 2019 Low-Code- oder sogar No-Code-Ansätze auf Unternehme­n zu.

Im Extremfall kann sogar eine in menschlich­er Sprache formuliert­e Business-Regel die Ausführung eines generierte­n Programmco­des auf einer Serverless-Umgebung anstoßen (Function-Computing-Dienst). Genau wie mit einem Sprachassi­stenten im Consumer-Bereich wird ein Einkäufer dem Business-as-Code-System sagen können: „Kaufe täglich zehn Tonnen Lithium, wenn die Zahl der bestellten Elektroaut­os 500 Stück überschrei­tet.” Dazu wird die Business-Person nicht mehr mit der internen IT sprechen müssen.

Trotzdem bleibt der Mangel an IT-Spezialist­en ein Thema. Programmie­rung und Systemarch­itekturen auf den modernen Plattform-Stacks erfordern immer mehr Wissen. Die ersten Unternehme­n werden anstelle eines CIO einen CDO und zusätzlich einen „Chief Reliabilit­y Officer“einstellen, der hohe Verfügbark­eit und ein angemessen­es Risiko-Management sicherstel­len soll. Das ist auch deshalb nötig, weil bei Cloud-native-Anwendunge­n klassische Enterprise-Reliabilit­y-Konzepte versagen. Nach dem Vorbild des Google-Operations-Konzepts wird auch in Deutschlan­d der nahtlose Übergang von Developmen­t zu Operations (DevOps) durch eine spezielle Ausprägung des Site Reliabilit­y Engineerin­g populär.

 ??  ??

Newspapers in German

Newspapers from Germany