Firmen haben eine Digitalstrategie
Die Analysten von Crisp Research werfen für COMPUTERWOCHE-Leser einen Blick in die Zukunft. Sie glauben, dass die größten Fortschritte in den vier Bereichen Digitalstrategie, Datenverfügbarkeit, menschliche Interaktion und Technologie zu sehen sein werden.
Für die erste Ausgabe im neuen Jahr werfen die Analysten von Crisp Research für COMPUTERWOCHE-Leser einen Blick in die Zukunft. Sie glauben, dass die größten Fortschritte in den vier Bereichen Digitalstrategie, Datenverfügbarkeit, menschliche Interaktion und Technologie zu sehen sein werden.
Die Technologietrends von Crisp Research konzentrieren sich auf vier Kräfte, die nach Meinung der Marktforscher die Digitalisierung voranbringen werden. Folgende Thesen stellen die Analysten in den Raum:
1. Digitalstrategie
Neun von zehn Unternehmen haben bis Mitte 2019 zumindest die erste Version einer Digitalstrategie formuliert. Die Zeit der Experimente ist vorbei. Allerdings wird es noch bis 2020 dauern, ehe die Betriebe die richtige Balance zwischen einem „Fail-fast-and-cheap-Ansatz“und einem wirklich durchgeplanten Vorgehen gefunden haben. Generell mangele es den deutschen Firmen an guten Ideen, die dann auch noch zu langsam verfolgt würden.
Um die eigene Digitalstrategie umsetzen zu können, wird die Hälfte der Betriebe ihre Organisation ändern. Die Mehrheit dieser Gruppe beruft einen Chief Digital Officer (CDO). Mit digitalen Produkten erwirtschaften nur 15 Prozent der deutschen Unternehmen zusätzliche Umsätze. Diese Einnahmen bleiben weiterhin deutlich hinter denen mit traditionellen Produkten zurück. Aber den Digitalverantwortlichen wird es gelingen, den Nutzen der Digitalprodukte fürs Unternehmen nachzuweisen.
In den Bilanzen von 2019 werden digitale Umsätze in den meisten Fällen nicht profitabel sein. Das liegt auch daran, dass ihre Entwicklung und ihr Betrieb viel Geld verschlingen. Doch die Investitionen sind wettbewerbsrelevant, da klassische Produkte durch digitale Erweiterungen wertvoller werden und höhere Marktpreise erzielen. Während die Architektur von Cloud-nativeAnwendungen bisher meist durch technische Anforderungen bestimmt wurde, dreht sich 2019 alles um neu entstehende Ökosysteme. Ein Business-Design, das Plattformgeschäfte oder eine sekundäre Datennutzung ermöglicht, wird die Softwarearchitekturen prägen. Smart Contracts zwischen Partnern nehmen starken Einfluss auf die entstehenden APIs.
2. Datenverfügbarkeit
Data Lakes und Technologien wie Hadoop für die Speicherung großer Datenmengen sind seit einigen Jahren verfügbar. 2019 geht es darum, die gesammelten Daten zu durchdringen. Persönliche Daten wie die DNA eines Patienten werden dazu benutzt, Medikamente individuell zu entwickeln und zu dosieren. Aus der Umwelt kommen mehr Daten als je zuvor. Sie kön-
nen helfen, Extremsituationen vorherzusagen und im besten Fall zu vermeiden.
Bei den Connectivity-Optionen sehen wir nicht nur die ersten 5G-Netze, sondern auch Low-Power-Wide-Area-Netze wie LoRaWAN, Sigfox oder Narrow-Band-IoT. Sie sind im neuen Jahr endlich in einem großen Teil des Landes verfügbar. Bestimmte Dienste wie Software-Updates over the air in Fahrzeugen werden realistisch, auch wenn Deutschland in Sachen InternetKonnektivität weiter Nachholbedarf hat.
Der Preisverfall bei Hardware setzt sich – wenig überraschend – fort. Zuletzt fielen vor allem die Preise bei den schnell wachsenden CloudHyperscalern, in privaten Rechenzentren und Edge-Infrastrukturen waren die Vorteile weniger spürbar. 2019 wird aber das Angebot an Edge-Hardware im IoT-Bereich stark ansteigen, weil Unternehmen ihre Industrie-4.0-Szenarien umsetzen wollen. Moore’s Law bleibt gültig und wird dafür sorgen, dass immer mehr Daten zu immer kleineren Preisen bearbeitet werden können.
Daten in großen Mengen werden in Public Clouds verfügbar gemacht. Die verwendeten Technologien haben wenig mit traditionellen Enterprise-Software-Stacks zu tun. Sie werden als Cloud-native bezeichnet. Während viele Cloud-native-Dienste – etwa die ContainerTechnik Kubernetes – 2018 auch bei den Hyperscalern noch wackelig liefen, erreichen Cloudnative-Compute- und -Storage-Dienste bei Amazon, Microsoft & Co., aber auch bei lokalen Providern deutlich mehr operative Reife.
2019 wird das Jahr, in dem die sekundäre Datennutzung aufkommt, auch wenn die Anwen- der erstmal skeptisch bleiben werden. Gemeint ist die Nutzung von Daten über den ursprünglichen Zweck hinaus. Ein Auto kann zum Beispiel die Entfernung zum vorausfahrenden Fahrzeug messen, um die eigene Geschwindigkeit zu regeln. Es kann die Daten aber gleichzeitig auch anonymisiert an Dritte weitergeben, damit sich Staus vermeiden lassen.
3. Menschliche Interaktion
User Interfaces mit Sprach- oder Gestensteuerung verbessern sich ständig dank der großen Datenmengen und ihrer besseren Nutzung. Unternehmen werden im kommenden Jahr auf die Vernetzung solcher Interaktionskanäle setzen und eine „Unified User Experience“für Kunden und auch für Mitarbeiter entwickeln, die viele selbstlernende Funktionen mitbringen wird.
Nachdem viele Betriebe erst einmal einen Grundstock an Lösungen aufgebaut haben, entwickeln sich Vernetzung, Intelligenz und damit KI- und Bot-Funktionen zum zentralen Gestaltungselement. Über 60 Prozent der Firmen werden an vernetzten Arbeitsplatz- und Architekturkonzepten spinnen. Auch Mixed Reality, bislang noch kein großer Faktor in der digitalen Wertschöpfung, kommt 2019 einen entscheidenden Schritt voran. Hard- und Software stehen bereit, Augmented Reality wird sein Wertschöpfungspotenzial in der Forschung und im Industrieumfeld entfalten.
Beim autonomen Fahren wird das Autoland Deutschland 2019 nachlegen, weil die Technik Differenzierungspotenzial bietet. Die Fortschritte der Hersteller in Sachen selbstfahrender Autos werden mehr Beachtung finden, so dass Dieselgate allmählich aus den Schlagzeilen verschwinden sollte.
Was Datenschutz und IT-Sicherheit angeht, sind die User 2018 – auch durch die DatenschutzGrundverordnung (DSGVO) – sensibler geworden. Die Nutzer haben ein stärkeres Feingefühl für einen adäquaten Umgang mit Daten bekommen. Das zahlt sich für die Unternehmen aus, bedeutet aber auch, dass sie ihrerseits den Kunden und Anwendern Transparenz und Sorgfalt garantieren müssen.
4. Technologie
Viele Jahre waren Intels x86-Prozessoren die Allzweckhardware der Wahl. Doch jetzt gerät der Standard-Server, der für fast alle Workloads passte und die Rechenzentren der letzten 20 Jahre bestimmte, unter Druck. Spezielle Cloud-Server für die Verarbeitung ganz bestimmter Softwarealgorithmen werden populär. Hier kommen nicht nur eigens entwickelte Mainboards, sondern auch besondere CPUs zum Einsatz (GPU, TPU, FPGA, Quanten-CPUs).
Weil die Angebote der Cloud-Dienstleister inhaltlich und preislich vergleichbarer werden, wird die Verfügbarkeit der Dienste mehr Einfluss auf die Auswahl einer Softwareplattform bekommen als die funktionalen Details. Damit werden Plattformen für IoT, Machine Learning oder KI auch für mittelständische Unternehmen in Deutschland erschwinglich.
Der Infrastructure-as-Code-Trend, bei dem Entwickler mit hochelastischer Infrastruktur dynamisch umgehen können, hat die Unternehmen erreicht. 2019 gilt das auch für Businessas-Code. So wie vor 20 Jahren einfache Makros in Microsofts Excel Betriebswirtschaftlern direkt weiterhalfen, ohne dass die IT-Profis im Haus um Rat gefragt werden mussten, kommen 2019 Low-Code- oder sogar No-Code-Ansätze auf Unternehmen zu.
Im Extremfall kann sogar eine in menschlicher Sprache formulierte Business-Regel die Ausführung eines generierten Programmcodes auf einer Serverless-Umgebung anstoßen (Function-Computing-Dienst). Genau wie mit einem Sprachassistenten im Consumer-Bereich wird ein Einkäufer dem Business-as-Code-System sagen können: „Kaufe täglich zehn Tonnen Lithium, wenn die Zahl der bestellten Elektroautos 500 Stück überschreitet.” Dazu wird die Business-Person nicht mehr mit der internen IT sprechen müssen.
Trotzdem bleibt der Mangel an IT-Spezialisten ein Thema. Programmierung und Systemarchitekturen auf den modernen Plattform-Stacks erfordern immer mehr Wissen. Die ersten Unternehmen werden anstelle eines CIO einen CDO und zusätzlich einen „Chief Reliability Officer“einstellen, der hohe Verfügbarkeit und ein angemessenes Risiko-Management sicherstellen soll. Das ist auch deshalb nötig, weil bei Cloud-native-Anwendungen klassische Enterprise-Reliability-Konzepte versagen. Nach dem Vorbild des Google-Operations-Konzepts wird auch in Deutschland der nahtlose Übergang von Development zu Operations (DevOps) durch eine spezielle Ausprägung des Site Reliability Engineering populär.