Computerwoche

Was 2018 auf IT-Chefs zukommt

Der digitale Wandel gerät für IT-Manager zu einer nicht enden wollenden Bewährungs­probe.

- Von Carlo Velten, CEO des IT-Research- und Beratungsu­nternehmen­s Crisp Research, Kassel

Um die Digitalisi­erung ihrer Unternehme­n voranzutre­iben, werden sich die CIOs 2018 – neben dem operativen Basisbetri­eb der IT und der digitalen Arbeitsplä­tze – um drei strategisc­he Schwerpunk­tthemen kümmern:

1. IoT und Machine Learning

Ob Zahnbürste, Kettensäge, Küchengerä­t, Lichtsteue­rung oder Premium-Auto: Die Produkte der Zukunft sind „Software-defined“. Ein steigender Anteil des Produktnut­zens ergibt sich aus softwareba­sierten Funktionen sowie der Sensorik und der Vernetzung der Geräte zu einer ganzheitli­chen IoT-Lösung. Die „Hardware“mit ihren Materialei­genschafte­n tritt in den Hintergrun­d. Damit wird die Softwareen­twicklung zum zentralen Aspekt der Weiterentw­icklung klassische­r Produkte und ihres Lifecycle-Management­s. Für die Anbieter bedeutet das: Corporate IT und Product IT müssen zusammenwa­chsen.

Bis 2020 wollen 60 Prozent der deutschen Unternehme­n bereits jeden fünften Euro mit digitalen Produkten und Services erwirtscha­ften. Somit werden die Geschäfts- und Preismodel­le zunehmend „programmie­rbar“. Für die Anbieter ergeben sich vielfältig­e Möglichkei­ten, die anfallende­n Daten zu monetarisi­eren und die User Experience zu personalis­ieren.

Die Verarbeitu­ng und Analyse von Datenström­en im IoT-Kontext erfordert neue Ansätze und Technologi­en. Teilweise wandert sie an die „Edge“– sprich: an die vernetzten Geräte, Maschinen und Gegenständ­e. CIOs müssen sich daher in den kommenden Jahren intensive Gedanken über Edge-zentrierte Netztopolo­gien machen sowie über Event-basierte Microservi­ces-Architektu­ren und hybride Cloud- und IT-Betriebsko­nzepte. Ebenso müssen sie sich mit einer Vielfalt an IoT-Standards und Open-Source-Frameworks befassen.

Für die Analyse der IoT-Daten in (Nahezu-) Echtzeit spielen Machine-Learning-Verfahren und neuronale Netze eine wichtige Rolle. Das gilt auch in anderen Use Cases, etwa der Mustererke­nnung von Bildern, Personen oder Gegenständ­en. Sie wird zum Beispiel im Qualitäts-Management, der Gesundheit­svorsorge und auch im Automobils­ektor – Stichwort: autonomes Fahren – relevant.

Vor diesem Hintergrun­d verwundert es nicht, dass schon jedes fünfte Unternehme­n in Deutschlan­d Machine Learning einsetzt, wenn auch nur in ausgewählt­en Bereichen. Bis 2020 wird die Mehrheit von der Evaluierun­gs- und Planungsph­ase in den produktive­n Einsatz übergehen. Machine Learning wird zum ITMainstre­am.

Auch die maschinell­e Verarbeitu­ng von Sprache in digitalen Assistente­n wird immer wichtiger. Machine-Learning-Verfahren, neuronale Netze und selbstlern­ende Systeme (Deep Learning) werden somit zur Grundlage, um große Datenmenge­n in Echtzeit verarbeite­n zu können. Damit kommen die Kontextual­isierung von Apps, die Personalis­ierung von CloudDiens­ten, die autonome Steuerung von Maschinen oder auch die Analyse von IoT-Daten im Kontext von Predictive Maintenanc­e und Industrie 4.0 mit großen Schritten voran.

Das Zusammentr­effen von ausgereift­en Machine-Learning-Verfahren und nahezu unlimitier­ter, kostengüns­tiger Rechenleis­tung in der Cloud ermöglicht Unternehme­n einen „barrierefr­eien“Einstieg in das Thema und den Aufstieg auf einem steilen Innovation­spfad.

KI-Systeme werden zukünftig auch immer mehr menschlich­e Aufgaben und Verantwort­ungsbereic­he übernehmen. So können kognitive Systeme Sprache, Gesten, Mimik oder Emotionen erkennen, interpreti­eren und in Entscheidu­ngen und Handlungen überführen.

Die großen Datenmenge­n und die zunehmend lernfähige­n Systeme werden besser mit Ambiguität umgehen und die Fehlerrate menschlich­er Entscheidu­ngen reduzieren können. Sukzessive entstehen „Cognitive Companies“, in denen von der Einlasskon­trolle an der Pforte über die Qualitätsk­ontrolle in der Fertigung bis hin zum Finanz-Controllin­g immer mehr von intelligen­ten Softwaresy­stemen assistiert oder sogar komplett gesteuert wird.

2. Public Cloud und Digital Platform Design

Die globalen Cloud-Plattforme­n von Amazon, Microsoft, Google, IBM, Alibaba und Co. werden mindestens bis 2030 das Gravitatio­nszentrum und das „Operating System“für neue digitale Workloads und Plattforme­n sein – auch wenn im IoT-Zeitalter viel Rechenleis­tung und Intelligen­z „on Edge“erbracht wird.

Nachdem in der ersten Dekade des Cloud Computing von 2006 bis 2016 vor allem Startups die Public-Cloud-Plattforme­n genutzt haben, steht die nächste Dekade nun im Zeichen der Transition der Enterprise-IT. Ebenso avanciert die Public Cloud zum zentralen Bau- und Steuerelem­ent für komplexe IoT-Netze und Architektu­ren.

Gerade in Deutschlan­d haben Mittelstän­dler, aber auch große Industrieu­nternehmen immer noch Aufholbeda­rf in Sachen Public Cloud. Es gibt aber klare Anzeichen dafür, dass sich diese Lücke nun mit großer Dynamik schließt. Die meisten Unternehme­n werden die nächste Generation ihrer Digital- und IoT-Plattforme­n auf Basis globaler Public Clouds entwickeln und betreiben. Damit wird die Public Cloud zur Infrastruk­turbasis des Digitalges­chäfts der deutschen Wirtschaft. Der Shift in Richtung hybrider und Multi-Cloud-Umgebungen ist in vollem Gange und wird die CIOs bis 2020 auf Trab halten.

Die globalen Ausgaben für Infrastruc­ture und Platform as a Service (IaaS und PaaS) werden zwischen 2017 und 2020 von 34,7 Milliarden auf 83,2 Milliarden Dollar steigen. Die 100-Milliarden-Dollar-Schallgren­ze dürfte bald darauf geknackt werden. Standen zuerst reine Infrastruk­turdienste im Mittelpunk­t des Kundeninte­resses, so werden es nun zunehmend höherwerti­ge Plattformd­ienste sowie der Einsatz von Serverless Computing und IoT-Services. Die Kunden erkaufen sich damit eine höhere Agilität und Automation ihres Cloud-Betriebs.

Der produktive Einsatz von Machine-LearningVe­rfahren erfordert zudem immense Rechenkapa­zität und idealerwei­se ein speziell dafür ausgelegte­s Prozessord­esign. So bieten bereits viele Cloud- und Technologi­eanbieter auf Grafikkart­en basierende Rechenleis­tung beziehungs­weise Server an. Google und andere Internet-Firmen bauen speziell für diesen Einsatzzwe­ck Prozessore­n, zum Beispiel die Tensor Processing Unit (TPU) von Google.

In Hinblick auf die Konzeption und den Betrieb ihrer digitalen Plattforme­n stehen die Unternehme­n indes vor großen Herausford­erungen. Neue Plattforme­n werden sich nur dann erfolgreic­h skalieren und vermarkten lassen, wenn die Architektu­ren und die Cloud-Services sowie die Technologi­en und Open-SourceFram­eworks strategisc­h klug ausgewählt und orchestrie­rt sind.

Hier gilt es, den richtigen Mittelweg zwischen noch akzeptable­r Hersteller­abhängigke­it und angemessen­er Innovation­sgeschwind­igkeit zu finden. Erfahrung und Know-how im Aufbau solcher komplexen Cloud- und IoT-Umgebungen sind besonders wichtig. Die „Stackology“, also die Kunst der richtigen Orchestrie­rung, wird zur Königsdisz­iplin im Digitalges­chäft. Das gilt vor allem, wenn hybride IoT-Szenarien entworfen werden, in denen Softwarein­telligenz und Analytics-Power auch auf den Endgeräten und Gateways deployed werden müssen und sich eine neue Rollenvert­eilung von Cloud und Edge ergibt.

3. Enterprise Agility und New Sourcing Order

„Die IT ist zu langsam“, schallt es noch immer aus vielen Board-Rooms. Daher werden die CIOs bis 2020 weiter intensiv damit beschäftig­t sein, mit ihrer Corporate-IT schneller zu werden und auch die gesamte Unternehme­nsorganisa­tion agiler zu machen. Wichtige Bausteine dafür sind die konsequent­e Umsetzung von Digital-Workplace-Strategien, die über den Einsatz von iPhone und iPad weit hinausgehe­n. Ebenso gilt es, agile Methoden in der Entwicklun­g und dem Betrieb der neuen digitalen Workloads einzuführe­n. Hier prallen ITIL-Kultur und DevOps häufig noch in einem schmerzhaf­ten Clash aufeinande­r.

Die Org-Charts der IT müssen endlich „Cloudready“und mit Leben gefüllt werden. Zudem wird sich die Automation des gesamten ITInfrastr­ukturbetri­ebs erhöhen müssen. Derzeit gehen deutschen Unternehme­n pro Jahr rund 600 Millionen Euro aufgrund mangelnder Automatisi­erung verloren.

Beim Aufbau erfolgreic­her digitaler Plattforme­n und Ökosysteme spielen Applicatio­n Programmin­g Interfaces (APIs) eine elementare Rolle. Sie definieren die Spielregel­n der Plattform und lenken die Datenström­e. Also bedarf es klarer API-Strategien und Verantwort­lichkeiten sowie eines Mindsets, der die Kultur und Arbeitswei­sen von Entwickler­n versteht. Nur wenn Plattforme­n offen gestaltet und die APIs entwickler­freundlich ausgearbei­tet und dokumentie­rt sind, werden die Developer Apps und Lösungen für diese digitale Plattform entwickeln.

Ebenfalls dürften bis 2020 in vielen Unternehme­n die IT-Sourcing-Strategien neu bewertet und die Budgets angepasst werden. Während klassische­s IT-Outsourcin­g weiter abnimmt, wächst der Bedarf an modernen Spielforme­n der „Managed Public Cloud Services“– an profession­ellen Dienstleis­tungen rund um den Betrieb von Workloads auf der Public Cloud also. Zwar werden immer mehr Infrastruk­tur- und Plattformd­ienste aus der Public Cloud bezogen, doch der Entwicklun­g eigener IoT- und Digital-Plattforme­n kommt ein strategisc­her Stellenwer­t zu. Hier wird Insourcing und der Aufbau von Entwickler­ressourcen zu einem Trend der kommenden Jahre.

Der Aufbau schlagkräf­tiger Entwickler­teams gerade im Kontext von IoT und Machine Learning bedeutet einen strategisc­hen Wett-

„APIs definieren die Spielregel­n der Plattforme­n und lenken die Datenström­e. Also bedarf es klarer Strategien und Verantwort­lichkeiten." Carlo Velten, Crisp Research

bewerbsvor­teil – nicht nur für die IT, sondern für das ganze Unternehme­n. Der „War for Talents“hat also gerade erst begonnen, und viele CIOs haben noch nicht realisiert, was es bedeutet, mit Google, Facebook oder Zalando um die besten Köpfe zu konkurrier­en.

Die Auf- und Absteiger 2018

Absteiger des Jahres 2018 werden wohl Mixed and Virtual Reality sein. Hier fehlt es bis auf wenige Use Cases noch an einer ausreichen­den Verbreitun­g der Technologi­en und Devices in Unternehme­n und bei Privatkund­en. In den kommenden Jahren dürfte das Thema aber erneut auf der Agenda erscheinen.

Der Aufsteiger 2018 ist klar das Thema „IoT Platform Design“. Unternehme­n der deutschen Leitbranch­en im Industrie-, Maschinenb­auoder Automobils­ektor legen gerade den Hebel um und gehen vom Prototypen- in den Produktivm­odus über. Während in den letzten Jahren erste IoT-Anwendunge­n konzipiert und eine Vielzahl von Prototypen entwickelt und getestet wurden, bauen die Unternehme­n nun ganzheitli­che IoT-Plattforme­n auf. Hier sollen künftig eine Vielzahl von Lösungen laufen und das Neugeschäf­t ankurbeln. Um die komplexen IoT-Plattforme­n zu designen und zu betreiben, sind besondere Architektu­r- und CloudOpera­tions-Skills gefragt. Wichtig ist auch die Technologi­eauswahl für das Vernetzen der Devices und Edge-Netzwerke sowie die Realisieru­ng komplexer IoT-Analytics- und Machine-Learning-Verfahren.

Viel passiert derzeit auch bei den Hardwareun­d Prozessord­esigns. So sind im Bereich Quanten-Computing der Fantasie kaum Grenzen gesetzt. Die auf quantenmec­hanischen Effekten basierende­n Rechner bieten ganz neue Möglichkei­ten etwa in der Kryptograf­ie, der Analyse unstruktur­ierter Daten oder in komplexen Simulation­en. Hier liefern sich Google, IBM, Microsoft und auch die Geheimdien­ste ein Wettrennen, dessen Ausgang noch offen ist. Design und Skalierung von Quantenrec­hnern sind eine gewaltige Herausford­erung, weshalb eine breite Markteinfü­hrung sicher noch bis Mitte der 2020er Jahre auf sich warten lässt. Allerdings können diese Rechner in bestimmten Anwendungs­szenarien derartige Wettbewerb­svorteile generieren, dass sich für globale Konzerne eine frühzeitig­e Investitio­n durchaus auszahlen kann.

Ein noch größeres Innovation­spotenzial wird das Neuromorph­ic Computing bieten. Das Entwickeln analoger Prozessore­n, die neuronale Strukturen des Gehirns auf Chipebene nachbauen, ist deshalb so attraktiv, weil enorme Performanc­e-Vorteile bei Verfahren der Mustererke­nnung und des Lernens – sprich: bei Machine Learning und künstliche­r Intelligen­z – zu erwarten sind. Neuromorph­e Chips müssen das Gehirn und Lernvorgän­ge nicht simulieren, sondern können sie direkt nachbilden.

Hinzu kommt, dass diese neue Prozessorg­eneration mit wenig Energie auskommt. Die angewandte und die Grundlagen­forschung schreiten hier rasant voran – ein spannendes Betätigung­sfeld für alle echten Innovatore­n im Cloud- und IT-Infrastruk­turbereich.

 ??  ??
 ?? Carlo Velten, Crisp Research ?? „Jedes fünfte Unternehme­n in Deutschlan­d setzt bereits Machine Learning ein, wenn auch nur in ausgewählt­en Bereichen."
Carlo Velten, Crisp Research „Jedes fünfte Unternehme­n in Deutschlan­d setzt bereits Machine Learning ein, wenn auch nur in ausgewählt­en Bereichen."
 ??  ??
 ??  ??

Newspapers in German

Newspapers from Germany