Zehn Trends zur Zukunft der IT-Infrastrukturen
Wer Rechenpower will, benötigt dafür nicht mehr zwingend eigene Hardware-Racks oder gar Rechenzentren. Der Trend geht zu markenloser Billighardware aus Asien, die ihre Ressourcen immer öfter in der Public Cloud bereitstellt. Diesen und neun weitere Infras
Vor dem Hintergrund der breiten Diskussionen über Analytics und künstliche Intelligenz ist die Zukunft der Infrastruktur zuletzt etwas aus dem Blick geraten. Wer daraus schließt, dass sich hier nichts tut, liegt allerdings falsch. Auch die Annahme, dass Strukturen keine strategische Bedeutung mehr haben, ist nicht richtig. Wer sich zum Beispiel mit Analytics beschäftigt, braucht Rechnerlandschaften, die leistungsfähig und zuverlässig sind – unabhängig davon, wo sie stehen.
Grund genug, sich nicht nur mit dem heute Machbaren, sondern auch mit möglichen Zukunftsszenarien für diesen Bereich zu beschäftigen. McKinsey hat das jetzt getan. Herausgekommen sind dabei folgende „Zehn Trends für die Zukunft der Enterprise-IT-Infrastruktur“.
1. Alles wird zum Service
Immer mehr Unternehmen wünschen sich der Management-Beratung zufolge nutzungsabhängige Pricing-Strukturen für den Einkauf von Infrastrukturleistungen. Der As-a-ServiceTrend nahm seinen Anfang bei der Software, hat aber längst auch die Hardware erreicht. Das Verwandeln von Investitions- in Betriebskosten senkt die Risiken und setzt Kapital frei, das anderweitig genutzt werden kann.
Global sind die Ausgaben für Infrastrukturund Plattformservices von 2015 auf 2016 um 53 Prozent gestiegen. Damit ist dieser Bereich das am stärksten wachsende Segment im Bereich der IT-Infrastrukturen. 2. Die Public Cloud ist Mainstream
Generell verlagern Unternehmen schon seit Jahren ihre Rechenpower in die Cloud. Dieser Trend verschärft sich in jüngster Zeit noch einmal. Eine Reihe von US-amerikanischen Riesen hat angefangen, die eigenen Rechenkapazitäten zu beschneiden oder ganz darauf zu verzichten. Zu ihnen gehören General Electric, Netflix, Capital One, Time Inc. und andere. McKinsey geht davon aus, dass im kommenden Jahr 80 Prozent aller Server an Cloud Provider verkauft werden.
3. Keine Angst vor Open Source
Selbst große IT-Provider vertrauen mittlerweile auf Programme wie Apache Spark, Kubernetes oder OpenShift. Außerdem nutzen viele bekannte Unternehmen wie Airbus oder Ebay TensorFlow, Googles Open-Source-Verzeichnis für Machine-Learning-Code. Und Facebooks Open-Compute-Projekt, das Hardware effizienter, flexibler und besser skalierbar machen soll, hat die Open-Source-Idee in die Rechenzentren von AT&T, Goldman Sachs und der Deutschen Telekom getragen.
4. Sicherheit bleibt oben auf der Agenda
Quer durch alle Branchen steigen Anzahl und Komplexität von Cyber-Angriffen. Laut McKinsey sagen 80 Prozent der Verantwortlichen, dass es ihnen schwerfällt, Abwehr und Schutz angemessen zu organisieren. Und weil es zu wenige Cybersecurity-Experten gibt, investieren immer mehr Firmen in gemanagte Security-Services. Unter ihnen werden Cloudbasierte Angebote immer beliebter. McKinsey schätzt, dass sie bis 2020 einen Anteil von 60 Prozent unter allen Sicherheitsprodukten erreicht haben werden. 2015 waren es lediglich zehn Prozent.
5. White-Label-Hardware immer beliebter
Lange Zeit haben die meisten Anwenderunternehmen ihre Hardware von Markenherstellern konfigurieren und zusammenschrauben lassen. Heute wenden sie sich immer öfter direkt an White-Label-Fabriken, die jede gewünschte Konfiguration an jeden verkaufen. Nach aktuellen Schätzungen von IDC werden diese „Selbstbau-Server“2020 einen Marktanteil von 50 Prozent erreichen. 6. Internet der Dinge ist Business-ready
Business-to-Business-Anwendungen werden in den kommenden zehn Jahren für 70 Prozent der Wertschöpfung durch das Internet der Dinge verantwortlich sein. Eine Umfrage von McKinsey zeigt, dass 96 Prozent der befragten Unternehmen in den kommenden drei Jahren ihre Ausgaben in diesem Bereich steigern wollen.
Die wichtigsten Anwendungsbereiche für IoT sind die Optimierung interner Abläufe und die Unterstützung bei der Entwicklung neuer Geschäftsmodelle. Das Wachstum an IoT-Anwendungen wird die Nachfrage nach extrem großen Rechenkapazitäten und IoT-spezifischen Platform-as-a-Service-Lösungen deutlich erhöhen.
7. Server kommen aus Asien
Asiatische Hersteller werden den Server-Markt immer stärker dominieren. Huawei aus dem chinesischen Shenzhen beispielsweise will mittelfristig von seinem neun Milliarden Dollar schweren Budget für Forschung und Entwicklung rund eine Milliarde in die Weiterentwicklung von Data Centern stecken. Hinzu kommt der angesprochene Trend zu WhiteLabel-Severn: Er stärkt die Asiaten ebenfalls, weil fast alle derart aufgestellten Fabriken in diesem Teil der Welt stehen.
8. DevOps für Hardware und Software
IT-Departments müssen ihr Innovationstempo immer weiter erhöhen und auch ihre Verfügbarkeit; in vielen Unternehmen wird ein 24/7-Einsatz mittlerweile vorausgesetzt. DevOps kann dazu beitragen, beide Ziele leichter und zuverlässiger zu erreichen, indem es die Zusammenarbeit entlang der gesamten IT-Wertschöpfungskette erleichtert. DevOps ist ein Kunstwort aus Development und IT Operations. Bei diesem Ansatz soll durch gemeinsame Anreize, Prozesse und Werkzeuge eine effizientere Zusammenarbeit aller Spezialisten erreicht werden, die an der Entwicklung und Prozesssteuerung in der IT beteiligt sind.
9. Container-Architekturen setzen sich durch
Software-Container, die sowohl Betriebssysteme als auch für eine bestimmte Aufgabe notwendige Programme enthalten und die wie homogene Dateien transportiert und installiert werden können, setzen sich immer mehr durch.
Bemerkenswert an dieser Entwicklung ist laut McKinsey vor allem ihre Geschwindigkeit. Heute setzen bereits 34 Prozent aller Softwareprofis (auch) solche Lösungen ein, die vor zwei bis drei Jahren noch eine Nischentechnologie waren.
10. Künstliche Intelligenz wird Commodity
Ähnlich wie bei DevOps und Containern haben sich auch KI-Anwendungen in großem Tempo aus ihrer Nische herausbewegt, weil für immer mehr Unternehmen ihr praktischer Nutzen sichtbar wird.
Stromversorger zum Beispiel können heute durch komplexe, datengestützte Simulationen sowohl die Leistung von Windkraftanlagen als auch Strombedarfe viel exakter vorausberechnen als noch vor wenigen Jahren. Solche und auch einfachere Berechnungen werden dabei immer häufiger automatisiert ablaufen.