Legacy-Systeme modernisieren – Microservices, RPA, Data Lakes und AI
Monolithische Legacy-Systeme behindern Innovation. Das Ziel muss eine agile, flexible und robuste IT sein. Die digitale Entflechtung von Daten und Systemen kann Anwenderunternehmen einen gangbaren Weg aufzeigen, um den Anforderungen des digitalen Business gerecht zu werden.
Albert Einstein sagte einmal: „Wir können unsere Probleme nicht mit der gleichen Art zu denken lösen, die sie geschaffen hat.“Bei diesem Aphorismus hätte der geniale Physiker sich auch von den Herausforderungen der Legacy-Modernisierung inspirieren lassen können.
Als die Prozesse und Programme geschaffen wurden, die wir heute ablösen müssen, residierte Software vorzugsweise im eigenen Rechenzentrum, teilweise noch in Mainframes. Die Prozesse, die sie abbildete, waren wie in Stein gemeißelt, die Software wies eine monolithische Architektur auf, folgte festen Release- Zyklen und wurde entweder im Wasserfalloder V-Modell entwickelt. Fluide Prozesse, Cloud, agile Entwicklung, DevOps oder Microservice-Architekturen? Weitgehend unbekannt.
Doch die Technik verändert sich nicht nur, sie entwickelt sich auch viel schneller. Brauchte der Fernseher noch rund 40 Jahre, um sich flächendeckend durchzusetzen, benötigte das Smartphone gerade einmal zehn Jahre, um die Welt komplett zu erobern. So komplett, dass es zum Beispiel in Indien offiziellen Statistiken zufolge heute mehr Smartphones als wassergespülte Toiletten gibt.
Adaptionskurve Haifischflosse: Entwicklungen beschleunigen immer schneller
Es besteht eine relativ große Wahrscheinlichkeit, dass sich die Marktentwicklung weiter beschleunigt: Die früher relativ gleichmäßig verlaufenden Adaptionskurven für neue Entwicklungen und Produkte werden sehr viel steiler. Glichen herkömmliche Kurven eher einem sanften Hügel, ähneln sie heute Haifischflossen. Sie steigen sehr steil an und fallen in kürzerer Zeit steil ab. Das bedeutet, dass Unternehmen viel weniger Zeit haben, neue Produkte und Services erfolgreich am Markt zu platzieren.
Die zunehmende Entwicklungsgeschwindigkeit bezieht sich nicht nur auf Hardware. Sie erfasst auch Software, Prozesse und Strategien. Mitunter entsteht der Eindruck, Menschen wie Unternehmen liefen diesen Veränderungen hoffnungslos langsam hinterher. Unsere fehlende Geschwindigkeit ist allerdings zumindest zu einem Teil den nach wie vor eingesetzten Methoden und Werkzeugen geschuldet. Legacy-Systeme verhindern, dass Unternehmen ihre Geschäftsmodelle, ihre Strategien und ihre Werkzeuge schnell genug ändern. Die Fähigkeit zur schnellen Innovation ist jedoch ein wesentlicher Schlüssel zum Unternehmenserfolg. Das belegen unter anderem Zahlen aus der Accenture-Marktforschung. Demnach erzielen die innovativsten Unternehmen 64 Prozent höhere Gewinnspannen und liefern ihren Aktionären 42 Prozent höhere Erträge.
Das sehen CEOs genauso. In einer AccentureBefragung erklärten 62 Prozent der befragten Unternehmenschefs, die IT habe einen „revolutionären Einfluss“auf ihre Unternehmen. Dabei verbinden sie das Thema Innovationsfähigkeit sehr stark mit Agilität der IT. Drei Viertel der Befragten sehen ihre Unternehmen gefährdet, wenn ihre Technologie nicht stets aktuell gehalten wird. Legacy-Systeme zwischen Barriere und Wertbeitrag
Eine Enterprise-IT, die mit einer hohen Innovations- und damit Veränderungsgeschwindigkeit mithalten kann, muss skalierbar, flexibel und belastbar (resilient) sein. Dabei sehen allerdings 70 Prozent der Entscheidungsträger die sogenannten Legacy-Systeme als wesentliche Barriere für Innovationen in ihren Unternehmen. Doch trotz all ihrer Fehler und Komplexität bergen diese Altsysteme noch sehr viel Wert – Daten, Transaktionsmechanismen, Prozessbeschreibungen –, der bei einem Umstieg auf neue Technologien nicht verloren gehen darf.
Ein gangbarer Weg, das Schützenswerte der Legacy-Systeme zu retten und trotzdem zügig zu einer agilen Enterprise-IT zu gelangen, ist das sogenannte Digital Decoupling. Die digitale Entkopplung bringt Technologien, die Entwicklung und Bereitstellung von IT-Services beschleunigen – künstliche Intelligenz, Robotic Process Automation,
Platform as a Service und Cloud – mit agilen Entwicklungsansätzen zusammen: DevOps, Design Thinking und andere neue Wege, um moderne Systeme zu erstellen, zu integrieren und zu automatisieren. In jedem Fall aber – und das ist kurzfristig das Wichtigste – werden Daten von Altsystemen und Applikationen von der Legacy-Infrastruktur entkoppelt.
Prinzipiell gibt es fünf Wege, mit denen sich diese Entkopplung bewerkstelligen lässt:
1. APIs und Microservices
In diesem Verfahren verbinden Application Programming Interfaces (APIs) früher fest verdrahtete Systeme in Form lose gekoppelter Services. Die Entkopplung von Daten und Systemen über den Microservice-Ansatz ist zwar ein vergleichsweise aufwendiges Verfahren, aber auch das nachhaltigste. Hier geht es darum, große, monolithische Systeme in viele kleine Einzelfunktionen, die sogenannten Microservices, zu zerlegen. Das sollte auch das Ziel in einer von SAP oder Oracle geprägten Anwendungslandschaft sein. Diese gekapselten und daher unabhängig voneinander agierenden Kleinservices werden über APIs miteinander zu größeren Funktionsblöcken zusammengefasst, aber eben nur lose gekoppelt. In der Regel lassen sich Microservices von agilen Teams – auch wegen ihrer Einfachheit – sehr schnell entwickeln. Der Vorteil einer so aufgebauten IT-Landschaft: Durch die Eigenschaften der Microservices ist sie sehr robust, quasi ortsunabhängig, und sie ist vor allem auch leicht veränderbar. Die Microservices lassen sich unabhängig voneinander verändern oder austauschen. Es muss kein großer Funktionsblock oder eine ganze Software neu ausgerollt werden. Das stellt einen enormen Fortschritt hinsichtlich Flexibilität und Agilität dar. Durch die Zerlegung von Altsystemen in kleine, modulare und unabhängige Services kann schneller entwickelt werdem als jemals zuvor.
2. Robotic Process Automation (RPA)
Hier werden automatische Routinen entwickelt, die die Ergebnisse von Legacy-Systemen an den GUI-Schnittstellen auslesen und den neuen Systemen zur weiteren Verarbeitung zur Verfügung stellen. Früher war dieses Vorgehen auch als Screen-Scraping bekannt. Allerdings sind die neuen RPA-Verfahren deutlich besser und stabiler. Weitere Vorteile sind ihre Schnelligkeit und einfache Anwendbarkeit. Neue, zum Beispiel analytische Systeme lassen sich mit den wertvollen Daten aus den Altsystemen füttern. Der Nachteil: Das Legacy-System mit all seinen Komplexitäten und Fehlern bleibt bestehen.
3. New-Book-Approach
Bei diesem „Grüne-Wiese-Ansatz“werden neue Systeme nach neuen Verfahren entwickelt, eine Migration von Alt nach Neu findet nicht statt. Am einfachsten lässt sich das am Beispiel Lebensversicherung erklären. Existierende Policen werden weiterhin im bestehenden System verwaltet. Für neue Policen wird ein neues System aufgebaut. Die beiden Systeme kooperieren nicht miteinander. Der Vorteil des Verfahrens: Die Daten müssen nicht migriert werden. Deshalb geht es schnell, vor allem dann, wenn man das neue System in der Cloud betreibt. Der Nachteil: Es existieren mittelfristig zwei Systeme parallel, die beide gepflegt sein wollen.
4. Data-Lake-Centric Architecture
Die Transaktionsergebnisse der operativen Legacy-Systeme werden in einen Data-Lake dupliziert. Die dort gespeicherten Daten können in Echtzeit analysiert und die Ergebnisse modernen Systemen zur Verfügung gestellt werden. Im Falle einer Bank könnte das bedeuten, dass Kontostände nicht mehr über das Legacy-System abgefragt werden, sondern über eine Query in den Data Lake. Damit sinken die Kosten für das Legacy-System, weil weniger Ressourcen gebraucht werden. Außerdem lassen sich auf Basis der Daten im Data Lake etliche neue Kundenservices anbieten, die gestützt auf die alte IT nur sehr schwer oder gar nicht hätten offeriert werden können. Zum Beispiel lassen sich Cash-Prognosen für Kunden leicht erstellen, weil die Transaktionen des letzten Jahres bekannt sind. Mit Hilfe von Analytic-Tools oder Machine Learning kann man den künftigen Cash-Flow relativ leicht voraussagen. Durch den Data Lake können alle modernen Werkzeuge eingesetzt werden, die auf einer MainframeAnwendung nicht zur Verfügung stehen. Allerdings, und das ist der Nachteil dieses Verfahrens, müssen geänderte Daten wieder in das Legacy-System geschrieben werden. Da dies aber nur dann geschieht, wenn die Ausgangsdaten – durch eine Überweisung zum Beispiel – tatsächlich geändert werden, ist der Zugriff auf das Legacy-System seltener nötig.
5. Cognitive/AI
Hier geht es um zwei Einsatzmöglichkeiten von künstlicher Intelligenz: Zum einen Daten mit Hilfe von selbst lernenden Algorithmen auswerten zu lassen und zum anderen mög- liche Verbindungen unter den Teilsystemen und den APIs mit Hilfe von KI analysieren und generieren zu lassen. Eine solche von KI unterstützte Analyse und Änderung der Altsysteme ist der mit Abstand experimentellste, aber auch innovativste Ansatz.
Wichtig anzumerken bleibt, dass sich auch große SAP-Anwendungslandschaften digital entkoppeln lassen. Insbesondere gelingt dies mit neuen SAP-Produkten wie S4/HANA, SAP Leonardo oder SAP Fiori. Die Wahl der richtigen Entkopplungsstrategie hängt stark von der Situation des Kunden ab. Im Gegensatz zu bisherigen Migrationsstrategien entsteht aber vor allem beim Umstieg auf Microservices kein zusätzlicher Software-Layer, der die Komplexität der gesamten IT-Landschaft weiter erhöht und die IT insgesamt noch starrer machen würde. Das verleiht Unternehmen in Zukunft mehr Selbstbestimmung bei der Weiterentwicklung ihrer IT. Vorausgesetzt, sie arbeiten weiter an ihrer dann bereits gewonnenen Agilität. Sie erlaubt es, etwa durch Microservices, IT und Service aktuell zu halten, ohne ständig am offenen Herzen operieren zu müssen.