Lange Zeiträume
Zwei bis zehn Jahre
Neu aufkommende innovative Technologien haben per se einen disruptiven Charakter. Wie disruptiv sie sich auswirken werden, wird sich im Laufe der Zeit zeigen. Der Wettbewerbsvorteil, den sie Anwenderunternehmen bringen können, ist momentan noch nicht bekannt oder absehbar. Bei den meisten der von Gartner in diesem Jahr aufgenommenen Technologien wird es fünf bis zehn Jahre dauern, bis sich ihre disruptive Kraft für das Business wirklich zeigt. Bei einigen könnte das schon früher der Fall sein, nämlich in zwei bis fünf Jahren. Dazu zählt Gartner:
Composable Applications, Decentralized Identity, Employee Communications, Generative AI,
Nonfungible Tokens und Realtime Incident Center as a Service.
Bei anderen transformativen Technologien könnte es mehr als zehn Jahre dauern, bis klar ist, ob sie jemals das Plateau der Produktivität erreichen werden. Dazu rechnen die Analysten AI-driven Innovation, Digital Humans, Named Data Networking und Quantum ML. Hier als First Mover zu investieren, ist gewagt, zumal diese Technologien gerade am Anfang sehr teuer sind.
und davon, dass sich intelligente Maschinen zu autonomen Wirtschaftsakteuren entwickeln könnten. Traditionelle Finanzdienstleister versuchten bereits, einige DeFi-Elemente in ihr Geschäft zu integrieren, wie die DBS Bank mit ihrer Digitalen Börse.
Nonfungible Tokens (NFT) sind auf der Blockchain-Technologie basierende digitale Vermögenswerte. Diese sind mit realen digitalen Vermögenswerten wie digitaler Kunst oder Musik beziehungsweise physischen, ebenfalls mit Tokens versehenen Vermögenswerten wie Häusern oder Autos verknüpft. Die meisten NFTs basieren derzeit auf Ethereum, aber auch andere Blockchain-Plattformen werden unterstützt.
Im Rahmen digitaler Ökosysteme können Besitzer digitaler Inhalte (und in einigen Fällen auch physischer Inhalte) wie Kunstwerke, Musik und Spiele NFTs verwenden, um digitales Eigentum und damit verbundene Rechte zuzuweisen. NFTs hätten eine viel breitere
Anwendbarkeit in vielen Märkten und würden neue Arten von Marktplätzen ermöglichen, glauben die Gartner-Analysten. Die Technik biete den Urhebern von Inhalten neue Möglichkeiten, ihre Inhalte über Ökosysteme sicher zu verwalten, zu bewerben und zu vermarkten. Unternehmen können sich zudem auf die Gültigkeit, Integrität und Einzigartigkeit von NFTs verlassen, weil die BlockchainTechnologie NFTs fälschungssicher macht.
Homomorphic Encryption (HE) besteht aus einer Reihe von Algorithmen, die Berechnungen mit verschlüsselten Daten ermöglichen. Dabei gibt es allerdings Unterschiede: Die vollständig homomorphe Verschlüsselung (Fully Homomorphic Encryption, FHE) unterstützt zwar beliebige mathematische Operationen, hat aber erhebliche Auswirkungen auf die Leistung und ist derzeit noch nicht praktikabel, sagt Gartner. Die partielle homomorphe Verschlüsselung (PHE) unterstützt wesentlich weniger Anwendungsfälle, führt aber zu deutlich geringeren Leistungseinbußen als die
FHE. Den Analysten zufolge ließen sich mit der homomorphen Verschlüsselung deutliche Fortschritte in Sachen Datenschutz und Datenverarbeitung erzielen. Unternehmen können:
Datenanalysen an verschlüsselten Daten durchführen,
Daten gemeinsam mit Wettbewerbern nutzen, ohne Geheimnisse preiszugeben, und
Daten an Dritte zur Verarbeitung weitergeben, ohne befürchten zu müssen, dass sie verlorengehen, kompromittiert oder gestohlen werden.
Active Metadata Management ist die kontinuierliche Analyse der Informationen aus Datenmanagement, Systemen, Infrastruktur und Data Governance. Ziel ist es, zu überprüfen, inwieweit die geplante mit der tatsächlichen Datennutzung in der betrieblichen Praxis übereinstimmt und wo es Abweichungen gibt. Dazu werden Muster in Datenoperationen erkannt. Aktives Metadatenmanagement nutzt
maschinelles Lernen, Datenprofiling und Graphanalysen, um die Relevanz und Gültigkeit von Daten zu bestimmen. Es ermöglicht Anwendern, ihre Datentools plattformübergreifend zu orchestrieren sowie Validierungsund Verifizierungsprozesse einzurichten. Probleme wie eine fehlerhafte Datenerfassung, eine unangemessene Nutzung oder logische Fehler sollen sich damit schnell erkennen und beheben lassen.
Eine Data Fabric stellt ein Datenverwaltungskonzept dar, auf dessen Basis sich flexible und wiederverwendbare Datenintegrations-Pipelines, -Dienste und -Semantiken umsetzen lassen sollen. Eine Data Fabric unterstützt operative und analytische Anwendungsfälle, die über unterschiedliche Bereitstellungs- und Orchestrierungsplattformen zur Verfügung stehen. Mithilfe von Metadaten, Wissensgraphen, Semantik und ML soll so die Datenintegration automatisiert und verbessert werden. Data Fabrics können Anwender dabei unterstützen, ihre Unternehmensarchitektur zu gestalten und weiterzuentwickeln. Sie abstrahieren die Datenverwaltungsinfrastruktur, ersetzen etablierte, starre Plattformen und ermöglichen so die Datenintegration und -bereitstellung unabhängig von Menge und Ablageort der Daten. Gartner zufolge kann eine Data Fabric:
Data Scientists bessere Einblicke bieten, wiederholbare Aufgaben in den Bereichen Datenintegration, Qualität und Datenbereitstellung automatisieren, semantisches Wissen für Kontext und Bedeutung hinzufügen und so angereicherte Datenmodelle bieten, sich zu einem selbstlernenden Modell entwickeln, das ähnliche Dateninhalte unabhängig von Form und Struktur erkennt, und Datenbestände hinsichtlich Optimierung und Kostenkontrolle überwachen.
In einem Realtime Incident Center werden Informationen aus verschiedenen Quellen zusammengeführt und visualisiert, um so bestimmte Situationen besser erkennen und schneller darauf reagieren zu können. Gartner zufolge handelt es sich dabei um eine Art Command-and-Control-(C2)-Dienst, der von öffentlichen Sicherheitsbehörden genutzt wird, um Reaktionen auf Notfälle und andere Ereignisse besser zu koordinieren.
Grundlage bilden Integrationen von Datenbanken, Sensor-, Video- und Kommunikationssystemen. Entsprechende Dienstanbieter offerieren Echtzeit-Ereignismanagement bereits als Service. Behörden können damit Fähigkeiten erlangen, die zuvor nicht möglich waren. Nutznießer sind Bürgerinnen und Bürger, die beispielsweise von besseren Notfallmaßnahmen profitieren.
Employee Communications Applications (ECAs) sollen es Unternehmen erlauben, ihre interne Kommunikation besser zu planen, zu analysieren und zu steuern. Basis dafür sind die zielgenaue Bereitstellung relevanter Inhalte, ein Bottom-up-Feedback an die Führungsebene und ein einheitlicher Zugriff auf wichtige Anwendungen. Gartner bezeichnet eine effektive Kommunikation in einer zunehmend digitalen Arbeitswelt als strategisch.
Schließlich gehe es darum, den Mitarbeitern das Gefühl zu geben, informiert und einbezogen
„Technologische Innovationen sind der Schlüssel, um sich im Wettbewerb abzusetzen und oft ein Katalysator, der ganze Branchen neugestaltet.“
Brian Burke, Vice President Gartner
zu sein. ECA erlaube den Führungskräften, mit ihren Mitarbeiterinnen und Mitarbeitern über mehrere Kanäle und Geräte zu interagieren sowie bestimmte personalisierte Zielgruppen zu segmentieren. ECA-Lösungen können sich positiv auf die Employee Experience auswirken, indem sie ein Gefühl der Zugehörigkeit schaffen, organisatorische Informationen bereitstellen und die Unternehmensziele stärken.
Technische Lösungen für mehr Wachstum
Auf Basis eines stabilen Kerngeschäft und eines ebenso stabilen IT-Kerns können sich Unternehmen um ihre kontrollierte Expansion kümmern. Das technologische Risiko sollte dabei laut Gartner grundsätzlich mit der wirtschaftlichen Risikobereitschaft des Unternehmens ausbalanciert werden. Wenn es gelinge, den mit Innovationen angereicherten IT-Kern zu skalieren, werde sich auch das Wachstum beschleunigen. Folgende Technologien könnten dabei unterstützen:
Multi Experience beschreibt eine harmonische digitale User Journey, die über eine Vielzahl digitaler Berührungspunkte wie zum Beispiel Website, mobile Apps, Conversational Apps, Augmented und Virtual Reality stattfindet. Dabei werden verschiedene Möglichkeiten der Interaktion kombiniert, sodass eine nahtlose und konsistente digitale User Journey erreicht wird.
Gartner spricht von einem geräteübergreifenden, multisensorischen und ortsunabhängigen Ambient-Computing-Erlebnis. Multiexperience (MX) sei das neue Omnichannel für eine DigitalFirst-Welt. Bis zum Jahr 2030 werde sich die digitale User Experience (UX) deutlich verändern. Das führe zu einer geräte-, standort- und berührungspunktübergreifenden digitalen Reise, erläutern die Analysten. Für Unternehmen werde es wichtig, Multiexperience zu verstehen, um digitale Erlebnisse von Kunden und Mitarbeitern richtig zu steuern. MX werde es Betrieben ermöglichen, flexibler zu sein und Nutzer individuell so zu bedienen, wie es ihren Bedürfnissen und Erwartungen entspreche.
Industry Clouds bieten geschäftliche und technische Cloud-Funktionen an, die auf bestimmte vertikale Branchen zugeschnitten sind. Diese Clouds zielen darauf ab, alle funktionalen, rechtlichen sowie technischen Anforderungen und Anwendungsfälle einer Branche zu erfüllen und dafür ein Gesamtlösungspaket anzubieten. Gartner zufolge könnten diese Angebote künftig stärker nachgefragt werden. Aktuell machten Cloud-Ausgaben nur etwa zehn Prozent der weltweiten IT-Ausgaben von Unternehmen aus.
Viele Betriebe nutzten einen oder mehrere Cloud-Services in verschiedenen Bereichen, was jedoch die Komplexität erhöhe. Für eine breitere Cloud-Akzeptanz seien vertikal ausgerichtete Gesamtlösungen erforderlich, die auf bestimmte Branchenszenarien und Prozessmodelle ausgerichtet seien. Sie würden besser funktionieren als technologieorientierte Lösungen, die die Unternehmen weitgehend selbst zusammenstellen und integrieren müssten. Gartner geht davon aus, dass die Grenzen zwischen etablierten Cloud-Diensten wie Infrastructure as a Service (IaaS), Platform as a Service (PaaS) und Software as a Service (SaaS) zunehmend verwischen.
AI-driven Innovation: Unter KI-gesteuerter Innovation versteht Gartner den Einsatz von KI-Technologien im Innovationsprozess von Betrieben. Mit KI-Techniken ließen sich viele Innovationen effizienter, schneller und zielgerichteter umsetzen. Sie können auch helfen, Trends zu identifizieren, Muster zu vergleichen oder Technologien zu scouten. Auch wenn es darum gehe, Ideen auf ihr Potenzial und ihre Praxistauglichkeit abzuklopfen, könne KI Unternehmen mithilfe von Simulationen unterstützen.
Quantum ML: Beim maschinellen Lernen (ML) mit Quanten werden Quantencomputer-Techniken eingesetzt, um das Training von ML-Systemen zu beschleunigen. Die Techniken rund um das neue Rechenparadigma stehen jedoch noch ganz am Anfang, räumen die Analysten ein. Es gebe zudem noch keine gesicherten Belege, ob und wie ML von Quantencomputern gegenüber herkömmlichen Alternativen profitieren könnte. Die Parallelität einiger ML-Techniken könnte das Quantencomputing jedoch zu einem interessanten Weg machen, den es weiter zu erforschen und im Blick zu behalten gilt, sagt Gartner.
Generative AI beschreibt KI-Techniken, bei denen aus Massendaten intelligente neue Artefakte erzeugt werden, die zwar eine Ähnlichkeit mit den Originaldaten aufweisen, im
Grunde aber völlig neu sind. Man stelle sich etwa einen leistungsstarken Rechner vor, der auf der Basis unzähliger Datenmengen aus der realen Welt das perfekte Auto entwirft.
Generative KI kann Gartner zufolge nicht nur Modelle von physischen Gegenständen, sondern auch ganz neuartige Medieninhalte (einschließlich Text, Bild, Video und Audio) erzeugen, oder auch synthetische Daten. Hilfreich sei diese Technik beispielsweise für das inverse Design von Materialien mit bestimmten Eigenschaften oder auch für die Erforschung von Arzneimitteln.
Eine Reihe von Branchen könnte davon profitieren: Gartner nennt Biowissenschaften, Gesundheitswesen, Fertigung, Materialwissenschaft, Medien, Unterhaltung, Automobilbau, Luft- und Raumfahrt, Verteidigung und Energie. Generative AI lasse sich zudem für kreative Arbeiten in den Bereichen Marketing, Design, Architektur und Medieninhalte einsetzen. Synthetische Daten, die damit erstellt werden können, verbesserten die Genauigkeit und Geschwindigkeit der KI-Bereitstellung.
Digital Humans sind interaktive, KI-gesteuerte Darstellungen, die die Persönlichkeit, das Wissen und die Denkweise eines Menschen zu haben scheinen. Sie sind digitale Zwillingsdarstellungen von Menschen, die in der Regel als Avatare, humanoide Roboter oder konversationelle Benutzerschnittstellen (zum Beispiel Chatbot, Smart Speaker) dargestellt werden. Grundlegende Techniken sind konversationelle Benutzeroberflächen, CGI und autonome 3DAnimationen.
Unternehmen könnten mit solchen digitalen Menschen eine Reihe neuer Geschäftsmodelle entwickeln, sagen die Gartner-Analysten. Anwendungsfälle gebe es in den Bereichen Personalschulung, Kommunikation, Kundenservice, medizinische Versorgung und Marketing. Betriebe seien mit der Technik nicht mehr auf den physischen Raum beschränkt, sondern könnten jederzeit, überall und an mehreren Orten gleichzeitig kommunizieren, interagieren, kaufen, verkaufen und lehren. Digitale Menschen sorgten für hochgradig personalisierte, individualisierte Erlebnisse an jedem Kundenkontaktpunkt. Gartner spricht an dieser Stelle bereits von einer regelrechten „Digital Human Economy“.
Wandel gestalten
Veränderungen werden traditionell eher als störend und chaotisch empfunden. Unternehmen können jedoch technologische Innovationen nutzen, um den Wandel aktiv zu gestalten und Ordnung in das Chaos zu bringen. Die Kunst besteht darin, die Anforderungen des Wandels zu antizipieren und sich darauf einzustellen, rät Gartner. Innovationen lassen sich an die Gestaltung des Wandels anpassen, aber, so warnen die Analysten: Die damit verbundenen Risiken müssen beherrschbar bleiben. Nur so lassen sich Veränderungsprozesse formen. Folgende Technologien helfen Unternehmen dabei:
Composable Applications sind modular aufgebaut, um Softwaresysteme individuell für bestimmte Anforderungen im Unternehmen komponieren und neu zusammenstellen zu können. Betriebe benötigen Gartner zufolge ein Anwendungsdesign, mit dem sie auf geschäftliche Veränderungen reagieren können. Ansonsten drohe die Gefahr, Marktdynamik und Kundenloyalität zu verlieren. Eine komponierbare Anwendungsarchitektur mache Unternehmen anpassungsfähiger. Flexibilitätseinschränkungen monolithischer Anwendungen ließen sich mithilfe von Composable Applications auflösen, indem sie Altapplikationen zunächst in eigenständige Geschäftsfunktionen zerlegen und dann die isolierten Funktionen mithilfe des Microservices-Modells mit API-/Ereignis-basierten Schnittstellen kapselt, erklärt Gartner. Aus Sicht der Analysten wird alles „composable“: Composable Applications, Composable Business, Composable Thinking, Composable Government und ...
Composable Networks bestehen aus einzelnen, wiederverwendbaren Netzfunktionen und -elementen, die sich leicht zusammensetzen und integrieren lassen sollen. Anwender
könnten so Netze mit modularen automatisierbaren Komponenten aufbauen, um so individuelle Anforderungen des eigenen Unternehmens erfüllen zu können. Gartner sieht generell einen stärkeren Trend hin zu mehr Modularität und Granularität, wie die Verbreitung von Microservices und Container-Technik gezeigt habe. Das werde auch die Technologie von Telekommunikationsnetzen verändern. Offene APIs würden dafür sorgen, dass sich Composable Networks mit anderen interoperablen Komponenten integrieren und nutzen ließen. Durch die Verwendung granularer und modularer Komponenten zum Aufbau einer Netzwerkarchitektur könnten sich zudem Workflows und Serviceketten schneller und einfacher zusammenstellen lassen.
Unter AI-augmented Design versteht Gartner den Einsatz von Technologien rund um künstliche Intelligenz (KI), Machine Learning (ML) und Natural Language Processing (NLP), um automatisch Benutzeroberflächen, Screendesigns, Inhalte und Code für digitale Produkte zu entwickeln. Websites, Apps und Software ließen sich damit in Minuten oder Tagen erstellen, statt wie bisher in Wochen oder Monaten. Anwender müssten genau genommen nur grundlegende Designprinzipien und Stilrichtlinien vorgeben, den Rest besorge AIaugmented Design. Die Technik steckt Gartner zufolge zwar noch in den Kinderschuhen. Die Analysten gehen jedoch davon aus, dass KI schon bald auf dem Markt für digitale Produktdesignplattformen zum Einsatz kommen wird und Anwender deutliche Vorteile hinsichtlich Effizienz, Qualität und Markteinführungszeit erzielen könnten.
AI-augmented Software Engineering (AIASE) unterstützt Software-Engineering-Teams mit Hilfe von KI-Technologien wie maschinellem Lernen (ML), natürlicher Sprachverarbeitung (NLP) und ähnlichen Techniken. Im Kern geht es darum, Anwendungen schneller, konsistenter und mit einer besseren Qualität zu entwickeln und bereitzustellen. AIASE wird Gartner zufolge in der Regel in die vorhandenen Tools integriert, um Entwicklern direkt im Programmierprozess in Echtzeit intelligentes Feedback und Vorschläge zu liefern. Gartner zufolge braucht es gerade in der Softwareentwicklung neue Ansätze. Viele Entwickler seien mit der Komplexität der modernen Software, die sie liefern müssen, überfordert. Außerdem gehe es in der Softwareentwicklung oft noch um das Schreiben von Standardcode. Dabei bleibe vielfach die Kreativität der Experten auf der Strecke, darunter leide die Produktivität.
Darüber hinaus müssten Entwickler meist mehrere Sprachen beherrschen, um komplexe Softwaresysteme umsetzen zu können.
AIASE könne bei der Lösung dieser Probleme helfen, indem es als intelligenter Assistent, Co-Programmierer, Expertencoach und Qualitätskontrolleur fungiere. Standardaufgaben der Softwareentwicklung würden automatisiert, die Entwicklungsgeschwindigkeit erhöht. Das funktioniere beispielsweise dadurch, dass die Tools bestimmte Code-Teile und Bibliotheken vorschlagen, die die Entwickler sonst erst mühsam suchen müssten. Qualitätsingenieure würden unterstützt, indem Tests automatisch erstellt werden. Darüber hinaus verbesserten AIASE-Modelle kontinuierlich ihren Nutzen, indem sie aus den regelmäßigen Interaktionen mit den Entwicklern und der Umgebung lernen.
Physics-Informed AI (PIAI) soll den digitalen KI-Kosmos stärker mit der physischen Welt verknüpfen. Dafür bezieht die Technik Prinzipien, Gesetzmäßigkeiten aus der analogen Realität in KI-Modelle ein. Mit der zunehmenden Bedeutung von KI steigen Gartner zufolge auch die Anforderungen an die Fähigkeit der KI, Probleme zu abstrahieren und ihren Kontext besser darzustellen. Rein digitale KI-Lösungen ließen sich allerdings nicht gut genug über die Trainingsdaten hinaus verallgemeinern, was ihre Anpassungsfähigkeit und damit auch ihre Aussagekraft einschränke. PIAI könne KI-Technik auf komplexe Systemtechnik und modellbasierte Systeme erweitern. Das sorge für eine zuverlässigere Darstellung des Kontexts und des physischen Produkts. Außerdem verringere sich die Trainingszeit und Daten würden effizienter genutzt.
Beim Influence Engineering (IE) geht es darum, digitale Erfahrungen, neudeutsch Experiences, automatisiert mithilfe von Algorithmen zu beeinflussen und zu steuern. Basis bilden dabei Erkenntnisse aus der Verhaltenswissenschaft, die erklären, wie Entscheidungen von Nutzern zustande kommen. Die Fülle an Datenquellen und die Möglichkeiten des maschinellen Lernens ermöglichten neue Systeme der Beeinflussung, sagt Gartner.
Durchbrüche in Bereichen wie der Erkennung von Emotionen und der Sprachgenerierung zeigten ein deutliches Potenzial zur Automatisierung wichtiger Aspekte der Kommunikation. Beispiele hätten bereits gezeigt, wie KI Voreingenommenheit und andere schädliche Auswirkungen verstärken könne. Genauso ließen sich aber auch Ziele für einen positiven sozialen Wandel beschleunigen. Die Analysten verweisen an dieser Stelle jedoch auch auf die Notwendigkeit neuer Formen der Governance, um die Forschung und den Einsatz von KI zu überwachen.
Digital Platform Conductor Tools (DPCT) helfen Anwendern dabei, die verschiedenen Infrastruktur-Tools zu koordinieren, die sie bereits für die Planung, die Implementierung, den Betrieb und die Überwachung ihrer Technologie- und Infrastrukturbasis im Einsatz haben. DPC-Tools bieten eine einheitliche
Sicht auf die zugrunde liegenden Technologien und ihre Verbindung zu den Anwendungen. Herkömmliche und hybride Tools für das Infrastrukturmanagement würden den Anforderungen der „Anywhere Operations“nicht mehr gerecht, sagt Gartner. Die Analysten sprechen von einem Composable Business, das sich laufend verändert und deshalb in seiner Steuerung flexibel sein muss. Die Herausforderung liege darin, Kosten zu optimieren und Risiken zu reduzieren. Die Verantwortlichen in den Unternehmen bräuchten Hilfe, um Lücken in Bezug auf Transparenz, Sicherheit und Koordination zu schließen. DPC-Tools können dabei helfen.
Named Data Networking (NDN) ist eine Architektur für das künftige Internet, die Datenblöcken eindeutige Namen (ähnlich wie URLs) zuordnet, die gespeichert, digital signiert und über Knoten hinweg übertragen werden können. Das derzeitige System transportiert Datencontainer (Pakete) zwischen zwei Endpunkten unter Verwendung einer IP-Adresse. NDN habe Gartner zufolge das Potenzial, einige der grundlegenden Schwächen des InternetProtokolls (IP) zu beheben, was zum Beispiel die Sicherheit und die effiziente Verteilung von Inhalten anbelangt.
NDN vereinfache die Verarbeitung und das Mining riesiger Datensätze, beispielsweise aus der Klimawissenschaft, Genomik oder dem Internet of Things (IoT). Da NDN alle Vorgänge wie die Weiterleitung von Anfragen an Datenquellen, die Erkennung von Inhalten, den Zugriff und das Abrufen von Inhalten unter Verwendung von Inhaltsnamen durchführe, entfalle die Notwendigkeit eines LokalisierungsLayers. NDN könnte einen großen Einfluss auf die Netzwerkindustrie haben, nicht nur auf
Router und Switches, sondern auch auf die Anwendungsschichten wie Suche, soziale Netzwerke und Webbrowsing, glauben die Analysten.
Self-integrating Applications nutzen eine Kombination aus automatischer Dienstsuche und Metadatenextraktion sowie automatischer Prozessdefinition und automatischer Zuordnung von Abhängigkeiten, um sich weitgehend selbstständig mit einem Minimum an menschlicher Interaktion in ein bestehendes Anwendungsportfolio zu integrieren. Das könnte Gartner zufolge den Integrationsaufwand neuer Anwendungen und Dienste in ein Anwendungsportfolio deutlich verringern. Dies sei nämlich meist komplex und teuer. Untersuchungen hätten gezeigt, dass bis zu 65 Prozent der Kosten für die Implementierung eines neuen ERP- oder CRM-Systems auf die Integration entfallen. Die Technologie für die Selbstintegration von Anwendungen steckt laut dem Analystenhaus allerdings noch in den Kinderschuhen. Noch keinem Anbieter sei es gelungen, alle dafür notwendigen Elemente erfolgreich zu kombinieren.