Capgemini Tech-Ranking
Die Tops und Flops der Manager
Aufwändiges Omnichannel-Management
Auf dem 32. und damit viertletzten Rang liegt die inzwischen recht weit verbreitete Nutzung Omnichannel-fähiger Workflows. Capgemini weist daraufhin, dass solche Vorhaben hauptsächlich für Unternehmen mit direktem Kontakt zum Endkunden und hohem Kommunikationsaufkommen interessant seien. Das trifft nicht auf alle Umfrageteilnehmer zu, weshalb hier ein verzerrtes Bild entstehen kann.
Omnichannel-fähige Workflows setzen voraus, dass die Betriebe Altsysteme ablösen oder anbinden, neue Anwendungen integrieren und organisatorische Abläufe ändern - viel Aufwand also, der hier zu betreiben ist. Hinzu kommt, dass oft auch die bereichsübergreifende Steuerungslogik vereinheitlicht werden muss. Manches Unternehmen ist in solche Projekte hineingestolpert und hat die damit verbundenen Veränderungen unterschätzt. Laut Capgemini lohnt sich der Aufwand aber: Ein Erfolg verspreche effizientere Arbeitsabläufe, verkürzte Bearbeitungszeiten, geringere Kosten und größere Kundenzufriedenheit.
Blockchain bleibt ein Exot
Mit der Blockchain-Technologie können die Befragten überwiegend immer noch wenig anfangen, sie hat es nur auf den 33. Rang geschafft. Bekannt aus dem Finanzwesen, lässt die Distributed-Ledger-Technologie immerhin ihr theoretisches Potenzial für andere Bereiche erkennen: Im Supply-Chain-Management etwa könnte sie helfen die Lieferketten transparent zu machen, oder sie könnte dazu beitragen, Serviceprozesse zu automatisieren. Tatsächlich befindet sich ihr Einsatz aber immer noch im Experimentierstadium: Rund 27 Prozent der Studienteilnehmer planen oder implementieren derzeit Lösungen.
Den Einsatz erschweren die fehlende Interoperabilität mit Altsystemen und die mangelnde Integration in die Anwendungen von Partnern entlang der Wertschöpfungskette. Außerdem ist noch nicht klar, wann und in welchem Maße sich die Blockchain-Investitionen auszahlen. Laut Capgemini werden Unternehmen reifere Lösungen in Bezug auf StandardisierungStandardisierung, unternehmensübergreifende Integration und Sicherheit anstreben. Die Technologie werde erst in einigen Jahren in die breitere Anwendung gehen. Alles zu Standardisierung auf CIO.de
Der Mensch wird noch nicht nachgebaut
Kommen wir zum vorletzten, 34. Platz: Cognitive Computing für die Steuerung von Geschäftsprozessen. Die Marktforscher meinen damit Computermodelle oder -systeme, die Technologien wie Deep Learning oder Data Mining nutzen, um menschliche Lern- und Denkprozesse zu simulieren. Kognitiv arbeitende Systeme werden nicht zur Lösung konkreter Probleme programmiert, sie entwickeln eigenständig Lösungswege durch die statistische Analyse großer Datenmengen in hoher Geschwindigkeit.
Ziel ist es, dass solche Systeme in Echtzeit mit ihrer Umgebung interagieren und so zum Beispiel Geschäftsprozesse steuern. Als noch junge Technologie werden kognitive Systeme derzeit beispielsweise für die Optimierung von Suchmaschinen oder zur Unterstützung von medizinischen Diagnosen eingesetzt. Derzeit planen aber nur wenige Teilnehmer, sich in absehbarer Zeit intensiver damit zu beschäftigen.
AI Ops steht noch am Anfang
Das Schlusslicht unter den Trendtechnologien bildet der algorithmische IT-Betrieb (AI Ops), der wie Cognitive Computing noch ganz am Anfang steht. Gemeint sind Plattformen zur Automatisierung des IT-Betriebs, die Daten und maschinelles Lernen einsetzen, um intelligent Entscheidungen zu fällen. Auf diese Weise sollen verschiedene IT-Tätigkeiten automatisiert werden, außerdem geht es darum, sehr schnell auf kritische Situationen zu reagieren.
Im Moment setzt sich allerdings nur etwa jedes fünfte Unternehmen intensiver mit solchen Technologien auseinander. Käme es hier zu größeren Fortschritten, würde das den IT-Abteilungen die Chance bieten, unabhängig von fachlichen Anforderungen Erfahrungen mit intelligenten Technologien zu sammeln. Außerdem könnte AI Ops dazu beitragen, die zunehmende Komplexität der IT-Landschaft besser zu beherrschen.
Manche Rohrkrepierer sind gar keine
Die Technologien am Ende des Rankings müssen dort keineswegs bleiben: In den vergangenen Jahren haben sie teilweise große Sprünge nach vorne gemacht. Die Digitale Geldbörse etwa bekam mit dem Start von Apple Pay in Deutschland und der Schweiz mächtig Aufwind und findet sich nun bereits im Mittelfeld der Prioritätenliste. Ähnlich verhält es sich mit Virtual-Reality-Lösungen oder der Digital-Twin-Technologie.
Am deutlichsten war der Bedeutungszuwachs beim erstplatzierten Thema Security Automation und der noch relativ neuen Cognitive Security. Unternehmen setzen darauf, mithilfe von intelligenten, selbstständig agierenden Abwehrmechanismen die Sicherheit zu erhöhen, ohne dass der Aufwand dafür wächst. Auch IoT-fähige Endgeräte sind angesichts der zunehmenden Umsetzung von Industrie-4.0-Vorhaben in den Fokus gerückt.
Dass der Umgang mit Daten und deren Verwertung wichtiger wird, überrascht angesichts des Megatrends Digitalisierung ebenso wenig wie die zunehmende Bedeutung des Managements von Metadaten. Die auszuwertenden Datenmengen steigen unaufhörlich, deshalb plant bereits jedes vierte Unternehmen, die Cloud als Infrastruktur für seine Business-Intelligence-Aktivitäten zu nutzen.
Serverless und Infrastructure-as-Code
Vor diesem Hintergrund wird auch Serverless Computing immer wichtiger: Hier wird die Infrastruktur noch weiter abstrahiert wie bei einer als Service bereitgestellten Plattform. Anwender müssen sich nicht mehr um die Einrichtung, Provisionierung und Skalierung ihrer Laufzeitumgebungen kümmern. All das übernimmt der Anbieter für sie.
Ermöglicht wird diese Flexibilität unter anderem durch Infrastructure-as-Code (IaC). Die Konfiguration der Maschine wird als Code hinterlegt, so dass jede Änderung nachvollziehbar wird und viele Server gleichzeitig eingerichtet oder verändert werden können. IaC spielt auch eine entscheidende Rolle bei der Umsetzung von DevOps, das - wie bereits ausgeführt - von immer mehr Unternehmen genutzt wird.
Im Bereich Prozesse und Anwendungen haben Business Activity Monitoring und Preventive Maintenance stark an Bedeutung gewonnen. Für die automatische Überwachung von Prozessen stehen damit Daten zur Verfügung, mit deren Hilfe sich Schwachstellen erkennen und beheben lassen, noch bevor es zu Ausfällen kommt. Dass auch der Aufbau neuer Plattformen und Open APIs wichtiger werden, hängt mit gesetzlichen Vorgaben wie PSD2, aber auch mit dem steigenden Digitalisierungsgrad und der tieferen Vernetzung von Prozessen zusammen.