Fast zehn Jahre ist es jetzt her, dass die Analysten von Gartner Ende 2002 das Realtime Enterprise ausriefen. "Alles muss schnell gehen. Wir leben in einer Jetzt-Wirtschaft", postulierte Research Director Mark Raskino damals auf dem Gartner-Symposium in Cannes. Zeit entwickele sich immer mehr zu einem Wettbewerbsfaktor.
Raskinos flammendes Realtime-Plädoyer war als Weckruf für die gesamte Wirtschaft gedacht - nicht nur für die IT-Branche. Nach dem Platzen der Dotcom-Blase im März 2000 lag die weltweite Wirtschaft am Boden. Bilanzskandale und Pleiten wie die von Enron und Worldcom hatten die Börsen bis in die Grundfesten erschüttert. Angesichts des angezählten Finanzsystems herrschte in vielen Firmen ein strenges Spardiktat. Mehr leisten für weniger Geld - das war die Maßgabe die fast jeder CIO von seinem Finanzchef zu hören bekam.
Realtime für mehr Effizienz
Mit ihrer Idee vom Realtime-Business wollten die Gartner-Analysten zwei Fliegen mit einer Klappe schlagen: Auf Echtzeit getrimmte Prozesse sollten die Abläufe in den Unternehmen optimieren und so die Reaktionsgeschwindigkeit erhöhen. Die dafür nötige IT-Unterstützung sollte darüber hinaus die in Folge der Krise deutlich eingebrochenen Geschäfte der IT-Anbieter wieder ankurbeln.
Auch wenn der Begriff des Realtime-Enterprise in der Zwischenzeit nicht mehr so in Mode ist, hat das Thema nichts von seiner Aktualität eingebüßt. In gewisser Weise lassen sich sogar Parallelen erkennen. Auch heute stehen die von der Finanz- und Schuldenkrise gebeutelten Unternehmen unter dem Druck, ihr Business möglichst effizient abzuwickeln. In den Rankings der Business-Prioritäten, die Gartner regelmäßig veröffentlicht, dominieren seit Jahren Anforderungen wie:
-
das Wachstum beschleunigen,
-
neue Kunden gewinnen,
-
Kosten senken und Profitabilität erhöhen,
-
neue Produkte und Services entwickeln,
-
Effizienz und Prozesse verbessern.
Damit korrespondieren die Herausforderungen an die IT, mit denen sich die CIOs konfrontiert sehen. Im Hinblick auf eine bessere und effizientere Unterstützung aller Geschäftsabläufe steht vor allem das Thema Analytics und Business Intelligence seit Jahren ganz weit vorne in den Hausaufgabenheften der IT-Abteilungen. Dabei müssen die Verantwortlichen viele unterschiedliche Faktoren im Auge behalten.
Faktor 1: Zeit
Zumindest in Teilen haben die Firmen ihre Aufgaben bereits gelöst, lobt Arnold Picot, Lehrstuhlinhaber am Institut für Information, Organisation und Management an der Ludwig-Maximilians-Universität (LMU) München. "Was sich Unternehmen früher im Umfeld von Realtime nicht auszumalen wagten, ist heute schon weitgehend zur Normalität geworden." Gerade in B2C-Märkten sei es gang und gäbe, Informationen in Echtzeit zu erhalten und schnell darauf zu reagieren. Picot nennt als Beispiel das Einspielen kontextbezogener Werbung im Internet. Doch auch firmenintern sei ein Trend zu beobachten, Prozesse realtime auszurichten, beispielsweise in der Produktion durch die Verwendung von RFID-Tags oder den verstärkten Einsatz von Sensoren. Zudem nähere sich beispielsweise in der Logistik die Filialsteuerung einem Realtime-ähnlichen Modus an. Über moderne Scanner-Kassen im Handel würden die Lieferanten laufend darüber informiert, welche Waren verkauft werden, und könnten dementsprechend den Nachschub organisieren.
Manager müssen schnell reagieren
"Wir sehen viele Tendenzen, die stark in Richtung Realtime gehen", lautet die Bilanz von Picot. Das sei auch sinnvoll: "Grundsätzlich sollte der zeitliche Abstand zwischen dem Entstehen einer Information und der Reaktion darauf möglichst gering sein." Früher hätten die Verantwortlichen in den Unternehmen wichtige Zahlen erst mit großer Verzögerung zu Gesicht bekommen und damit erst spät erkennen können, in welchen Bereichen etwas schieflief. Liegen solche Zahlen zeitnah vor, kann das Management deutlich schneller reagieren und gegensteuern.
"Es ist aber nicht so, dass Unternehmen per se über alle Prozesse und Unternehmensbereiche hinweg realtime agieren müssen", schränkt Alexander Martin, Principal bei A.T. Kearney, ein. Ausgangspunkt müssten die Fragestellungen sein, die die Verantwortlichen gelöst haben möchten. Dafür gelte es zu überlegen, welche Daten notwendig seien - von jetzt, von gestern oder von vor einem Monat? "Es gibt Fälle, in denen Daten von gestern, wie man sie aus den allseits bekannten Batch-Prozessen kennt, völlig ausreichen", sagt Martin.
Realtime muss man erst lernen
Damit Realtime funktioniert, müssen verschiedene Rädchen innerhalb der Firmenabläufe passgenau ineinandergreifen, mahnt Picot. "Schnelligkeit in der technischen Informationserfassung und -verbreitung alleine bringt nichts, wenn man das nicht mit den entsprechenden Management-Prozessen verknüpft und in Einklang bringt." Das erfordere ein Umdenken. Viele Prozesse seien über die Jahre gewachsen und hätten sich eingeschliffen. Reaktionsfreudigkeit, Agilität und Flexibilität müssten Unternehmen deshalb auch erst lernen. "Realtime erhöht die Intensität" - Picot zufolge sind Mitarbeiter in aller Regel aus der Vergangenheit langsamere Reaktionen gewohnt. Sie müssten außerdem erst lernen, Wichtiges von Unwichtigem zu unterscheiden: "Nicht jede kleine Veränderung, die die Systeme anzeigen, ist wichtig."
Faktor 2: Daten und Information
Die Frage, wie Unternehmen an die wirklich relevanten Informationen kommen, bildet auch für Sebastian Hetzler, ehemals Berater am Malik Management Zentrum St. Gallen und heute Vorstand der Tonbeller AG, den Dreh- und Angelpunkt aller Realtime-Überlegungen: "Wir bekommen immer schneller immer mehr Daten." Doch damit wachse in erster Linie auch die Menge an irrelevanten Daten. Daher sei es für die Unternehmen umso wichtiger, aus den größer werdenden Datenströmen die relevanten Informationen herauszufiltern.
Der Stoff, aus dem die Infos sind
Dabei sei das herkömmliche Mainstream-BI allerdings meist wenig hilfreich, moniert Hetzler. Diese Lösungen seien vor allem darauf getrimmt, mehr Daten zur Verfügung zu stellen. In diesem Kontext sei es von Nachteil, dass Daten und Information zwei grundlegend unterschiedliche Dinge seien. "Daten sind der Stoff, aus dem Information entstehen kann", stellt der BI-Experte klar. "Aber Daten an sich sind noch keine Information."
Information ist für den Tonbeller-Vorstand das, was handlungsrelevant ist. Das scheint allerdings auf Anwenderseite teilweise noch nicht angekommen zu sein. Nach wie vor landeten auf den Tischen der Führungskräfte die altbekannten, zeitlich fix getakteten Reports, die genauso aussähen wie früher. "Wenn ich dort jedoch nichts Handlungsrelevantes finde, bringen mir meine ganzen Reports nichts", zieht Hetzler Bilanz.
Das Problem liege darin, dass mit dem heutigen Standard-Reporting die wirklich handlungsrelevanten Informationen eigentlich herausgeschnitten würden. "Vor lauter Durchschnittem und Verdichtungen sieht man das wirklich Wichtige nicht mehr", sagt Hetzler. Für ein effizientes Reporting müssten die BI-Systeme jedoch so ausgelegt sein, dass sie dem Management die wichtigen Veränderungen bewusst machen. Dafür sei wichtig, zunächst die maßgeblichen Kennzahlen zu definieren. Im nächsten Schritt müssten dann die Systeme so ausgerichtet werden, dass diese Kennzahlen derart dargestellt würden, dass für das Business handlungsrelevante Entwicklungen realtime zu erkennen seien.
Faktor 3: Automatisierung
In der organisatorischen Umsetzung von Realtime sieht Andreas Hufenstuhl, Head of BI bei CSC in der Central Region, indes noch Defizite: "Unternehmen sind meist intern dafür noch gar nicht aufgestellt." Technisch sei Realtime-Reporting zwar möglich. "Sitzt am Ende jedoch noch ein Mensch, der diesen Report erst lesen muss, dann funktioniert das Ganze schon nicht mehr." Realtime oder nicht - das hänge von den damit verbundenen Geschäftsprozessen ab. Nur wenn es der Prozess erlaube, ihn vollständig zu automatisieren, wie beispielsweise der Aktienverkauf oder -kauf bei Erreichen bestimmter Schwellwerte durch ein Broker-System, könne man von Realtime sprechen. Das bedeutet aus Sicht von Hufenstuhl allerdings auch, dass die Verantwortlichen Handlungsbefugnisse abgeben und in eine technische Komponente, nämlich das BI-System, verlagern. "Faktenbasierte Entscheidungsfindung ist primär ein Governance-Thema, das die Unternehmen häufig vergessen."
Auch aus Sicht von Matthias Kaiserswerth, Director und Vice President IBM Research, spielt der Aspekt der Automatisierung eine zunehmend wichtigere Rolle. Es werde in Zukunft darum gehen, viele Erkenntnisse möglichst automatisiert zu gewinnen und auf Basis der zur Verfügung stehenden Daten komplette Geschäftsprozesse zu automatisieren. Kaiserswerth nennt als Beispiel die intelligente Lagerverwaltung eines Einzelhändlers, die automatisch bei der Warenbestellung Faktoren wie das Wetter berücksichtigt.
Fingerspitzengefühl ist gefragt
In Sachen Automatisierung müssten die Verantwortlichen jedoch Fingerspitzengefühl beweisen, warnt Picot. Es gelte genau zu überlegen, welche Prozesse automatisiert ablaufen sollten und an welchen Stellen besser noch ein Mitarbeiter eingreifen können sollte. Außerdem führten Automatismen nur das aus, was vorher in die Systeme eingegeben werde, warnt der Professor. Da könne es immer wieder passieren, dass die Verantwortlichen Regeln revidieren und neu justieren müssen. "Unternehmen müssen sich auf der Metaebene viel mehr Gedanken machen."
Auch Tonbeller-Vorstand Hetzler mahnt die Unternehmen in Sachen Automatisierung zur Vorsicht. Sicher gebe es Bereiche, in denen der Rechner auch auf einer operativen Ebene entscheiden könne, beispielsweise beim Pricing von Flugtickets. Das seien keine Angebote, die jemand händisch autorisiere, dahinter steckten ausgefeilte Algorithmen. "In strategischen Entscheidungen des Managements lässt sich jedoch nichts automatisieren", stellt der Manager klar. Dennoch sei auch an dieser Stelle IT-Unterstützung wichtig. Die Systeme sollten Veränderungen im Idealfall realtime anzeigen. Außerdem ließen sich mit Hilfe von Simulationen verschiedene Handlungsoptionen evaluieren.
Faktor 4: Predictive Analytics
Die BI-Systeme könnten sich also grundsätzlich wandeln. "Wir werden in Zukunft nicht mehr von Business Intelligence sprechen", prognostiziert IBM-Mann Kaiserswerth. BI sei im Grunde nur eine gute Visualisierung von Daten. "Die Zukunft heißt Analytics und Optimization."
CSC-Manager Hufenstuhl geht davon aus, dass sich BI stark in Richtung Predictive Analytics, also Vorhersagen und Prognosen, bewegen wird. Viele Unternehmen hätten festgestellt, dass es gar nicht so wichtig sei, drei Tage nach Monatsende die exakte Kundenzahl zu wissen. Viel interessanter sei es dagegen, schon Mitte des Monats zu erfahren, ob es mehr oder weniger würden. "Es gilt, früh Entwicklungen zu erkennen, in welche Richtung sich Kennzahlen bewegen", sagt der CSC-Experte. "Dann kann man auch rechtzeitig darauf reagieren."
Auch für Hetzler bilden Realtime-Informationen den Schlüssel dafür, in einem komplexer werdenden Umfeld bestehen zu können: "In einer Welt, die sich immer schneller verändert, ist der Wert von Vergangenheitsinformation sehr gering." Nur in stabilen Phasen lasse sich gut mit Daten aus der Vergangenheit arbeiten.
Doch gerade im Big-Data-Zeitalter müsse es schnell gehen, fordert CSC-Experte Hufenstuhl. "Daten haben eine sehr kurze Halbwertszeit", sagt der BI-Experte. "Analystenbewertungen und Facebook-Einträge von vor zwei Wochen sind uninteressant." Information sei nur für einen begrenzten Zeitraum nutzbar. Für die Unternehmen gehe es deshalb in erster Linie darum, Echtzeitdaten zu verarbeiten.
Faktor 5: Big Data
Für Hufenstuhl spielt daher das Thema Realtime-BI eher eine Nebenrolle. Wichtiger sei für ihn in Bezug auf das rasante Wachstum strukturierter und unstrukturierter Daten das Thema Realtime Data. Gerade hinsichtlich der aktuellen Trends rund um Big Data dürften Anwender diesen Aspekt nicht unterschätzen. Unter dem Schlagwort Big Data lassen sich zwei Punkte zusammenfassen:
-
Die Entwicklung dahin, dass die Unternehmen mit immer größeren Datenmengen umgehen müssen. Dabei handelt es sich nicht mehr nur um strukturierte Daten aus den klassischen relationalen Datenbanken. Künftig machen wenig strukturierte und polystrukturierte Daten wie Texte, Bilder und Videos den Löwenanteil der anfallenden Informationen aus.
-
Das Bereitstellen von Methoden und Werkzeugen, um die Datenflut zu kanalisieren sowie vor allem zum Nutzen des eigenen Geschäfts sinnvoll auszuwerten.
Aus Sicht von Kaiserswerth wird es für das kommende Big-Data-Zeitalter neue Systeme und Technik brauchen: "Um mit der Komplexität und den riesigen Datenmengen umgehen zu können, werden wir Computer bauen müssen, die in der Lage sind, selbständig zu lernen, wie sie Erkenntnisse aus diesen Daten gewinnen können." Dafür arbeitet IBM dem Wissenschaftler zufolge an einer komplett neuen Prozessorgeneration. Neuronale Chips sollen dem menschlichen Gehirn aus Neuronen und Synapsen ähneln und entsprechend funktionieren. Kaiserswerth nennt als Beispiel den assoziativen Speicher bei der Mustererkennung: "Ich sehe einen Bekannten und weiß sofort, wer das ist." Der Mensch suche nicht erst in einer Datenbank, "so funktioniert das menschliche Gehirn nicht". Das auch in der IT umzusetzen werde in Zukunft verstärkt der Trend sein.
Big Data braucht Business Case
Allerdings gibt es bereits heute etliche IT-Lösungen für Big Data, sagt Hufenstuhl, mit denen sich beispielsweise Internet-Kanäle anbinden oder strukturierte mit unstrukturierten Daten verknüpfen ließen. Darüber hinaus verweist der CSC-Manager auf großvolumige Storage-Systeme, leistungsfähige In-Memory-Lösungen und Cloud-Angebote, die hohe Rechenkapazitäten für Analysen anbieten. Viele Anbieter stimmten ihre Lösungen auf Big-Data-Anforderungen ab. Als Beispiele nennt er Oracle Exadata oder Netezza von IBM. Diese Lösungen, schränkt Hufenstuhl ein, sind jedoch nicht preisgünstig: "Es geht dabei um relativ hohe Investitionen", und das ist das Problem für die Anwender. Zwar gebe es durchaus Anwendungen und Konstellationen, bei denen sich die Investition in Big-Data-Lösungen rentieren könne, "es ist aber nicht einfach, die lohnenden Anwendungsfelder zu finden". Ein solches Feld könnten beispielsweise anonymisierte Bewegungsmuster von Mobilfunkgeräten sein, die sich für Verkehrsprognosen auswerten ließen. Dieser mögliche Anwendungsfall sei aber unter BI-Gesichtspunkten noch gar nicht analysiert worden.
Faktor 6: Das BI-System
Welchen Einfluss die neuen Analytics-Paradigmen auf die klassischen BI-Architekturen haben werden, ist noch nicht abzusehen. Anwender stellten Komponenten wie das Data Warehouse jedoch zunehmend in Frage. Eine Zeit lang habe man versucht, allwissende Data Warehouses (DWs) zu bauen, in denen alle Daten zusammenfließen sollten, so Volker Bay, Leiter des Bereichs Information Management bei Accenture. "Heute hat sich die Erkenntnis durchgesetzt, dass es so etwas nicht gibt."
Aus Sicht von Hufenstuhl passt das klassische DW auch nicht zum Realtime-Paradigma. "Jedes Mal, wenn das System Daten kopieren muss, geht Zeit verloren - und seien es nur Sekunden." Jede Form von Redundanz erzeuge Kosten und ein Zeitdefizit. "Die Realtime-Bewegung wird sich auf die Architektur der bestehenden DW-Lösungen auswirken und stellt höhere Anforderungen an die Ladeprozesse." Echtzeitverarbeitung bedeute, einfache Analytics wieder stärker in die operativen Systeme zu verlagern. Hufenstuhl verweist in diesem Zusammenhang auf In-Memory-Lösungen wie SAPs HANA, die Daten direkt aus den operativen Systemen verarbeiten. "Letztlich braucht man dann für viele Realtime-Berichte kein Data Warehouse mehr." (Computerwoche)