Nina Wegner ist überzeugt: "Unternehmen erkennen, dass sie vor tief greifenden Veränderungen stehen. Rund drei Viertel verstehen die Realtime-Economy als einen echten Paradigmenwechsel, der die Unternehmensstrategie, Geschäftsprozesse und vor allem die IT betrifft." Die Geschäftsführerin von BT Germany macht diesen Paradigmenwechsel in Konzernen an konkreten Kundenprojekten fest, bei denen Abläufe, die früher Tage gebraucht haben, auf Stunden oder Minuten verkürzt werden konnten. "Das stellt entsprechend höhere Anforderungen an die Netzwerk- und IT-Infrastruktur."
Deutsche Konzerne geben Gas
Zu ihren Erkenntnissen kommt Wegner aufgrund einer aktuelle Studie der Experton Group, die BT in Auftrag gegeben hat. Danach gewinnt Geschwindigkeit immer mehr Bedeutung für den Erfolg von Unternehmen. Die Faktenlage ist klar: Bei rund einem Drittel der Befragten (32,8 Prozent) haben sich die Geschäftsprozesse in den vergangenen zwei Jahren erheblich beschleunigt und vernetzt. In rund sechs Prozent der Firmen erreichen sie bereits Echtzeittempo. Bis 2015 rechnet schon ein Zehntel der Entscheider (10,2 Prozent) mit einer Beschleunigung auf Echtzeitgeschwindigkeit.
Knapp 42 Prozent der Studienteilnehmer glauben, dass Tempo und Vernetzungsgrad der Geschäftsabläufe weiter stark steigen werden. Von geringfügig beschleunigten und vernetzten Prozessen geht ein gutes Drittel (34,6 Prozent) aus, und nur 13,4 Prozent erwarten, dass ihre Geschäftsprozesse weitgehend unverändert ablaufen werden.
Die Folgen dieser Entwicklung für die Unternehmen beschreibt Luis Praxmarer, Global Research Director bei der Experton Group, so: "Um Geschäftsabläufe in Echtzeit zu realisieren, müssen die Unternehmen Prozesse intelligenter gestalten. Das beginnt bei der Planung und geht über Entwicklung, Produktion und Auslieferung bis hin zum fertigen Produkt sowie den damit verbundenen Serviceprozessen. Denn solange die Intelligenz nur in den Köpfen der Mitarbeiter sitzt, geht zu viel Zeit an der Schnittstelle zwischen Mensch und Maschine verloren."
Gelingt es hingegen, die im Laufe eines solchen Prozesses anfallenden Daten unabhängig von ihrer Herkunft und Beschaffenheit zentral zu erfassen, auszuwerten und allen beteiligten Instanzen die für sie relevanten Informationen automatisiert zu übermitteln, entstehen sich selbst steuernde Regelprozesse, in die der Mensch nur noch bei grundsätzlichen Änderungen eingreifen muss. Graduelle Unterschiede, beispielsweise in der Bedarfssituation oder in der Verfügbarkeit von Ressourcen, werden indessen automatisch registriert und ausgesteuert.
Unter dem Label "Industrie 4.0" haben solche Veränderungen bereits Eingang gefunden in ein neues Wirtschaftsmodell, das vor allem durch die Vernetzung von Mitarbeitern, Infrastruktur und Produkten gekennzeichnet ist und insbesondere dem Fertigungsstandort Deutschland neue Perspektiven für die wirtschaftliche Entwicklung eröffnen soll.
Glaubt man BI-Experten wie Wolfgang Martin, dann sind Leuchtturmprojekte aus deutscher Fertigung bereits auf den Straßen der Welt unterwegs: "Das Beste und bekannteste Beispiel dafür ist das fahrerlose Auto, wie es ja bereits von Firmen wie Mercedes, Bosch, aber auch Google präsentiert wurde." In Form der Einparkautomatik habe das Prinzip bereits Serienreife erreicht.
Beispiel Autoindustrie
Dabei entfalten sich zwei wesentliche Faktoren von Analytik: Sensoren und die Vernetzung von Daten aus unterschiedlichen Quellen. Wenn das Auto mit 100 Stundenkilometern auf der Autobahn unterwegs ist, kommen eine Menge Daten zusammen, die permanent von den vielen Sensoren im Auto erfasst werden - gegebenenfalls auch noch von anderen Autos davor und dahinter. Diese Daten müssen in Echtzeit ausgewertet werden, um das Auto zu steuern, damit es die Spur hält, einem Hindernis auf der Fahrbahn ausweichen kann und die richtige Abfahrt nimmt.
Intelligenz ist nicht so teuer
Auch Daniel Holz, Leiter Vertrieb Manufacturing & Automotive und Mitglied der Geschäftsführung SAP Deutschland, hält solche Leuchtturmprojekte für zukunftsweisend. Er sagte auf einer Podiumsdiskussion der Messe IT & Business im September dieses Jahres in Stuttgart: "Im Kontext von Industrie 4.0 geht es darum, die Produkte der Fertigungsindustrie intelligent zu machen. Nicht intelligent als individuelle Maschine - das gibt es schon lange. Sondern vernetzt intelligent, mit anderen Maschinen, Systemen und Menschen. Als Teil der sogenannten Smart Factory."
Intelligente Kommunikation muss dabei nicht teuer sein. Die Daten gibt es meistens bereits. Allerdings ist die Umsetzung von Echtzeitprozessen in der Praxis nicht ganz so einfach. Intelligenz in Prozessen und Produkten verlangt nach dem Erfassen, Vernetzen und Auswerten von Massendaten aus unterschiedlichen Quellen in Echtzeit. Der Blick in die Unternehmenspraxis zeigt, dass es hier einigen Optimierungsbedarf gibt.
Ein Problem ist, dass zwar bei modernen Maschinen prozessrelevante Daten an der Maschine digital vorliegen, es aber noch an Standards fehlt, um die wachsende Zahl der mit Sensoren erfassten Zustände von Materialien, Anlagen und Umwelt systemübergreifend kommunizierbar und auswertbar zu machen.
Hinzu kommt, dass an vielen Abläufen auch ältere Maschinen und Anlagen beteiligt sind, die das benötigte Datenmaterial nicht oder nicht in der nötigen Geschwindigkeit bereitstellen. So gehört es beispielsweise in der Logistikbranche heute zu den Standardanforderungen, dem Kunden ein Tracking zu ermöglichen, ihm also auf Wunsch jederzeit anzugeben, wo sich seine Sendung gerade befindet.
Telematikanbieter stellen dafür Flotten-Management-Lösungen bereit, die dem Spediteur neben den GPS-Daten seiner eigenen Lkws auch Informationen über Staus auf der Strecke liefern und deren Auswirkungen auf die Ankunftszeit errechnen. Auf der "letzten Meile" jedoch, wo häufig Kleintransporter oder Pkw von Subunternehmern genutzt werden, fehlt diese Transparenz häufig, weil die Fahrzeuge nicht über eine entsprechende Ausrüstung verfügen.
Echtzeit ist relativ
Hier beginnt die zweite große Aufgabe auf dem Weg zu einer Echtzeitwirtschaft: die Vernetzung der Daten. Daran sind verschiedene Ebenen der IT- und Kommunikationsinfrastruktur beteiligt, wie Rüdiger Spies, Industry Analyst bei Pierre Audoin Consultants (PAC), erläutert: "Wenn Prozesse in Echtzeit laufen sollen, muss auch die Übertragung der Daten in Echtzeit erfolgen. Dabei spielt die Entfernung zwischen Komponenten, die am laufenden Prozess beteiligt sind, immer noch eine wesentliche Rolle."
Ein weiterer Einflussfaktor sei die Art der Übertragung. Je nachdem, ob per Funk oder Kabel, unterscheiden sich die Verbindungen nicht nur in der Bandbreite, sondern auch in ihrer Ausfallsicherheit. Darüber hinaus gilt es zu beachten: Echtzeit ist nicht gleich Echtzeit. So gelten die bei einer Suchmaschinenanfrage üblichen Antwortzeiten von einer halben Sekunde den meis-ten Benutzern als Echtzeit, während dieser Begriff bei Mikrobohrungen in der Fertigung von Einspritzdüsen für Verbrennungsmotoren eine Spanne von wenigen Nano-sekunden bezeichnet.
Vor diesem Hintergrund werden auch die Unterschiede in der Nutzung von Echtzeitanalysen durch Unternehmen verständlich, so Spies: "In der Fertigung fungiert die Echtzeitanalytik hauptsächlich als Werkzeug für die Überwachung der Prozesse. Anders in der Bank: Hier werden bereits heute Daten in Echtzeit auf Unregelmäßigkeiten hin analysiert, um potenziell missbräuchliche Nutzung von Kreditkarten zu unterbinden."
Was übrigens Daten "big" macht, ist nicht ihre Menge, sondern der Nutzen für den jeweiligen Prozess. So etwa im Straßenverkehr der Zukunft, wie Wolfgang Martin ihn sieht: "Da kommunizieren die Autos als intelligente Produkte untereinander und tauschen Informationen so aus, dass etwa beim Bremsen nachfolgende Autos automatisch mit abgebremst werden - ohne dass sich der Abstand verringert."
Ein weiteres Problem der Echtzeitwirtschaft besteht in der Menge unterschiedlicher Datentypen im Unternehmen. Insbesondere die Verknüpfung von strukturierten und unstrukturierten Daten spielt hier eine Rolle. Mit herkömmlicher Datenbanktechnik ist dies nicht zu bewerkstelligen - vielmehr ist dafür In-Memory-Technik erforderlich, die den Einsatz von 64-Bit-Prozessoren voraussetzt. In Anwendungsunternehmen gehört diese Technik noch nicht zum Standard.
Mit Industrie 4.0 vor dem Umbruch
In-Memory-Technik ist auch deshalb noch wenig verbreitet, weil viele Firmen vor der Anschaffung neuer Hardware alternativ über den Bezug von Infrastructure as a Service nachdenken. Aus Sicherheitsbedenken verzögern sie dann Investitionen, die sie auf dem Weg zum Realtime Enterprise voranbringen könnten.
Dieter Spath, seit 1. Oktober Vorstandsvorsitzender der Wittenstein AG, hatte als Leiter des Fraunhofer-Instituts für Arbeitswirtschaft und Organisation (IAO) die Chancen eines Realtime Enterprise so beschrieben: "Mit Industrie 4.0 stehen wir vor einem Umbruch: dem flächendeckenden Einzug von Informations- und Kommunikationstechnik sowie deren Vernetzung zu einem Internet der Dinge, Dienste und Daten.
Dies ermöglicht eine Echtzeitfähigkeit der Produktion." Autonome Objekte, mobile Kommunikation und Echtzeitsensorik würden neue Paradigmen der dezentralen Steuerung und Ad-hoc-Gestaltung von Prozessen erlauben. Spath: "Die Fähigkeit, schnell und flexibel auf Kundenanforderungen zu reagieren und hohe Variantenzahlen bei niedrigen Losgrößen wirtschaftlich zu produzieren, wird zunehmen und die Wettbewerbsfähigkeit weiter erhöhen."