HP-intern wird die Beratungsabteilung von Bernd Mußmann inzwischen das „Wow-Team“ genannt. Jedes Mal, wenn der Principal Consultant Information Management & Analytics bei HP Enterprise Services oder einer seiner Kollegen von einer sogenannten Big-Data-Verprobung zurückkommt, hat er ein Glänzen in den Augen, weil er wieder einmal den Wow-Effekt erzeugen konnte. Der kommt immer dann, wenn der Kunde dank der erarbeiteten Zwischenergebnisse eine völlig neue Idee für seine Produkt- oder Geschäftsentwicklung erkennt, die ihm bislang verwehrt blieb. Mußmann: „Jede Woche gibt es ein Wow, wenn Fragen beantwortet werden, von denen man vorher nicht geglaubt hatte, dass man sie überhaupt stellen darf“.
Neu: „Big Data auf Probe“
Big-Data-Verprobung ist so etwas ähnliches wie ein Testlauf für Big Data, der es Unternehmen ermöglicht, Big-Data-Discovery-Anwendungsfälle in wenigen Wochen zu pilotieren. Dabei werden mögliche Investitionen in Big-Data-Projekte vorher validiert, Erfahrungen für eine Big-Data-Produktivumgebungen für Unternehmensinnovationen gesammelt und Business Cases erstellt. Falls sich die Big-Data-Anwendungsfälle als aussichtsreich für die Unternehmensziele erweisen, kann eine sehr schnelle Überführung der Pilot- in eine Produktivumgebung erfolgen. HP nennt dieses Zusammenspiel aus Beratung, Service und Technologie Big Data Discovery Experience (BDDE).
Wow: Die Fans diskutieren über die Frau des Rennfahrers
„Die Verprobung von Big Data ist wie das Qualifying bei der Formel 1: Wer hier gut aufgestellt ist, hat die besten Chancen im Rennen“, erklärt Mußmann. Der Vergleich mit dem Rennsport ist passend, denn bei Big Data geht es darum, größte Mengen von komplexen und unstrukturierten Daten in Höchstgeschwindigkeit zu analysieren, so dass der Kunde in der Lage ist, neue Erkenntnisse daraus zu gewinnen und schnell auf Veränderungen im Markt zu reagieren. Ein Beispiel aus dem US-amerikanischen Formel-1-Pendant, dem NASCAR-Rennsport, zeigt die Unmittelbarkeit bei der Erkenntnisgewinnung: Während der TV-Übertragung eines Stock-Car-Rennens kam es zu einer regenbedingten Unterbrechung. Normalerweise springen die TV-Zuschauer dabei massenhaft vom Programm ab. Da der NASCAR-Motorsportverband jedoch eine Big-Data-Verprobung durchführte, bei der die Inhalte sämtlicher Ereignisse rund um das Rennen auf Twitter, Facebook und anderen Medien in Echtzeit analysiert wurden, konnte der TV-Sender verfolgen, welche Themen die Zuschauer zu Beginn der Rennunterbrechung am meisten beschäftigten.
Anders als vielleicht erwartet, befassten sich die Fans nicht mit den Fahrzeugen oder dem bisherigen Rennverlauf, vielmehr stellte sich heraus, dass online ein extrem starkes Interesse an einem bestimmten Fahrer und speziell an dessen Ehefrau aufkam. Der Redakteur reagierte prompt, nahm das Thema auf und konnte die Überbrückung der Sendezeit so interessant gestalten, dass die Zuschauer dabei blieben, bis das Rennen weiterging. Einen weiteren Höhepunkt erzielte die Sendung dank Big-Data-Analyse, indem sie einen Fan, der sich bei dem Thema stark engagierte, identifizierte, kontaktierte und ins Fahrerlager einlud. Als das Rennen fortgesetzt wurde, war die Begeisterung groß: „Wow, wir hätten nicht gedacht, dass hier so viel Potenzial drinsteckt“, sagten die TV-Leute. Denn sie hatten nicht nur erfolgreich die Sendezeit überbrückt, sondern das immense Potenzial erkannt, das in der Interaktion mit den Fans steckt, indem sie unmittelbar auf deren Bedürfnisse eingingen und damit den Identifikationsgrad ihrer Marke stärken konnten.
„Wir kopieren menschliches Wissen in eine Technologie“, beschreibt Mußmann die Big-Data-Verprobung, „deshalb können wir in Echtzeit analysieren und eine Gesamtauswertung aller aktuellen Rückmeldungen erstellen“. Kein Redakteur könnte die laufenden Feedbacks und Hundertausende Informationen, die über die sozialen Medien gepostet werden, erfassen und in kürzester Zeit priorisieren. „Das Verstehen erledigt unsere Software“, sagt Mußmann, der die größte Qualität einer Big-Data-Lösung darin sieht, dass sie in der Lage ist, Themen vorzuschlagen.
Schrittweise Annäherung verhindert „Big-Data-Gräber“
Was Mußmann mit seinem „Wow-Team“ täglich macht, ist mehr als die Vermarktung einer Technologie: Der Beratungsansatz steht im Vordergrund. Das Team arbeitet nach einer iterativen Methode durch Nutzung eines progressiven, auf die schrittweise Verbesserung einer Big-Data-Lösung ausgelegten Frameworks. Erst im zweiten Schritt erfolgt dann die technische Umsetzung über die Big-Data-Analytics-Plattform. Auf ihr werden die definierten Big-Data-basierenden Anwendungsfälle und Innovationen für einen vorgegebenen Zeitraum von wenigen Wochen pilotiert. „Damit verhindern wir, dass sich Unternehmen mit Big Data Kostengräber schaufeln, die ihnen keinen oder zu wenig Mehrwert bieten“, sagt Mußmann.
Tatsächlich schrecken viele Unternehmen vor Big-Data-Projekten zurück, weil ihnen der Kostenaufwand zu hoch ist, das Risiko zu unkalkulierbar und der Nutzen für das Business nicht klar wird. Die Big-Data-Verprobung liefert darauf konkrete Antworten: Die Investitionen liegen bei einem Bruchteil einer ganzheitlichen Projektierung, wodurch sich das Risiko einer Fehlinvestition minimiert. Der iterative Beratungs- und Entwicklungsansatz zeigt auf, ob und wie sich das Projekt rechnet, er kreiert darüber hinaus auch noch die beliebten Wow-Effekte für neue Geschäftsideen und künftigen Mehrwert.
CIOs müssen mehr über ihre Kunden wissen
Eine Verprobung kommt für alle Industrien infrage, bei denen sehr große Datenmengen zur Verfügung stehen und diese für die Geschäftsentwicklung eingesetzt werden können. Damit ist Big Data nicht in erster Linie ein Thema für den CIO, die Nachfrage kommt vielmehr aus den Fachabteilungen, sprich dem Business. Gefordert ist die IT- Abteilung dennoch, denn von ihr erwarten die Fachabteilungen technische Hilfestellung bei der Entwicklung von Businesscases und der Prozessautomatisierung sowie bei allen Themen rund um die IT-Sicherheit. Einer Umfrage des Marktforschungsinstituts Gartner wissen die CIOs um die Herausforderungen rund um Big Data: Sie liegen darin, mehr über die Kunden zu erfahren, Prozessabläufe zu optimieren und neue Produkte bzw. Business-Modelle zu entwickeln. In gleicher Reihenfolge priorisieren sie auch die Ziele, die sie mit Big Data verfolgen. Aufgrund der Komplexität stoßen viele CIOs jedoch an ihre Grenzen bei der Umsetzung und sind auf externe Unterstützung angewiesen.
„Eine Verprobung selber zu machen ist viel zu kompliziert, um erfolgreich zu sein“, sagt Mußmann. Denn klassische Business-Intelligence-Werkzeuge eignen sich nur bedingt, da „Big Data in allen Richtungen der Datenerfassung-, -analyse und -auswertung komplizierter als bisherige Anwendungen ist. Deshalb müssen wir es für den Kunden einfacher machen und dem CIO einen Weg aus dem Datendschungel heraus bieten.“ Das wirft die Frage auf, ob die größte Herausforderung für den CIO am Ende vielleicht darin liegt, zu erkennen, dass sich Big Data intern nicht so erfolgreich umsetzen lässt wie mit externer Unterstützung?
Weitermachen …
Noch ist die Verprobung von Big Data neu. Erfahrungswerte liegen bislang von einigen hundert Testläufen vor. Die Erfolgsbilanz ist jedoch extrem hoch: „90 Prozent unserer Kunden haben während oder nach der Erprobung den Wunsch geäußert, Big Data im Unternehmen weiter auszubauen“, berichtet Mußmann. Wow.
Beispielprojekte
-
Sportsponsoring im Superbowl: Ein Konsumgüterhersteller analysiert in Social Media, welche Themen die Teilnehmer über bestimmte Teams diskutieren. Die Ergebnisse werden mit den statistischen Daten des Herstellers kombiniert. Daraus lässt sich modellieren, welches Team den höheren Impact auf die Produkte hat.
-
Testprojekt: Über den gehackten Twitter-Account der Nachrichtenagentur Associated Press lief 2013 die Falschmeldung „Obama Injured“, Obama sei bei einer Explosion im Weißen Haus verletzt worden. Medien übernahmen die Meldung. Innerhalb weniger Minuten brachen die Märkte um 130 Milliarden Dollar ein.
-
Qualitätssicherung im Service: Automobilhersteller erfasst alle Rückläufe aus dem Werkstatt- und Servicebereich in jeder Form und Sprache und kann die Qualität optimal anpassen. Ohne Big Data sind nur punktuelle Ergebnisse mit großem Aufwand erzielbar. Big Data analysiert dagegen alles in kürzester Zeit.
-
Versicherung analysiert Gutachten: Prüfung sämtlicher Gutachten auf Inhalt, korrekte Darstellung und Wahrheitsgehalt in kurzer Zeit und vollem Umfang.
-
Patentanmeldung: Unternehmen prüft Verifizierbarkeit geplanter Patente vor Einreichung.
-
Produktentwicklung: Hersteller nimmt Kundenwünsche in die Weiterentwicklung seiner Angebote auf.
-
Alert-Funktion: Anbieter erkennen unmittelbar Negativmeldungen über Produkte oder Unternehmen und können sofort reagieren.
Oliver Häußler, freier Journalist in München