Übers Wetter wird gerne geredet – sowieso und immer, aber in jüngster Zeit aus besonders eindrucksvollen Gründen. Rekordfluten, ein eisiger Spätlenz, grüne Weihnachten und weiße Ostern, dazwischen Bullenhitze und Hundswetter – die Kapriolen reißen nicht ab. Sie betreffen alle, aber eine Fülle von Firmen ganz besonders. Wer Saisonprodukte anbietet oder auf reibungslosen Transportverkehr angewiesen ist, wüsste wirklich gerne lange vorher und möglichst sicher, wie es denn wird, das Wetter. Unsere amerikanische Schwesterpublikation CIO.com hat kürzlich in einem Artikel eine Reihe von Initiativen in diesem bewegten Sektor vorgestellt. Schließlich ist die Auswertung einer schieren Menge an Wetterdaten ein Feld, auf dem sich das immer noch ungefähre Anwendungspotenzial eines aktuellen IT-Megatrends anschaulich machen lässt. Bryson Koehler, CIO beim Meteorologiedienst The Weather Channel, bringt es auf den Punkt: „Das Wetter ist ein originäres Big Data-Problem."
„Big" heißt in diesem Fall: Jeden Tag werden rund 20 Terabytes an Informationen über Wind, Niederschläge, Temperaturentwicklung sowie Luftdruck und Luftfeuchtigkeit verarbeitet, auf dieser Basis das Risiko für Wirbelstürme, Erdbeben und andere Naturkatastrophen abgeschätzt. Der Trend – nicht nur bei The Weather Channel – geht dahin, die Vielzahl an interessierten Anwendern mit detaillierten Analysen zu versorgen und Wetterberichte via Apps auf die Smartphones dieser Welt zu schicken. Nicht passé ist das seit Menschengedenken gültige Naturgesetz, dass es mit dem Wetter manchmal doch anders kommt als erwartet. Dennoch wächst die Präzision der Vorhersagen. Und die Schar an Unternehmen, für die diese bares Geld wert sind.
Firmen machen Wetterdaten zu Geld
CIO.com nennt als Beispiele unter anderem den Pharmahersteller Merck und die Einkaufskette Wal-Mart, die auf Basis von Wetterdaten genau über den Beginn der Pollensaison Bescheid wussten und so das Antiheuschnupfenmittel Claritin pünktlich in ausreichenden Mengen produzieren und vertreiben konnten. Der Logistiker DHL Express koordiniert täglich etwa 3000 Flüge weltweit und sammelt dafür Daten, die über Sichtverhältnisse und damit über mögliche Flugausfälle Aufschluss geben. Von höchster Wichtigkeit war das beispielsweise 2010, als der isländische Vulkan mit dem unaussprechlichen Namen tagelang die europäischen Flughäfen von der Welt abschottete. Versicherungen überprüfen anhand von Wetterdaten, ob gemeldete Schadensfälle sich so tatsächlich ereignet haben können; Energieversorger benötigen Prognosen für mögliche Katastrophen, um ihre Notfallversorgung entsprechend planen zu können.
Das sind spektakuläre und einleuchtende Beispiele dafür, dass sich Big Data auszahlen kann. Gleichwohl läuft es mit der Analyse großer Datenmenge in der Praxis der IT-Abteilungen nicht überall so nachvollziehbar und rund. Die Analysten von Gartner weisen aktuell daraufhin, dass es bei Big Data vor allem auf die Anwendungsszenarien ankommt und dass dadurch nicht alle anderen Praktiken zur Datenanalyse unwichtig werden. Die Kernbotschaft lautet, dass Firmen ihre Daten als werthaltige Güter begreifen sollten.
Bis 2016 haben die Firmen nach Einschätzung von Gartner diese Lektion weitgehend verstanden. Dann werde auch der Hype um das Schlagwort Big Data vorüber sein. Die entsprechenden Technologien seien dann ausgereift, es werde nur noch und ganz einfach um Daten gehen. Dazu seien breite Ansätze gefragt, um mit der jeweiligen Vielgestaltigkeit, Menge und Geschwindigkeit passend umgehen zu können.
Gartner: Nicht immer Big Data
„Die Quintessenz ist, dass nicht alle Informationen einen Big Data-Ansatz benötigen", sagt Analyst Frank Buytendijk. Es gebe Raum und Bedarf für Innovationen und Experimente, zum Beispiel mit Social Media-Daten oder informations-zentrierten Prozessen. Außerdem müsse Big Data im Zusammenspiel mit anderen IT-Großtrends wie Social Media, Mobile IT und Cloud Computing gesehen werden. Gartner hat für das Zusammenwirken dieser Kräfte bekanntlich das Schlagwort „Nexus of Forces" geprägt.
So erwarten die User laut Buytendijk mittlerweile, Inhalte über Betriebssystem- und Gerätegrenzen hinweg bearbeiten zu können. Ein „fluides" Nutzererlebnis bedeutet konkret etwa, dass ein Prozess am Desktop gestartet wird, die Kundeninteraktion über das Tablet läuft und auf dem Smartphone Notizen gemacht werden. „Mobile Content Delivery ist aber nicht die einzige Form, in der Mobile IT das Informationsmanagement beeinflusst", so Buytendijk. „Mobile Endgeräte werden sich zu einer Quelle erster Güte für die Datensammlung entwickeln."
Business Analytics entwickelt sich laut Gartner vor diesem Hintergrund rasant, und zwar über die eigenen Firmenwände hinaus, indem Daten – gerne grafisch aufbereitet – auch Kunden zur Verfügung gestellt werden. Sentiment Analysis wiederum zeige den Unternehmen, wie sie im Markt wahrgenommen werden. Anbieter von Enterprise Content Management (ECM) entwickelten dafür neue Interfaces. Darüber lasse sich beispielsweise verfolgen, wie lange mobile User in ECM-Systemen verbleiben und wie Inhalte rezipiert werden.
Trend zu Information-as-a-Service
Beim Cloud Computing bilde sich als Sparte „Information-as-a-Service" heraus, so Gartner. Apps setzen sich mit Apps in der Wolke in Verbindung, um bestimmte Aufgaben zu erfüllen. Überdies sehen die Analysten den Trend, über solche Kanäle eigene Daten mit anderen zu teilen. Im Entstehen begriffen ist demnach eine virtuelle „Bank of Information". Sie basiert darauf auf folgender Logik: Wer offen einige Informationshappen an die Außenwelt verteilt, erhält von draußen Information oder Metadaten zurück. Und zwar mehr, als er gegeben hat – welche Bank nimmt keine Zinsen? Das alles führt, wenn es so kommt, nach Einschätzung von Gartner zu größeren Datenaustauschraten als bisher bekannt.
„Die allen diesen Beispielen zu Grunde liegende Botschaft lautet, dass Daten auf besondere Weise ein Gut sind", konstatiert Buytendijk. „Sie haben einen Wert." Gartner bezeichne die sich herausbildende Disziplin der Informations-Bewertung als „Infonomics" – und diese sei keine Zukunftsmusik. „Schon heute geschieht derlei in diversen Branchen, im Handel und im öffentlichen Sektor, in großen und kleinen Firmen", befindet der Analyst.
Das klingt exakt nach den Beispielen, die CIO.com im Bericht über die Wetterdaten zusammengetragen hat. Aber welchen Einfluss hat das alles auf die CIO-Abteilungen? Möglicherweise einen fundamentalen, wenn Unternehmen nicht nur wie oft im Falle der Wetterdaten auf extern erstellte Big Data-Analysen zurückgreifen. Dann also, wenn aus den vielschichtigen verfügbaren Terabytes selbst sinnvolle Informationen destilliert werden sollen.
Wetterberichterstatter wie The Weather Channel oder dessen Rivale AccuWeather sind dann potenzielle Vorbilder für die eigene Zukunft. Die hauseigenen Analysen erforderten auch eine spezielle Art von IT-Abteilung, sagt Steve Smith, Chief Digital Officer von Accu Weather. „Forschung und Entwicklung macht einen großen Teil unserer IT aus", so Smith. Personell rüstet sich seine Abteilung deshalb mit diversen Data Scientists, die in die Expertenrollen für Kundenbranchen wie Eisenbahngesellschaften oder Retailer schlüpfen.
Projekte scheitern restriktiven Regeln
Big Data kann insofern den Weg in eine spannende Zukunft weisen. In der Gegenwart ist die Lage offensichtlich weniger rosig. Viele Big Data-Projekte scheitern. Darin Bartik, Product Management-Verantwortlicher bei Dell Software, sieht dafür primär drei Gründe. Erstens fehle es am Alignment von Business und IT. Bei Projekten herrsche deshalb eine rein technologische Perspektive vor, statt die zu lösenden Probleme in den Blick zu nehmen. Zweitens seien die benötigten Daten oft unzugänglich, was in weiten Teilen an verkrusteten Silo-Architekturen liege. Der Zugang zu Daten werde überdies in vielen Firmen sehr restriktiv gehandhabt. Deshalb funktioniere ein Big Data-Projekt kaum ohne Unterstützung von ganz oben.
Drittens herrsche ein Mangel an Know-how. Weil viele der mit Big Data verbundenen Technologien und Ansätze neu sind, sind die Projektteams schnell überfordert. „Die Leute wissen nicht, wie sie eigentlich mit den Daten arbeiten sollen und wie sie geschäftlich relevante Ergebnisse erzielen", so Bartik. Die benötigten Skills seien in den IT-Abteilungen momentan rar gesät. Man benötige beispielsweise Mitarbeiter, die sowohl Machine Learning als auch Natural Language Processing verstünden. Das Anheuern von Data Scientists alleine hilft nach Ansicht des Dell-Managers nur begrenzt weiter. Gefordert sei eigentlich eine Rolle, die die Gedankenwelt eines Data Scientists mit den Fertigkeiten eines Programmierers kombiniert. Beides in einem ist momentan aber so schwer zu finden wie die eierlegende Wollmilchsau.
Was also tun? Bartik schlägt als erstes vor, die eigenen Aktivitäten nicht als „Big Data-Projekt" zu bezeichnen. „Ein Projekt, um mehr über unsere Kunden zu erfahren und zu lernen, warum sie in bestimmten Stores einkaufen", sei vermutlich ein besserer Name, weil er den Sinn des Ganzen veranschaulicht. Den Beginn des Projekts sollte deshalb das Erstellen mit den fürs Business wichtigen Fragen markieren, auf die Antworten gesucht werden. Vorab sollte auch die Unterstützung auf Vorstandsebene eingeholt werden. Um das Skill-Mangel-Problem zu lösen, kann es laut Bartik unter Umständen genügen, die richtigen Fragen an die vorhandenen Systeme zu adressieren. „Man kommt schon einen Schritt vorwärts, wenn man den richtigen Leuten im Unternehmen die benötigten Zugänge gewährt."
Lektion in analytischer Kreativität
Glaubt man Tom Davenport, Analyst bei Deloitte und Professor an der Havard Business School, können Wetterdaten als gute Lernhilfe dienen. In Verbindung mit fortgeschrittenen Analytics-Technologien könnten sie eine Lektion in analytischer Kreativität und Exaktheit geben. IT-Abteilungen seien in der Regel gut darin, Daten aus internen Systemen zu fischen und mit externen Daten anzureichern. Aber oft seien sie weniger gut darin, den Kontext dieses Unterfangens zu verstehen.
Im Umgang mit Wetterdaten komme es aber genau darauf an. Schließlich wollen CIOs, die mit derlei Datenmaterial arbeiten, letzten Endes ihrem Unternehmen den Weg zu neuen Produkten und Services erleichtern oder den Betrieb verschlanken. Selbst wenn man das Wetter nicht garantiert vorhersagen könne, ließen sich doch fürs Business wichtige Eindrücke gewinnen. „Man kann das Wetter nicht kontrollieren", so Davenport. „Aber man kann für den Fall der Fälle vorbauen."
Am kommenden Mittwoch, 24. Juni, veranstaltet der Branchenverband Bitkom den Big Data Summit 2013. Weitere Informationen dazu finden sich hier.