Außerhalb von Smartphone und Tablet wird kaum ein IT-Thema so breit diskutiert wie Big Data. Selbst namhafte Tageszeitungen berichten nahezu wöchentlich über die schier unglaublichen Möglichkeiten, die sich durch Big-Data-Technologien bieten. Doch was ist Big Data eigentlich? Für eine Erklärung empfiehlt sich die 4-V-Regel:
Volume - Menge
Velocity - Geschwindigkeit
Variety - Vielfalt
Veracity - Wahrhaftigkeit
Wenn von Big Data die Rede ist, sollte man diese Kriterien einmal genauer betrachten. Der Clou besteht nämlich darin, dass man alle vier Elemente zusammen in Echtzeit, auswerten, analysieren, miteinander verknüpfen kann - beziehungsweise können soll. Im Kern klingt dies nicht neu, da In-Memory-Data-Technologien entsprechende Analysen bereits seit Längerem sehr routiniert abwickeln.
Der Zugang zu den Datenquellen ist mit Big Data-Technologien relativ einfach, sodass mehrere Datenspeicher gemeinsam betrachtet, ausgewertet und neu aggregiert werden können. Für die Erkennung signifikanter Gesetzmäßigkeiten, Muster und Regeln kommen dann so genannte Data Scientists ins Spiel. Gelangen diese Experten zu sinnvollen Erkenntnissen, ist der Nutzen von Big Data für Wirtschaftsunternehmen relativ klar. Richtig interpretiert können Erkenntnisse und Prognosen Wettbewerbsfähigkeit steigern, indem Unternehmen schneller auf bevorstehende Ereignisse reagieren oder Optimierungspotenziale erkennen und frühzeitig ausschöpfen können.
Im Bankenumfeld stellt sich allerdings die Frage, wo genau die neuen Möglichkeiten von Big Data ausprobiert werden sollen - wenn es doch in prädestinierten Bereichen seit Jahr und Tag bereits etablierte und bewährte Systeme gibt? Dies gilt sowohl für Risk und Fraud als auch für Anti Money Laundering (AML) und interne Kontrollsysteme (IKS). Zudem: das erste V (Volume) stellt sich bei Banken außerhalb des Handel kaum, da Geldinstitute im Grunde relativ wenige Daten zu verwalten haben. Bei Anwendungen rund um das im Internet der Dinge, wo Maschinen automatisiert riesige Datenmengen erzeugen und miteinander austauschen, sieht dies schon ganz anders aus.
Ein Zweiter Aspekt, der Banken die Nutzung von Big-Data-Anwendungen erschwert, ist das Bundesdatenschutzgesetz (BDSG). Das Gebot der Datensparsamkeit (§ 3a BDSG), als auch die Einwilligung zur Datenverarbeitung (§ 4a BDSG) setzen einer Datenanalyse sehr enge Grenzen. In der Folge wären also Anpassungen der Allgemeinen Geschäftsbedingungen (AGB) vorzunehmen, wenn Daten, über den eigentlichen Geschäftszweck hinaus Verwendung finden sollen - dies gilt selbst für eigene CRM-Projekte- und -Kampagnen.
Es bleibt die Frage nach dem Nutzen
Es ist unstrittig, dass sich bei dem einen oder anderen Finanzhaus mit Sicherheit Anwendungsfälle für Big Data finden lassen. Doch rechnen sich diese auch? Insbesondere dann, wenn dafür etablierte Systeme auszutauschen wären? Noch viel gravierender ist meines Erachtens, dass in Sachen Big Data bei Banken häufig am zentralen IT-Problem vorbei gedacht wird, denn im Kern haben die Finanzhäuser eher ein Daten-Konsolidierungsproblem.
Dieses ist so groß, dass nun selbst der Regulator angefangen hat, sich in die IT und IT-Architekturen einzumischen - wie etwa im Rahmen von BCBS 239. Davon betroffen sind vor allem die Bereiche Data Governance, Data Quality, Data Life Cycle und Master Data Management. Die Praxis hat zudem gezeigt, dass das Thema Innovation bei Banken seit Jahren stiefmütterlich behandelt wird. Dies gilt auch für die Bereitstellung dafür notwendiger IT-Budgets. Bisher bleibt bei vielen Finanzhäusern bis heute kaum Platz für Big-Data-Projekte - falls doch, haben nur die wenigsten davon den Pilot- oder Prototypenstatus verlassen.
Ergo: Big-Data-Anwendungen können ihr Potenzial in Banken erst dann voll entfalten, wenn seitens der einzelnen Fachbereiche konkrete Wünsche oder Business-Herausforderungen formuliert werden. Diese müssen dann gemeinsam mit IT, Legal und Compliance auf ihre Umsetzungsrelevanz geprüft werden.
Sind diese Voraussetzungen erfüllt, ergeben sich sinnvolle Business Cases praktisch von selbst. Mit diesem Vorgehen ist zwar eine wichtige Entscheidungsgrundlage geschaffen - letztlich liegt es jedoch an der Leitungsebene, ob Budgets für Big-Data-Anwendungen zur Verfügung gestellt werden oder man lieber bei bereits etablierten Systemen bleibt.