Der September hatte es bei der Hypovereinsbank (HVB) in den vergangenen Jahren stets in sich. 1999, 2000 und 2001 bekamen Kunden jeweils für Stunden weder Geld noch Auszüge an Bankautomaten und Schaltern. Am ersten Handelstag der New Yorker Börse, nach mehrtätiger Pause in Folge des Anschlags vom 11. September 2001, fiel das HVB-Handelssystem wegen Netzwerkproblemen für acht Stunden komplett aus.
Warum die Ausfälle immer im September auftraten, kann bis heute niemand mit endgültiger Sicherheit sagen. Eine wesentliche Ursache der Infrastruktur-Probleme lag allerdings im Storage-Bereich. Die IT der HVB war Ende der 90er Jahre enorm gewachsen. E-Banking und Automatisierung der Bankgeschäfte auf der einen Seite sowie mehrere Fusionen in kurzer Zeit auf der anderen Seite ließen der IT kaum eine Chance, sich adäquat zu entwickeln: Plattform-Wildwuchs war die Folge. "Wir mussten damals sehr schnell reagieren, um im Tagesgeschäft unserer Kunden den gewohnten Standard zu gewährleisten," erklärt Frank Roth, CTO der HVB Group und Geschäftsführer der HVB Informationsverarbeitungs GmbH, kurz HVB-Info.
Die Drei-Säulen-Strategie
Mit einer "Drei-Säulen-Strategie" konsolidierte er die Speicherlandschaft. Der Speicherbedarf von rund 200 Terabyte verteilt sich zu zehn Prozent auf File-Services, zu 40 Prozent auf Mainframes und zu 50 Prozent auf die übrigen Speicher, das so genannte "Offene Feld". Die Großrechner sind jetzt nicht mehr an ein festes Plattensystem angebunden, sondern arbeiten mit der SAN-Lösung "Shark" von IBM. "Damit verfügen wir über eine horizontale Lösung: Storage-Software, SAN-Komponenten und Speicher liefert nur noch ein Hersteller", erläutert Roth.
Das horizontale System wählte die HVB auch, um File-Server an eine NAS-Lösung von Network Appliance anzubinden. Während SAN-Lösungen über ein eigenes Glasfasernetz arbeiten und Dateien in Maschinenadressen wandeln, lässt sich ein NAS einfach in ein bestehende Firmennetz integrieren. Bislang waren Windows-NT-Server jeweils mit ausfallsicheren Plattensystemen verbunden; ein Mitarbeiter legte fest, wann eine Anwendung besonders schnell laufen sollte und auf welchem Speicher sie ihre Daten ablegte. Jetzt steuert das NAS-System die Daten automatisch. "Bei der Performance-Optimierung ist ein NAS-System einfach besser", so Roth. Dahinter steckt eine grundlegende Storage-Strategie: "Wir wollen aus sehr spezifischem Speicherwissen herauskommen, indem wir es auf eine höhere Abstraktionsebene legen."
Auf höherer Ebene speichert Roth auch im "offenen Feld". Bislang legte die HVB ihre Daten von Servern mit NT-, Solaris- und AIX-Betriebssystemen auf direkt angebundenen Speichern von IBM, EMC und Hitachi Data Systems ab. "Im Boom wurde jedes Einzelsystem mit einem Puffer ausgelegt, der zum Teil bis zu 90 Prozent betrug", berichtet Roth. "Ziel war es deshalb, alle Speicherkomponenten in einem Pool zusammenzuführen, aus dem alle Anwender ihre Daten ziehen können."
Intelligent speichern
Seit Mitte 2003 managt ein SAN den Daten-Pool. So kann nun etwa ein IBM-Speichersystem nicht nur Daten von bestimmten Servern aufnehmen, sondern von vielen mit unterschiedlichen Betriebssystemen. Mitte 2004 sollen auch die NT-Server mit dem SAN arbeiten. "Das meiste Geld steckt in den Speichern, weil das aufwendige Management wegen fehlender Standards viele Mitarbeiter bindet", so Roth. Nun liegt die Speicherintelligenz in der darüber gelegten Kombination der Software von Veritas und den Switches von Brocade. "Der größte Aufwand bei der SAN-Einführung besteht darin, die herstellerspezifischen Lösungen zu umgehen." Allerdings deckt keine Software das gesamte Spektrum der proprietären Management-Tools der Speicheranbieter ab. Deshalb nutzt die HVB immer noch einige Programme in den Speichern und stellt dafür Mitarbeiter bereit.
Die SAN-Einführung erwies sich als weit aufwendiger, als die Anbieter versprochen hatten: Heterogene Speicher ließen sich nicht einfach zusammenführen. "Die Betriebssysteme waren zum Teil nicht fähig, mit einem Pool umzugehen und die Daten dynamisch zu verwalten." So mussten beispielsweise für NT-Betriebssysteme im SAN-Pool weiterhin statisch einmalig 500 Gigabyte für eine Datenbank zugeordnet werden, obwohl sie nur rund 20 Prozent davon benötigte. Roths ernüchternde Erkenntnis: "Im SAN bestanden weiterhin Pufferkapazitäten."
Es galt, die Luft aus dem System herauszulassen. Um die Speicher dynamisch zu verwalten, also die Insellösungen zusammenzubringen, musste sich die HVB zunächst jede Applikation anschauen. Denn nicht jede Anwendung arbeitete beispielsweise mit Windows 2000 zusammen und nicht jede Oracle-Version mit jeder Veritas-Version. Deshalb sollte die zweite für Softwareentwicklung zuständige IT-Tochter der HVB, die HVB-Systems, die komplette Software der Banken-Gruppe erneut Integrations- und Qualitätssicherungstests unterziehen.
Metagroup-Berater und Storage-Experte Norbert Deuschle warnt ebenfalls davor, eine SAN-Einführung zu unterschätzen. "Plattformunabhängiges Speichern ist eine sehr anspruchsvolle Arbeit, die viel Zeit und Geld kostet." Zunächst müssten CIOs eine saubere Architektur planen, dann am besten nur zwei Anbieter wählen und sich bei der Implementierung auf Kerngeräte beschränken. Außerdem gebe es wenig qualifiziertes Personal, sodass Schulungen nötig seien.
Nicht auf Standards warten
Eine SAN-Integration erweist sich vor allem wegen fehlender Standards als schwierig. Zwar hat die US-Organisation SNIA (Storage Networking Industry Association) bis Ende 2005 Standards angekündigt¸ doch darauf kann Roth nicht warten. Er wählte die Veritas-Software als Standard. Dass er damit von einem Softwarehersteller abhängig wird, fürchtet der Group-CTO nicht: "Wenn ein großer Player Pleite gehen würde, entsteht sofort ein Markt mit Anbietern, die das alte System auf ein neues migrieren." Wichtig ist für Roth nur, sich möglichst früh überhaupt auf einen Standard festzulegen.
Auf große Anbieter setzt Roth beim Mode-Kürzel ILM (Information Lifecycle Management). Mit dem ILM-Konzept sollen Unternehmen ihre Daten von der Generierung bis zum Löschen bedarfsgerechter verwalten und speichern können. Roth hält jedoch nicht viel von ILM-Tools: "Ein SAP-System kann das aufgrund seines Wissens über den Informationsgehalt der Daten weitaus besser machen als jede andere Software. Metagroup-Berater Deuschle warnt vor dem Aufwand: CIOs müssen sich dafür die Prozesse anschauen und bewerten; zudem müssen Datentypen und Sicherheitsstufen sowie eine Speicherarchitektur festgelegt werden. "Höchstens zehn Prozent der Unternehmen betreiben ILM-Konzepte, weil sich in den meisten Firmen die IT- und Fachabteilungen noch zu wenig abstimmen, schildert Deuschle seine Erfahrungen.
Bei der HVB hat die Zusammenarbeit geklappt. Die Ausfallzeiten haben sich halbiert, woran der Storage-Bereich einen wesentlichen Anteil hat. Und den September 2003 erlebte Roth ohne Ausfälle - zum zweiten Mal in Folge.