Back-up-Rechenzentrum
100 Kilometer sprinten für die Datensicherheit
Es war ein großes Erwachen, als Harald Höger Ende 2000 die Ergebnisse seiner Analyse präsentierte. Untersucht hatte der stellvertretende IT-Leiter der Landeskreditbank Baden-Württemberg (L-Bank) die Katastrophenvorsorge und die Ausfallsicherheit sämtlicher Systemplattformen des Hauses. Zwar besaß das größte Landes- förderinstitut in Deutschland nahe der Hauptzentrale in Karlsruhe ein zweites RechenzentrumRechenzentrum, in das kontinuierlich alle Geschäftsdaten flossen; doch war damit allein wenig gewonnen. "Wäre unser Untergeschoss durch einen Rohrbruch mit Wasser voll gelaufen oder durch ein Erdbeben zerstört worden, wären die gesamten Bankgeschäfte zum Erliegen gekommen", sagt Höger. Zudem hätte ein Neustart auf Basis dieser Daten mehrere Tage gedauert - für eine Bank eine existenzgefährdende Verzögerung. Sofort war klar: Ein Back-up-Rechenzentrum musste her, das die Daten zusätzlich extern sichert. Alles zu Rechenzentrum auf CIO.de
Zwar gab es auch bei der L-Bank bereits die in der Finanzwelt übliche Spiegelung der Daten, doch lediglich auf der Basis von Standard-Clustern - einem Server-Paar vor Ort, das rund 40 Meter weit voneinander entfernt stand. Die wieder hochgefahrenen Systeme hätten es den Bankern üblicherweise nach etwa 20 Minuten ermöglicht, ihre Arbeit in den Filialen fortzusetzen.
Um die mangelhaften Präventivmaßnahmen für den Ernstfall zu kompensieren, entschied sich die L-Bank für eine moderne Lösung - die synchrone Spiegelung der Daten über eine große Distanz. Der Hauptunterschied zum bisherigen Inhouse-Konzept: Die Mainframe-Server und Plattenspeicher stehen 100 Kilometer voneinander entfernt; das Risiko ist dadurch weitaus besser verteilt. Der sekundäre Server befindet sich seit dem Sommer in Stuttgart, der primäre nach wie vor in Karlsruhe. "Die Laufzeit von einer Millisekunde bei der Datenspiegelung war eine der grundlegenden Anforderungen an die Technik", sagt Höger, jetzt Projektleiter des Stuttgarter Back-up-Zentrums. Bisher galten lediglich Distanzen von bis zu 30 Kilometern als realisierbar; in der Finanzmetropole Frankfurt sind Spiegelungen der Daten von Großbanken über wenige Kilometer üblich - manchmal sogar Nachspiegelungen, also Übertragungen mit Zeitverzögerung von wenigen Sekunden bis zu mehreren Minuten. Nachteil: Im Notfall muss ein Teil der Daten in aufwendigen Recovery-Verfahren gerettet werden.
Erschwingliche Preise für Glasfasernetze
Katastrophen, die eine ganze Region lahm legen, können der Karlsruher Bank nun datentechnisch nichts mehr anhaben. "So einfach sich die Lösung heute anhört, so viel haben wir bei der Planung geschwitzt", sagt Höger. Denn in der Nutzung von Glasfasernetzen hatte damals niemand Erfahrung. Als Anbieter kristallisierten sich die Deutsche Telekom und Colt Telekom heraus, die gegenseitig den Preis für die Nutzung nach unten trieben.
Das Rennen machte schließlich doch die Deutsche Telekom. Der Bonner Telekommunikationskonzern stellt der Kreditbank nun zwei 100 Kilometer lange Lichtwellenleiterstrecken zur Verfügung. Die Daten schickt Höger mithilfe der so genannten Dense-Wavelength-Division-Multiplexing-Technik nach Stuttgart - ein Modulationsverfahren, mit dem bis zu 80 Signale gleichzeitig in einem Glasfaserkabel übertragen werden können. Dafür nutzt der Multiplexer unterschiedliche Wellenlängen; ein Endkoppler sammelt die Informationen am Ende der Kabel wieder aus der Faser und ordnet sie den entsprechenden Wellenlängen zu. Heute könnte die L-Bank theoretisch in nur einer Sekunde eine Datenmenge von zwei Terabyte durch die Leitung schicken - fast der gesamte Daten-bestand des Kreditinstituts. "Diese hohe Leistung ist nötig, um die Lastspitzen, die durch die Monatsabschlüsse zustande kommen, zu bewältigen", erklärt Höger.
Sollten nun sämtliche Rechner in Karlsruhe ausfallen, müssen zwar die dortigen Systeme auch heruntergefahren werden. "Dank des über die Multiplex-Technik errichteten Speichernetzwerks, an das die L-Bank das neue Rechenzentrum ebenfalls angeschlossen hat, sind aber keine weiteren Anpassungen nötig", so Höger. "Das Mainframe-System in Stuttgart wird im Ernstfall mit der Identität und dem Datenbestand aus Karlsruhe hochgefahren, und in weniger als einer Stunde können die Kollegen weiterarbeiten." Nach dem bösen Erwachen angesichts der Sicherheitsrisiken im eigenen Haus kann Höger jetzt also wieder ruhig schlafen.