Wenn der Schiedsrichter am 9. Juni das Eröffnungsspiel anpfeift, laufen bei Sport1 die Server heiß. Statt 20 Millionen Seitenbesuche wie zu Normalzeiten erwartet das Ismaninger Internet-Portal rund 30 Millionen Visits pro Monat. Extreme Ausschläge nach oben gibt es in Zeiten, in denen Spitzenspiele wie das Finale laufen. „80 Prozent der Anfragen kommen in 20 Prozent der Zeit“, sagt Arthur Lorenz, Leiter IT bei Sport1. „Besonders bei Bundesliga-, Champions-League- und jetzt WM-Spielen gibt es einen Riesen-Ansturm.“ Solche „Peaks“ nimmt Lorenz gelassen. „Wir haben unser System so eingerichtet, dass es mehr als eine Verdopplung der Zugriffszahlen verträgt.“
Besucher und vor allem Werbekunden der reichweitestärksten deutschen Sport-Site nehmen Ausfälle übel. Die Sport1 GmbH, eine hundertprozentige Tochter der EM.TV AG, verdient ihr Geld mit Online-Werbung und multimedialen Dienstleistungen für Internet-, Mobile-, und TV-Medien.
Ein Weg, die Systeme auch unter Hochlast am Laufen zu halten, ist die strikte Trennung zwischen Produktions- und Auslieferungsplattform.Die redaktionellen Inhalte des Portals werden in den firmeneigenen Räumen in Ismaning erzeugt. Dafür stehen 30 Server bereit. Der Content wird dann über redundante Leitungen an die lokal getrennte Auslieferungsplattform übertragen.
Die Auslieferung der Inhalte an die Besucher der Website übernimmt der externe Hosting-Dienstleister Tiscali. Er hat die Hochverfügbarkeit der Systeme sicherzustellen. „Wir haben mit Tiscali einen Rahmenvertrag abgeschlossen, der Auslieferungskomponenten und Hochverfügbarkeit als pauschale Dienstleistung enthält“, erklärt Arthur Lorenz.„Wir von Sport1 machen die Vorgaben und überwachen das Ganze, aber für den Betrieb ist der Provider verantwortlich.“
Entlastung für Web-Server
Ein redundant ausgelegtes Caching-System sorgt bei Tiscali dafür, dass die Server auch bei Spitzenanfragen nicht zusammenbrechen. Oft gefragte Web-Inhalte werden dabei im Cache zwischengespeichert, um dadurch die eigentlichen Web-Server von unnötigen Anfragen zu entlasten. Gleichzeitig werden die Inhalte den Nutzern schneller zur Verfügung gestellt.
Je nach Konfiguration fragen die Caching-Systeme alle ein, zwei oder fünf Minuten die Sport1-Server in Ismaning nach geänderten Inhalten ab und holen die Seiten in den Cache. Ruft ein Portalbesucher Informationen ab, geht diese Anfrage immer an den Cacher, der die Seiten ausliefert. „Ob in einer Minute eine, hundert oder 10000 Anfragen kommen, ist den Produktions-Servern egal“, erklärt Lorenz. „An unser internes System kommt die Anfrage: ‚Liefere die Seite aus‘. Nur nach außen werden eine, hundert oder 10000 Pages ausgeliefert.“
Aufrüstung für die WM
Die interne Produktions-IT ist ebenfalls redundant angelegt. Hier sorgt eine klassische Cluster-Architektur mit einer über mehrere Orte realisierten Lastverteilung in Kombination mit individuellen Failover-Lösungen für die Hochverfügbarkeit der Systeme. Die Lastverteilung steigert die Leistungsfähigkeit der Plattform. Integriert sind auch Überwachungsfunktionen, die den fehlerfreien Betrieb und die reibungslose Aktualisierung des Content gewährleisten.
Speziell für die Fußball-WM hat Sport1 nochmals aufgerüstet und auf sichere Produktionsprozesse umgestellt. Anstelle des dynamisch orientierten Content- Management-Systems (CMS) setzt das Portal nun ein statisches Programm ein. Ein dynamisches System erzeugt die Webseiten beim Aufruf aus einzelnen Komponenten – Bilder, Grafiken, Texte werden zur Laufzeit dynamisch zusammengesetzt. Hierzu ist eine komplexe Cluster-Technologie nötig. Bei einem statischen CMS liegen die Seiten hingegen fertig generiert vor. In diesem Fall müssen nur die fertig gebauten Daten redundant und hochverfügbar gehalten werden. „Die Generierung eines dynamischen Systems ist teurer und komplexer als die eines statischen Systems“, erklärt Lorenz. Schon allein weil redundante Storagelösungen billiger sind als redundant ausliefernde Applikationslösungen.
Zur Vorbereitung auf die Weltmeisterschaft wurde zudem der Großteil der IT runderneuert.Die Produktionswie auch die Auslieferungssysteme wurden in den letzten zwölf bis 15 Monaten durch neue, aktuelle Server ersetzt. Stolpersteine sollen so weit wie möglich vermieden werden. „Damit auch im Fehlerfall klar und sauber agiert werden kann, wurden auch Betriebshandbücher und Troubleshooting-Guidelines verfasst“, sagt Lorenz.
Der Support der wesentlichen IT-Komponenten in Ismaning wurde ausgelagert. Die Frankfurter AKSL AG, Spezialist für Hochverfügbarkeitslösungen, ist nun für die Überwachung und Betreuung der Kernsysteme zuständig. Der Dienstleister wartet und kontrolliert rund um die Uhr wichtige Anwendungen wie das Content- Management-System mit Cluster-Software und Monitoring- Technologie. „Wir selbst brauchen in der IT keinen Rund-um-die-Uhr-Support“, sagt Lorenz.„Für die Zeit, in der Inhalte erstellt werden, reicht ein Zwei-Schicht-Betrieb aus, der mit den bestehenden IT-Mitarbeitern abgedeckt wird. Außerhalb der Produktionszeiten müssen wir nicht anwesend sein.“