Die Arbeit im CERN lässt oft keine Zeit die Schönheit der Landschaft um den Genfer See zu genießen. Das gilt besonders vor anstehenden Experimenten. In einer solchen Phase befinden sich jetzt nicht nur die Wissenschaftler, sondern auch die ITler der Einrichtung. "Stellen Sie sich vor, die Physiker könnten mit dem Experiment beginnen, und es hakt dann bei der IT. Das wäre für uns eine Art Supergau", sagt Bernd Panzer-Steindel, Computing Fabric Area Manager beim CERN.
Damit das nicht passiert, arbeitet die IT zurzeit auf Hochtouren. Denn bereits im kommenden Jahr wollen die Wissenschaftler mit der Jagd nach Kleinstteilchen wie dem Higgs Bosom beginnen, das nach seiner Entdeckung das Verständnis für die Entstehung von Materie verbessern soll. Sie benötigen dafür neben einem Teilchenbeschleuniger, wie dem großen Hadronkollider LHC, vor allem eine gigantische Speicherkapazität.
"Allein in dem LHC werden in jeder Sekunde 40 Millionen Teilchenkollisionen gemessen", sagt Francois Grey, Leiter der Kommunikationsabteilung der IT. Daraus filtern die Wissenschaftler anschließend pro Sekunde rund 100 für sie interessante Kollisionen heraus. Pro Teilchenzusammenprall wird ein Megabyte Speicher für die Aufzeichnung benötigt. "Auf das Jahr gerechnet, bedeutet das einen Speicherbedarf von rund zehn Petabyte für ein LHC-Experiment", rechnet Grey weiter vor. Das ist in etwa das Zehntausendfache, dass die eine Digitalisierung der jährlichen weltweiten Buchproduktion mit rund einem Terrabyte Speicher verschlingen würde.
Das Speichern der Daten ist jedoch nur ein Problem, dem sich die IT des CERN stellen muss. Ein anderes ist die Informationsanalyse. Bisher verfügt die Forschungseinrichtung über 2.000 Dual-Prozessoren-Rechner in ihrer Server-Farm. Das reicht bei weitem nicht aus. Grey spricht von 100.000 Prozessoren, die benötigt würden um die Analysen, im Rahmen der Anforderungen zu erledigen.
Grid hilft Kosten zu reduzieren
Trotz eines Materialbudgets von 25 Millionen Schweizer Franken (16,2 Millionen Euro) würde eine Aufrüstung der Hardware die finanziellen Möglichkeiten des CERN sprengen, sagt Bernd Panzer-Steindel, Computing Fabric Area Manager beim CERN. Stattdessen setzt die Institution auf die Rechenleistung von 450 weltweiten Partnereinrichtungen. Mit Hilfe eines Grids werden alle diese Ressourcen über das Internet koordiniert. Das entsprechende Projekt hat Panzer-Steindel bereits 2002 gestartet. Ab 2006 soll das Grid unter voller Belastung laufen.
Im CERN ist man neben diesem Projekt vor allem auf die eigene Kosteneffizienz stolz. Alle drei Jahre muss in der Computing Fabric von Panzer-Steindel die Hardware ausgetauscht werden. Deshalb geht die IT mindestens zweimal im Jahr einkaufen. Auf der Liste stehen zumeist 1.000 PCs, "die zwar technisch zwei Generationen hinter dem neuesten Stand hinterher sind, dafür aber die besten TCO-Werte vorweisen können", so Panzer-Steindel. Ähnliches gilt auch auf der Software-Seite. Hier setzt das CERN auf Open-Source-Software wie Red Hat Linux und Eigenentwicklungen.
Mit einem Nachteil der Commodity-Lösungen muss sich vor allem Wolfgang von Rüden herumschlagen. Der Leiter des IT-Bereiches beim CERN muss sich um die Stromversorgung der 2.000 Rechner im Serverzentrum und der 1.000 PCs im Analyse-Zentrum kümmern. Die steigende Leistung verbraucht mehr Strom und benötigt permanente Kühlung. An einer Aufrüstung des eigenen Kraftwerkes führte schließlich kein Weg vorbei. Nach einem Anlagen-Upgrade verfügt die IT nun zwar wieder über ausreichend Strom. Die produzierten 2,5 Megawatt Leistung werden jedoch nicht lange reichen. In Spitzen wird bereits wieder die Kapazitätsgrenze erreicht.
Bunter Haufen
Von Rüden steht zudem einer IT-Abteilung vor, die sich in dieser Zusammensetzung, in der Wirtschaft wahrscheinlich nicht wieder finden würde. Von den knapp 500 Angestellten des Bereiches, darunter 150 Mitarbeitern für Sonderprojekte, sind nur zehn Prozent reine Informatiker, der Rest rekrutiert sich aus Wissenschaftlern, wie beispielsweise Physikern. Nur sie haben das Know-how, um spezielle Software für die Datenanalyse der Experimente zu schreiben.
Allerdings hat auch die IT des CERN Outsourcing-Erfahrungen. So kämpft von Rüden seit Jahren mit sinkenden IT-Budgets. Als Konsequenz wurden beispielsweise das Help Desk und die Netzwerkwartung an externe Dienstleister ausgelagert. "Die anderen Bereiche sind im Management wesentlich komplizierter – das Outsourcing käme uns teurer als der Inhouse-Betrieb", so von Rüden.
Unglücklich ist der IT-Leiter des CERN mit einer weiteren Besonderheit von internationalen Forschungseinrichtungen. Sie müssen, ähnlich wie Behörden, ihre Einkäufe öffentlich ausschreiben. "Allein durch diesen Vorgang verlieren wir zwei Monate, in denen wir nicht vom Preisverfall der Hardware profitieren können". Trotz dieser Einschränkung ist von Rüden mit seinem Bereich äußerst zufrieden. "Bis auf Google bringt es kein internationales Unternehmen auf eine bessere IT-Kosten/Nutzen-Relation als wir – und das mit Grid Computing und Commodity-Lösungen."