Komplex, träge und teuer. Die IT im klassischen Rechenzentrum hat ein Imageproblem. Doch was in der Vergangenheit nur gelegentlich Anlass zur Kritik gab, ist für etliche IT-Abteilungen zur existenziellen Frage geworden. Können sie im Wettbewerb mit externen Dienstleistern nicht mithalten, werden sie gnadenlos ausgelagert. "Viele Rechenzentren sind heute so beschaffen, dass sie ein Hindernis für Flexibilität und Energieeffizienz darstellen - eine Folge des IT-Wildwuchses während der letzten beiden starken Wachstumsperioden", sagt Frank Bloch, Director Technology Consulting, bei HP Technology Services. Vor diesem Hintergrund sehe er bei vielen CIOs "den starken Willen, ihre Rechenzentren technisch und konzeptionell von Grund auf zu renovieren".
Allzu optimistisch sollte der HP-Manager aber angesichts der Budgetzwänge vieler IT-Chefs nicht sein. Realistischer scheint ein allmählicher Umbau, wie ihn viele Unternehmen bereits in Angriff genommen haben. Dabei zeichnen sich Trends ab, die die Data Center in den kommenden fünf bis zehn Jahren grundlegend verändern werden. Eine Schlüsseltechnik ist die Virtualisierung.
Virtualisierung macht das RZ effizienter
"Virtualisierungstechniken sind die Grundlage für flexible und dynamische Rechenzentren", erläutert Ingolf Wittmann aus IBMs Systems & Technology Group. Eine durch Virtualisierung flexibilisierte Server-Infrastruktur könne sich dynamisch auf die benötigte Rechenleistung einstellen: "Die Anwendungslast wird dabei genau auf die Server konzentriert, die ausreichen, um den Service leistungsgerecht zu erbringen." Neben solchen Vorzügen ist für RZ-Verantwortliche aber vor allem der damit verbundene Effizienzgewinn ausschlaggebend, wie Andreas Zilch von der Experton Group ausführt: "Die Virtualisierung von Server, Storage und Netzwerken wird die Auslastung in den Rechenzentren deutlich steigern und langfristig auch einen verbesserten Betrieb und weitere Automatisierung ermöglichen." Die "moderne" Bezeichnung für dieses Phänomen sei die der "Private Cloud".
Schon jetzt haben Virtualisierungstechniken die IT verändert. In Skandinavien etwa nutzt nach IDC-Erhebungen bereits ein Drittel der Unternehmen Virtualisierung generell zum Einführen neuer Applikationen. Deutschland liegt mit einer Virtualisierungsrate von 48 Prozent der installierten Basis von x86-Servern an der Spitze der großen europäischen Länder. HP-Manager Bloch sieht noch weitere damit verbundene Vorteile. So ließen sich mit Hilfe von Virtualisierung IT-Services von den darunter liegenden Systemen entkoppeln: "Damit können Unternehmen in den Rechenzentren 'aufräumen' und vier großen Anforderungen gerecht werden: die Kosten des Rechenzentrumsbetriebs senken, Verfügbarkeit und Flexibilität verbessern und IT-Prozesse beschleunigen."
Grüne CPUs reichen nicht mehr
Mehr Effizienz in den IT-Zentralen sollen auch grüne, sprich energiesparende Techniken bringen. Geht es um die Kernkomponenten von Server-, Storage- und Netzsystemen, hat die IT-Industrie hier erhebliche Fortschritte gemacht. Doch das wird nicht ausreichen, um die Energiekosten langfristig entscheidend zu drücken. Gefragt sei eine "ganzheitliche" Herangehensweise, sagt Joseph Reger, Chief Technology Officer bei Fujitsu Technology Solutions: "Die groben Schwachstellen der Vergangenheit - Prozessoreffizienz, Qualität der Netzteile etc. - haben wir in den letzten Jahren zum Teil dramatisch verbessern können. Jetzt müssen wir die Gesamteffizienz einschließlich Kühlung, Gebäude- und Verkehrstechnik und alle logistischen Prozesse anpacken."
Ähnlich argumentiert HP-Berater Bloch. "In Zukunft wird es die Trennung zwischen Gebäudeinfrastruktur und Rechenzentrums-IT nicht mehr geben. Intelligente Stromnetze, im Englischen mit Smart Grid bezeichnet, und die dazu passende Software ermöglichen ein konsolidiertes Energie-Management." Damit sei es beispielsweise möglich, automatisch auf einen Ausfall der Klimaanlage zu reagieren, indem die Leistung für nicht geschäftskritische Anwendungen und Server gedrosselt werde. Einen neuen Ansatz zur Steigerung der Energieeffizienz probiert Hewlett-Packard in einem Data Center im nordwestenglischen Wynyard aus. Die RZ-Betreiber leiten kühle Nordseeluft in das Gebäude und nutzen diese zur Klimatisierung. Nach Angaben von Bloch lässt sich damit der Stromverbrauch um 40 Prozent reduzieren - die Klimaaggregate würden nur 20 Stunden pro Jahr eingesetzt. Auch HPs Konkurrent IBM arbeitet intensiv daran, die Energieeffizienz im Data Center zu verbessern. So hat etwa die Schweizer IBM-Tochter in Rüschlikon gemeinsam mit der ETH Zürich eine Heißwasserkühlung entwickelt, die es ermöglicht, die Abwärme eines RZ zu nutzen und sogar als Handelsgut weiterzuverkaufen.
Wolfgang Schwab, Spezialist für Green IT bei der Experton Group, unterscheidet grundsätzlich in den "IT-Bereich" und den "Facility-Bereich". Vor allem Letzterer eröffne noch "extreme Einsparpotenziale", beispielsweise in der Klimatisierung, aber auch bei der Energierückgewinnung und im Bereich "Messen und Steuern". Die besten Ergebnisse könnten Unternehmen erreichen, wenn sie ein neues Data Center "auf der grünen Wiese" bauten. Das Designziel dabei sollte ein "modulares, dynamisches und effizientes Konzept" sein. Gemeinsam mit einem Anwenderunternehmen plant die Experton Group derzeit ein Rechenzentrum mit zirka 400 Quadratmetern und einem "Drei-Waben-Konzept". Dabei wird zunächst nur die erste Wabe infrastrukturell ausgebaut, weitere Flächen stehen für Erweiterungen zur Verfügung. Schwab: "Wir schaffen damit eine Facility, die für einen Lebenszyklus von mindestens 15 Jahren ausgelegt ist." Auch der Prozessorgigant Intel bastelt am energieeffizienten RZ. Unter dem Motto "Data Center 2020" hat der US-Konzern gemeinsam mit T-Systems ein Forschungsrechenzentrum in München eröffnet.
Mega-Rechenzentren arbeiten wirtschaftlicher
Eine andere Stellschraube für den effizienteren IT-Betrieb sehen Experten in den Skaleneffekten sehr großer Data Center. So erklärt sich, dass Branchenschwergewichte wie Hewlett-Packard, Intel oder IBM die Anzahl ihrer weltweit betriebenen RZs drastisch reduziert haben. Auch viele Anwenderunternehmen verfolgen Projekte zur RZ-Konsolidierung. Wenige hocheffiziente Rechenzentren erledigen heute vielfach Aufgaben, die zuvor dezentrale IT-Shops vor Ort verrichteten.
"Der Trend geht eindeutig zum Mega-Data-Center", beobachtet Michael Auerbach, der bei T-Systems weltweit für die Computing-Services in rund 100 Rechenzentren verantwortlich ist. "Eine Fläche von 10.000 Quadratmetern und größer zeichnet sich als Standard für IT-Anbieter ab." In solchen Dimensionen denkt auch Fujitsu-Manager Reger: "In den nächsten fünf Jahren werden wir einige RZs mit mehr als einer halben Million Servern sehen, wahrscheinlich auch das erste Data Center mit einer Million Servern."
Unternehmen werden ihre RZs weiter konsolidieren und standardisieren, ebenso wie die Applikations- und Prozesslandschaft, erwartet HP-Consultant Bloch. "Große zentrale Rechenzentren lassen sich deutlich effizienter verwalten, zudem kann die Ausrüstung - IT und Gebäude - besser ausgenutzt werden." Ein weiterer Vorteil liege in den Skaleneffekten beispielsweise bei Kommunikationskosten oder Wartungsverträgen. Auf der anderen Seite würden die IT-Zentralen in sich modularer: "Heutige Rechenzentren sind meist monolithisch aufgebaut. Durch eine Trennung in mehrere Zonen mit unterschiedlichen Ressourcen lassen sie sich gemäß der Bedeutung der IT-Dienste priorisieren. Das senkt die Kosten für den Bau und auch den Betrieb des RZs deutlich."
Standard-Server erobern das Data Center
Geht es um die Server-Plattformen im RZ der Zukunft, fällt vor allem das Vordringen von x86-Systemen auf. Diese werden in den kommenden Jahren das Hauptwachstum auf der Server-Seite ausmachen, prognostiziert Andreas Zilch von der Experton Group (siehe auch: x86-Server erobern das Data Center). "Rechenzentren werden künftig in der Hauptsache aus Industriestandard-Servern bestehen", erwartet Fujitsu-Mann Reger. Nach heutigem Erkenntnisstand basierten sie auf x86-Architekturen, Windows und Linux. "Mainframes, Risc-Systeme und kommerzielle Unix-Versionen verschwinden nicht in dem Zeitraum, den ich überblicke, werden aber nicht den Mainstream darstellen." Insgesamt, so Reger, werde die Bedeutung der Betriebssysteme abnehmen: "Anwendungen bringen ihre Umgebungen auf die Virtualisierungsplattform mit."
Bei IBM sieht man die Server-Zukunft schon aufgrund der breiten Produktpalette differenziert. "Es wird eine Mischung geben aus verschiedenen Plattformen, die allerdings zu homogenen System-Pools zusammengefasst werden und damit eine einheitliche Schnittstelle bieten", sagt Kurt Rindle, Executive Consultant im Bereich Dynamic Infrastructure. "Weitergedacht in Richtung 'autonome Einheiten' werden wir hybride Systeme finden, die die Zuverlässigkeit, Verfügbarkeit und Leistungsfähigkeit von Mainframes besitzen, gepaart mit anderen Prozessorarchitekturen, beispielsweise Cell oder Intel." Je nach Workload-Bedarf würden Unternehmen dann die passenden Einheiten heranziehen.
Die Zukunft gehört homogenen Rechenzentren mit standardisierten Plattformen, glaubt dagegen Walter Brenner, Professor am Institut für Wirtschaftsinformatik der Universität St. Gallen. Die Trendsetter sind für ihn Google, Amazon, 1&1 oder AOL, aber auch große Hardware- und Softwareanbieter wie Intel oder Microsoft. Der Kostendruck zwinge RZ-Betreiber, ihre Infrastruktur umzubauen und dabei verstärkt Standard- oder Commodity-Komponenten zu verwenden. Die "Gnade der späten Geburt", um ein Rechenzentrum nach dem Muster von Google komplett neu aufzubauen, hätten indes nur wenige, sehr junge Unternehmen.
Altanwendungen laufen weiter
Kaum Veränderungen erwartet die Branche beim Thema Altanwendungen in den RZs. "Entgegen der Empfehlung der Experton Group ist derzeit kein großer Trend zur Ablösung von Legacy-Systemen zu beobachten", wundert sich Analyst Zilch. Gerade jetzt, wo der Druck neue Applikationen einzuführen, nicht allzu groß sei, wäre aus seiner Sicht ein optimaler Zeitpunkt. Offensichtlich aber scheuten die meisten Unternehmen das Risiko. HP-Berater Bloch zeigt Verständnis für die Zurückhaltung der IT-Verantwortlichen. "In Legacy-Anwendungen steckt viel Entwicklung und Know-how, außerdem sind sie oft ganz individuell an die Kundenbedürfnisse angepasst - ein großer Teil der unternehmenskritischen Prozesse läuft noch immer über Cobol-Programme." Da sich Cobol-Applikationen mit leichten Modifikationen migrieren ließen, könnten sie aber auch in neuen IT-Umgebungen weiter betrieben werden.
Eindeutig gegen die Dinosaurier-Anwendungen im Backend spricht deren teure Wartung durch Spezialisten. "Es wird immer schwieriger, Experten für alte Anwendungen zu finden, da Universitäten nicht mehr in diese Richtung ausbilden", gibt T-Systems-Manager Auerbach zu bedenken. Ausreichender Support werde am Markt bald kaum noch zu finden sein. "Der Betrieb wird immer kostspieliger und eine frühzeitige Transformation somit immens wichtig." Trotzdem könne man Legacy-Anwendungen nicht einfach abschalten, hält IBM-Experte Wittmann dagegen. Je kleiner die Anwendung, desto eher werde sie durch ein modernes Standardsystem ersetzt. Je größer und komplexer aber die Altprogramme ausfielen, desto geringer die Wahrscheinlichkeit, dass Unternehmen in naher Zukunft darauf verzichteten. Wittmann: "Wir werden eher die Situation haben, dass die Programmierer dieser Anwendungen in Rente gehen, bevor sie abgeschaltet werden."
Mainframes werden noch größer
Ein ähnliches Nachwuchsproblem stellt sich für die Großrechnerplattformen, auf denen die meisten Legacy-Programme auch heute noch arbeiten. "In der Zukunft werden nur noch einige ausgewählte Unternehmen und Dienstleister in der Lage sein, Mainframe-Systeme zu betreiben", sagt Auerbach nicht ganz uneigennützig - T-Systems würde vom Outsourcing womöglich profitieren. Ob der Fachkräftemangel aber dazu führt, dass andere Plattformen wie etwa x86-basierende Systeme in großem Stil Mainframe-Installationen ersetzen, ist heftig umstritten. "Aufgrund des Kostendrucks werden sich CIOs verstärkt mit Mainframe-Alternativen und der Migration auf Standard-Server-Plattformen beschäftigen", prognostiziert Fujitsu-Manager Reger. "Derartige Projekte waren in der Vergangenheit hochkomplex und langwierig, viele Kunden scheuten deshalb die dafür notwendigen Investitionen." Inzwischen aber hätten verbesserte Migrationstechniken und Automatismen dafür gesorgt, dass die Aufwände deutlich gesunken sind. Diese Entwicklung werde sich fortsetzen.
Ganz anders beurteilt Klaus Gottschalk aus IBMs Systems-Sales-Bereich die Situation. "Ich erwarte nicht, dass es einen Trend zur Umstellung auf Intel-Server geben wird. Aus unserer Sicht setzen Kunden die Server-Plattform ein, die am besten zu ihren Anforderungen und Anwendungen passt." Der "T-Shirt Ansatz" nach dem Motto "One size fits all" gelte eben nicht für Rechner im Zeitalter der Dynamic Infrastructure und des Cloud Computings. Gottschalks Kollege Wittmann sieht die Big Irons sogar auf Wachstumskurs: "Der Mainframe wächst weiter, und wir haben eher die umgekehrte Situation, dass Intel-basierender Workload auf den Großrechner konsolidiert wird." Die Wahrheit dürfte wie so oft in der Mitte liegen. Große Mainframes werden weiter ausgebaut, kleinere auf alternative Plattformen unter Windows oder Linux migriert.
Cloud-Services ergänzen die interne IT
Bleibt die Frage, welche Organisationen künftig überhaupt noch eigene Rechenzentren betreiben. Folgt man den Protagonisten des Cloud Computing, sollten sich Unternehmen auf ihre Stärken konzentrieren und die Lieferung von IT-Services weitgehend externen Spezialisten überlassen. "Wenn IT nicht zur Kernkompetenz eines Unternehmens gehört oder als strategisch erachtet wird, wird es vermehrt zu Verschiebungen kommen", prognostiziert etwa IBM-Experte Rindle. "Kleine Rechenzentren ohne diese Anforderungen werden sich nicht mit Angeboten von Dienstleistern messen können."
Setzt sich das Cloud-Konzept auf breiter Front durch, könnte sich die Anzahl der RZ-Betreiber deutlich reduzieren, erwartet auch Fujitsu-CTO Reger. Zugleich deute vieles darauf hin, dass sich nur einige wenige große Provider mit entsprechenden Skaleneffekten am Markt etablieren. IBM-Manager Gottschalk rechnet hingegen auch in Zukunft noch mit sehr vielen intern betriebenen Rechenzentren: "Überall dort, wo die Daten und die Systeme dahinter als geschäftskritisch angesehen werden, wird man auf eigene Data Center setzen."
Das aus heutiger Sicht wahrscheinlichste Szenario läuft auf ein hybrides Modell hinaus, wie es etwa Carlo Velten, Analyst bei der Experton Group, beschreibt: "Die meisten Unternehmen werden eine Art eigenes Rechenzentrum betreiben, gleichzeitig aber auch Services extern vergeben." Auch HP-Berater Bloch rechnet mit "gemischten Konstellationen" aus intern und extern betriebener IT. Auf absehbare Zeit würden sie den deutschen Markt dominieren. Bloch: "Cloud-Komponenten werden dabei ebenso eine Rolle spielen wie Utility Sourcing und klassisches Outsourcing." Die interne IT wandle sich zum Service-Broker. Das wiederum erfordere wirksamere Governance-Mechanismen und standardisierte Prozesse.
Quelle: Computerwoche