"Ich wäre fast vom Stuhl gefallen, als ich zum ersten Mal den Begriff ,selbstheilende Computer‘ gelesen habe", bekennt der Produktmanager eines IBM-Konkurrenten. Der PR-Coup war gelungen. Nach den Vorstellungen von Big Blue sollen Computer und Speicher in Rechenzentren nicht weniger vollbringen, als sich selbst zu konfigurieren, zu schützen und zu optimieren. Im Rennen um das virtuelle Rechenzentrum sind neben IBM auch HP und Sun Microsystems dabei.
Andere Anbieter - etwa Microsoft mit der "Dynamic Systems"-Initiative - versäumen es ebenfalls nicht, bei jeder Produktankündigung den Begriff "Autonomic" zu verwenden; die Rede ist zudem von "Utility Computing", "Service Centric Computing" oder "Dynamic Computing". Letztlich steckt hinter alldem ein Konzept, das Forrester Research "Organic IT" nennt: eine Infrastruktur aus ohnehin verfügbaren und deshalb kostengünstigen Ressourcen (Software, Server, Storage, Netzwerke) im Rechenzentrum, die automatisch verwaltet und zugeteilt werden.
Schneller, flexibler, günstiger
Das übergeordnete Ziel des virtuellen Rechenzentrums gibt IBM mit "On Demand" vor: Die IT muss unmittelbar, flexibel und günstig den Geschäftsbedürfnissen gehorchen. Um dabei den immer komplexeren IT-Betrieb im Griff zu behalten, müssen neue technische Wege beschritten werden. "IT-Abteilungen müssen Server und Speicher virtualisieren, teure Weitverkehrsnetze durch RAIL-Technik (Redundant Array of Internet Links, Anm. d. Red.) ablösen und Anwendungen durch Web Services verbinden. Das ist der größte Wandel seit Einführung der Client-Server-Strukturen 1987", sagt Forrester-Analyst Frank Gillett. "Unternehmen werden mit Organic IT im Schnitt 50 Prozent der üblichen Kosten sparen."
Dazu müssen die Hebel aber auch an der bestehenden Infrastruktur angesetzt werden. So sind heute beispielsweise Server durchschnittlich nur zwischen 10 und 30 Prozent ausgelastet. HP nun fasst alle Komponenten des Rechenzentrums im Utility Data Center (UDC) zusammen. "Künftig schaltet eine Controller-Infrastruktur je nach Bedarf die Ressourcen aus den Server-, Speicher-, Netzwerk- und Anwendungs-Pools virtuell zusammen", sagt Conny Schneider, Direktorin Business Critical Systems bei HP.
Wettbewerber Sun nennt seine Architektur "Open Network Environment", kurz "Sun One" oder "Sun N1". Dafür hat der Technologiekonzern die US-Firmen Terraspring (automatische Konfigurationssoftware) und Pirus Networks (Storage-Virtualisierung) gekauft; die Netzwerksoftware steuert Sun selbst bei. Das Unternehmen verspricht viel: Die Systemauslastung soll von 15 auf 80 Prozent steigen, ein Administrator statt heute 15 bis 30 Server künftig mindestens 500 betreuen, die Verfügbarkeit auf 99,99 Prozent klettern, und Dienste sollen binnen Stunden statt wie heute üblich in Wochen bereitgestellt werden. "Wenn die Ressourcen miteinander verbunden sind, stellt der Administrator sie einfach mit der Maus am Bildschirm zusammen", verspricht Gerhard Schlabschi, Leiter Produktmarketing bei Sun.
Es fehlen marktreife Angebote
Glaubt man den drei Anbietern, sind sie alle ihren Konkurrenten auf dem Weg zum virtuellen Rechenzentrum um anderthalb bis zwei Jahre voraus. Doch keiner von ihnen bietet bislang ein schlüssiges Paket an, dass auch für andere Anbieter offen ist. "Im Moment hat HP einen Vorsprung von einem Jahr, den IBM aber im kommenden Jahr aufholen wird", sagt Analyst Gillett voraus. "Sun muss sich noch bei Managementsoftware, Service und Systemoffenheit verbessern."
In den USA setzt der Telekommunikationsdienstleister Cingular Wireless als erstes Unternehmen N1 für Suns Blade Server ein. HP kann wie Sun keinen Referenzkunden in Deutschland nennen, hat aber nach eigenen Angaben beim holländischen Elektronikkonzern Philips und in zwei eigenen Rechenzentren UDC installiert. IBM verweist vor allem auf Weiterentwicklungen der Tivoli-Software, auf neue Programme zur Virtualisierung von Storage und auf die Ressourcen-Virtualisierung durch Grids wie beim US-Unternehmen Petroleum Geo-Services. Zudem führt IBM gern Mainframe-Kunden als Kronzeugen an. Der Grund: Bei Großrechnern lassen sich schon seit vielen Jahren Prozessoren, Adapter und Lüfter bei Bedarf zuschalten. "Bislang haben wir höchstens ein Drittel dessen entwickelt, was das komplette Angebot einmal umfassen soll", räumt IBM-Manager Martin ein.
Da wundert es kaum, wenn das Thema bei den verantwortlichen CIOs bislang nicht angekommen ist - weder in Deutschland noch in den USA, wie Analyst Gillett feststellt. "CIOs wissen, dass sie ihre IT billiger und schneller machen müssen. Sie haben dafür aber noch keine langfristigen Pläne." Bisher würden nur wenige Unternehmen Elemente wie Storage-Virtualisierung und Web Services einsetzen. "Über Organic IT als Strategie haben bisher nur sehr wenige richtig nachgedacht."
Auch Klaus-Dieter Fahlbusch von Maturity Consulting bestätigt das Desinteresse: "Rechenzentren sind heute so knapp besetzt, dass sich niemand um das Thema kümmern kann." Er zweifelt zudem daran, dass Organic-IT-Elemente einfach einzuführen seien: "Schon jetzt stellt beispielsweise die Implementierung von Tivoli-Software einen Riesenaufwand dar. Deshalb denkt derzeit auch niemand daran, noch eine Schicht darüber zu legen. Außerdem traut kein CIO einem Anbieter zu, die gesamte komplexe IT für eine Virtualisierung aller Komponenten aufnehmen zu können."
Zweifel an schneller RZ-Virtualisierung
Zweifel hegt auch Wolfgang Benkel, Berater bei der Meta Group. "Software allein löst keine Probleme. Es hapert in den Unternehmen an ausgereiften IT-Prozessen und Plänen zur Umsetzung." Schon bisher hätten sich IT-Organisationen schwer getan, Konzepte zu erstellen, um IT-Prozesse zu optimieren und zu automatisieren. Mit Utility Computing müssten sie sich aber noch weit reichendere Gedanken machen, um den Nutzen beziffern zu können. "Doch dafür fehlt es häufig an Vergleichskennzahlen, weil schon die Ist-Daten fehlen." Hinzu kämen hohe Projektkosten, weil die Unternehmen ohne Hilfe nicht in der Lage seien, die wachsende Komplexität in den Griff zu bekommen. Dennoch ist Benkel überzeugt: "Das Modell zeigt die Zukunft. Aber erst in fünf bis sechs Jahren wird es reif sein."
Gillett geht davon aus, das Organic IT in 10 bis 15 Jahren so verbreitet sein wird wie heute ClientServer-Strukturen. CIOs rät er deshalb, die Entwicklung aufmerksam zu verfolgen. Für den passenden Weg zur Organic IT empfiehlt der Analyst die Entscheidung für eine von folgenden drei Strategien:
Vorsichtige sollten die Entwicklung beobachten, ihre IT auf die künftige Einführung von Organic IT ausrichten und nicht länger in Technologien wie EAI (Enterprise Application Integration) oder Direct Attached Storage investieren.
Im Unterschied dazu bedeutet eine aggressive Strategie, schon heute so viel wie möglich Organic IT einzusetzen - und eine zentrale Managementsoftware. "CIOs sollten mit nur einem zentralen Anbieter arbeiten, weil nur so das Konzept optimal umgesetzt werden kann und die größten Einsparungen bringt."
Ohne einen zentralen Dienstleister kommen CIOs aus, die selektiv Virtualisierungssoftware einsetzen. "Es gibt schon heute Potenzial, um mit Organic IT Geld zu sparen und mehr aus der IT herauszuholen", betont Gillett.