Die Virtualisierung von Applikationen steht zwar bei immer mehr Unternehmen vorne auf der Agenda, nur wenige können hier jedoch schon auf praktische Erfahrungen zurückgreifen. "Virtualisierung ist zu Recht sehr verlockend, sie ist aber nicht zwangsläufig die richtige Antwort auf jede Anforderung", sagt Robert Gerhards vom Beratungshaus Centracon.
Keine vorschnellen Entscheidungen
So sei das Risiko relativ groß, sich weniger optimalen Architekturmodellen zu widmen, die anschließend nur mit hohem Aufwand korrigiert werden können. "Gerade weil sich die Virtualisierung gegenwärtig zu einem Trendthema entwickelt, besteht die Gefahr, vorschnell und unzureichend abgesichert Entscheidungen zu treffen", berichtet Gerhards von seinen Erfahrungen in der Praxis.
"Virtualisierung kann nur soweit stattfinden wie sie von den Menschen und Systemen beherrschbar und managebar ist", sagt Helmut Seisenberger, Leiter Systemtechnik Plattform-Management Unixserver des Rechenzentrumsbetreiber Fiducia IT. Eine Risikobetrachtung in puncto Ausfallszenarien, K-Fallabdeckung und Backup und Recovery ist seiner Meinung nach in jedem Projekt unerlässlich. Diese Aspekte werden bei Fiducia im Rahmen der Virtualisierungs-Ansätze besonders kritisch betrachtet.
Der Rechenzentrumsbetreiber verfolgt konsequent die Erhöhung des Virtualisierungsgrades seiner Server-Komponenten, seit entsprechende Lösungen angeboten werden. Dabei realisiert das Unternehmen sein Virtualisierungskonzept auf den entsprechenden Plattformen über Betriebssystem-Mittel wie Partitioning, Zoning und VM-Ware. Als weitere Variante der reinen Hardware-Virtualisierung setzt es in ausgewählten Projekten Blade-Server-Technologie ein.
"Im Grunde virtualisieren wir in allen Bereichen, in denen aufgrund der Hardware-Voraussetzungen in Verbindung mit dem Anwendungs-Spektrum die Möglichkeit einer Virtualisierungs-Lösung besteht", berichtet Seisenberger. Aktuell sind die kompletten zentralen Anwendungen des Banksystems Agree, die Online-Banking-Software, der Internet-Auftritt und eine erhebliche Anzahl von diversen Anwendungen und die dafür erforderlichen Datenbankinstanzen virtualisiert.
Festes Schema
"Die zentrale Verarbeitung der betreuten Selbstbedienungskomponenten der Volksbanken und Raiffeisenbanken in unserem Geschäftsgebiet befindet sich momentan in Umstellung", so der IT-Leiter über die anstehenden Virtualisierungsprojekte. Dabei laufen neue Projekte wie diese nach dem üblichen Schema: Planungsphase, Definition Projektauftrag, Ist-Analyse, Sollkonzept, Ressourcenplanung, Maßnahmenkatalog, Umsetzung durch Projekt-Team und Projektnachbetrachtung.
Etwas Leichtes am Anfang
"Es ist sinnvoll mit etwas ganz leichtem wie beispielsweise VM-Ware anzufangen", meint Wolfgang Schwab von der Experton Group. Haben sich die ersten Erfolge mit der Virtualisierung eingestellt, dann kann man sich immer noch steigern und Applikation Server oder Datenbanken vornehmen. "Wenn man weiß, was man tut, ist Virtualisierung ein relativ einfaches Projekt", so der Berater.
Generell gilt aber: Virtualisierung ist bei jedem Rechenzentrum eine individuelle Sache. Feste Regeln gibt es nicht, nur Empfehlungen, wie an die Sache herangegangen werden sollte. "So muss ich zuerst einmal überlegen, ob ich sofort das komplette Rechenzentrum virtualisiere oder nur Teilbereiche", sagt Schwab.
"Oft wird gleich versucht, Datenbanken zu virtualisieren, was dann nicht funktioniert. Das Projekt gilt dann als gescheitert", sagt Schwab. Bis sich dann wieder jemand an Virtualisierung wagt, kann es dauern - wenn überhaupt. Anstatt sich die Technologie mit ihren Vorteilen ins Rechenzentrum zu holen, wird weitergemacht wie bisher und wertvolles Potenzial verschenkt.
Auswahl der Applikationen
Es gilt, den eigenen Ehrgeiz etwas zu bremsen. Sofort alle Server im Rechenzentrum zu virtualisieren, führt meist eher zu Problemen als zum gewünschten Erfolg. So sollten "Mission-critical" Applikationen besser zunächst ausgespart bleiben. Der Berater von der Experton Group rät als erstes bei Anwendungen zu lernen, bei denen es nicht so darauf ankommt. Sind die ersten Schritte zur Zufriedenheit gelaufen, kann es weiter gehen.
Einen Fachmann machen lassen
Es macht laut Schwab dabei meistens keinen Sinn, sich selbst als Rechenzentrumsleiter in das komplexe Thema Virtualisierung einzuarbeiten. Denn es erfordert Wissen auf unterschiedlichen Gebieten. Vernünftiger ist es, sich einen Dienstleister zu suchen, der das schon öfters gemacht hat und entsprechende Referenzen vorweisen kann. Das spart Zeit und hilft, Anfängerfehler zu vermeiden.
Workload analysieren
Ist ein Partner für das Projekt gefunden, sollte gemeinsam der Workload analysiert werden. Hier lohnt es sich, Zeit zunehmen, um gründlich und präzise die Ist-Situation im Rechenzentrum zu analysieren. Dabei geht es darum, herauszufinden, welche Anwendungen sich überhaupt virtualisieren lassen. Denn nicht jede Applikation harmoniert reibungslos mit der Virtualisierung.
Ressourcen bereitstellen
Als nächstes muss ermittelt werden, was an Ressourcen für diese Systeme in den virtuellen Maschinen notwendig ist. Wer nicht aufpasst, hat bald mit einem Wildwuchs virtueller Server im Rechenzentrum zu kämpfen. Ist dann nicht gewährleistet, dass Hardware- und Software-Ressourcen ausreichen vorhanden sind, droht die Virtualisierung schnell aus den Fugen zu geraten.
Auf SLAs achten
Bevor es ans Eingemachte geht, müssen Kunden mit dem Dienstleister genau die entsprechenden Service Level Agreements festlegen. Anschließend muss aber darauf geachtet werden, dass die auch während des Betriebes eingehalten werden. "Es ist zwar toll, wenn ich als Unternehmen durch Virtualisierung die Hälfte der Stromkosten spare. Wenn aber die SLAs nicht eingehalten werden, interessiert der geringere Energieverbrauch keinen mehr", sagt Schwab von der Experton Group.
Lizenzen nicht vergessen
Eng mit eben genannten Punkt verbunden ist auch das Thema Lizenzen der virtuellen Systeme und Anwendungen. Hier gibt es noch in manchen Fällen Schwierigkeiten bei den Lizenzmodellen, wie Michael Auerbach, Executive Vice President Computing Services and Solutions von T-Systems berichtet: "Es haben sich noch nicht alle Software-Hersteller auf Virtualisierung eingestellt."
Deshalb ist es dringend angebracht, Lizenzmodelle genauestens zu überprüfen. Wird für jede virtuelle Maschine eine Lizenz benötigt, kann das teuer werden, wenn deren Anzahl im Rechenzentrum ansteigt. Lizenzmodelle, bei denen uneingeschränkt viele Instanzen auf einem Server laufen dürfen, können eine interessante Offerte sein.
Nicht ohne Storage
Server-Virtualisierung könnte man schon fast als gängiges Mittel bei den Unternehmen bezeichnen. Zwei Drittel setzen bereits auf die Technologie, schätzt Schwab. Bei Storage sieht es dagegen allerdings noch etwas anders aus. Vielleicht gerade einmal ein Drittel der Unternehmen hat hier bereits auf Virtualisierung umgestellt. Hier sollte ein Umdenken stattfinden.
"Zu einer Server-Virtualisierung gehört auch eine Storage-Virtualisierung", sagt Der Experton Group-Analyst. Das ist zwar ein komplexes Thema, es macht aber durchaus Sinn, beide Punkte gemeinsam in Angriff zu nehmen. Der Vorteil dabei ist, dass eine Lösung migriert wird und man dann fertig ist, meint Schwab: "Wenn ich zuerst nur den Server auf Virtualisierung umstelle und später noch den Storage dazunehmen möchte, dann muss ich wieder mit dem Ganzen anfangen."
Das sieht man bei Fiducia ähnlich. "Eine grundsätzliche Zielsetzung unserer IT ist es, das Rechenzentrum zu einem virtualisierten Pool von Verarbeitungs-, Speicher- und Netzwerkleistungen zu entwickeln", berichtet Seisenberger.