Die Welt der Hypervisoren besteht auf der einen Seite aus den Angeboten von VMware, Microsoft und Citrix. Ihnen stehen auf der anderen Seite offene oder halb-offene Hypervisoren aus der Open-Source-Ecke gegenüber, deren Quellcode von vielen unbezahlten Entwicklern weiter gepflegt und verbessert wird. Einige professionelle Unternehmen wie Oracle, RedHat oder Suse haben diese Programme unter ihre Fittiche genommen und sind für Wartung und Service verantwortlich.
Laut Kerry Kim, bei Suse für Solutions-Marketing verantwortlich, sind die nicht-proprietären Virtualisierungsprodukte mit ihren Open-Source-Hypervisoren mehr auf schnellere Weiterentwicklung und neue Module und Tools ausgerichtet. Diese Meinung unterschlägt allerdings, dass alle drei Marktführer VMware, Microsoft und Citrix sehr viel getan haben, um professionell einsetzbare Werkzeuge zu schaffen. Gerade bei VMware wird ja immer wieder als Kritik geübt, dass die kaum noch überschaubare Bandbreite an Funktionen inzwischen an den Bedürfnissen vieler Unternehmen vorbeigeht.
IBM und RedHat treiben Open Virtualization Alliance an
Viele Anwender, die Hypervisoren auf der Grundlage von Open Source bevorzugen, haben sich für einen pragmatischen Weg entschieden und vertrauen auf kommerzielle Provider und deren Unterstützung bei der Implementation und beim Service. Auch Hewlett-Packard und IBM bieten Unterstützung bei quelloffenen Hypervisoren an. IBM ist sogar neben RedHat einer der hauptsächlichen Promotoren der Open Virtualization Alliance, die langsam an Einfluss gewinnt.
Adam Jollans, Programmdirektor für IBMs Linux- und Open-Virtualization-Strategie, sieht den entscheidenden Schritt bei der allgemeinen Durchsetzung von Hypervisoren in der ab 2005 erfolgten Unterstützung durch die beiden Prozessorhersteller Intel und AMD. Diese sorgten dafür, dass x86-Server und die Hypervisor-Programme einfacher miteinander kooperieren konnten. In den Jahren zuvor bedurfte es dafür sehr vieler individueller Anstrengungen auf Seiten der Systemadministratoren.
Der Analyst Al Gillen von IDC verweist auf drei Gründe, warum sich Anwender für oder gegen bestimmte Hypervisoren entscheiden:
3 Entscheidungsgründe für Anwender
1. In vielen Fällen wählen Anwender nicht unbedingt die beste Technologie, sondern orientieren sich daran, dass sie verschiedene Server-Plattformen im Einsatz haben: Sie suchen sich einen Hypervisor aus, der mit diesen verschiedenen Plattformen umgehen kann.
2. In anderen Fällen entscheiden sie laut Gillen nach dem Kriterium, wie sich Hypervisor und das eingesetzte Betriebssystem miteinander vertragen. Das kann dann bedeuten, dass sie ein Produkt von dem gleichen Hersteller nehmen, von dem sie schon das Betriebssystem bezogen haben. Ihr Ziel ist ein gemeinsamer Software-Stack.
3. Inzwischen gehen Anwender auch davon aus, was sich am besten in ihre langfristige Cloud-Strategie für ihre IT-Infrastruktur integrieren lässt. So sind zum Beispiel IBM-Kunden sicher gut beraten, wenn sie sich mit der Smart Cloud Foundation aus diesem Haus und den darin enthaltenen Stufen einer neuen Service-Architektur auseinandersetzen.
Praxis: Drei oder vier Hypervisoren im Einsatz
Gillen schätzt, dass gerade die großen Unternehmen bald drei oder vier verschiedene Hypervisoren einsetzen werden, auch wenn sie das eigentlich gar nicht beabsichtigen. Bei IDC hat man mit vielen Kunden gesprochen, die zunächst mit VMware anfingen – ganz einfach aus dem Grund, weil die EMC-Tochter als erste mit Virtualisierung für x86-Server herauskam. Inzwischen setzen sie auch andere Virtualisierungs-Software ein, zunächst für Workloads und Applikationen, die nicht so wichtig erscheinen. Es wird mehr herumexperimentiert, um die Alternativen, die es inzwischen gibt, besser kennenzulernen.
So erhöhen sich auch die Chancen, langfristig auf einen anderen Anbieter als VMware zu setzen, wenn man sich aus dem Lock-in befreien möchte. Gillen berichtet, dass einige Kunden offenbar diesen Weg gehen wollen, wenn sie eine Phase des Testens und erster Implementationen in Realsituationen beendet haben. Doch der Analyst schränkt zugleich ein: "Als generelle Regel auf Anwenderseite sehe ich eher, dass man es vermeiden möchte, die IT-Infrastruktur zu sehr zu diversifizieren.“
Keine Lock-in-Gefahr bei Hypervisoren
Gillen sieht auch keine wirkliche Gefahr, dass man sich alleine mit einem bestimmten Hypervisor in eine Lock-in-Situation begeben könne. Wer sich für einen anderen Anbieter entscheide, könne leicht von einem Hypervisor zu einem anderen migrieren, was so bei den Management-Tools für Virtualisierung nicht möglich sei. Es bleibt abzuwarten, ob demnächst die Verwaltung verschiedener Hypervisoren von VMware, Xen oder KVM unter einer gemeinsamen Konsole möglich sein wird. Bei IBM glaubt man, dass es schon bald der Fall sein wird.
Anwender, die den Übergang zu Cloud-Dienstleistungsszenarien planen, sollten prüfen, ob ein eventueller externer Provider andere Virtualisierungs-Tools als sie selbst einsetzt und wie sie sich gegebenenfalls miteinander vertragen. IDC-Mann Gillen sieht in diesem Zusammenhang einen klaren Vorteil bei VMware, da man dort nicht so sehr an ein bestimmtes Betriebssystem und dessen Management-Software gebunden sei. Bei KVM und Linux ist die Verzahnung größer. IBM reklamiert dagegen schon jetzt, dass man mit VMControl ein Werkzeug zur Steuerung unterschiedlicher Hypervisoren anbieten kann.
Ratschlag: Hypervisoren als Teil des Betriebssystems implementieren
In diesem Zusammenhang verweist Gillen darauf, dass es bei den Xen-Hypervisoren verschiedene Versionen gebe, was das Management erschwere. Er empfiehlt, dass man auf lange Sicht die Hypervisoren als Teil des Betriebssystems implementieren solle. Dann müsse man nicht jeden Hypervisor noch einmal getrennt auf die jeweilige Hardware abstimmen.
VMware, heute mit einem Marktanteil von etwas mehr als der Hälfte der Hypervisoren (laut IDC), wird seine beherrschende Position wohl behalten. Gillen argumentiert, dass es aber zukünftig noch mehr auf die Management-Funktionen der Tools rund um den Hypervisor ankommen wird. Hier werde über Services, Provisionierung, Applikations- und Cloud-Integration entschieden.
Quelloffene Hypervisoren auf dem Vormarsch
Mit der Rückendeckung durch IBM und andere Hersteller wird sich voraussichtlich die Bedeutung der Open Virtualization Alliance und quelloffener Hypervisoren ausdehnen, meint man bei IDC. Allerdings sind solche tiefen Blicke in die Glaskugel schon öfter völlig anders ausgegangen. So ist der prognostizierte Durchbruch für Linux keineswegs eingetreten – Microsoft beherrscht mit Windows die Welt der x86-Server. Und von Unix (mit eigener Virtualisierungstechnologie) hört man auch nicht mehr so viel.
Dieser Artikel basiert auf einem Beitrag der CW-Schwesterpublikation CIO.