So richtig deutlich will es noch keiner sagen, aber die Zeichen mehren sich, dass die beherrschende Rolle der Betriebssysteme, sei es Windows oder Linux, zumindest bei den Intel-Rechnern dahinschwinden könnte. Hypervisoren übernehmen Verwaltungs- und Steuerungsaufgaben, die bisher in der Verantwortung von Betriebssystemen als zentraler Schnittstelle zwischen Hardware und Anwendungen lagen.
Unbestritten sind die Funktionen eines Betriebssystems, die vor allem die Ressourcenzuteilung der Hardware an die Applikationen und das Bereitstellen von Treibern für die Hardwarekomponenten betreffen. Server-Betriebssysteme unterscheiden sich auch dadurch, wie viele solcher Programmteile sie auf Vorrat beziehungsweise für alle Fälle integriert haben - von Linux auf der schmalen bis zu Windows auf der sehr mächtigen Seite.
Die eher schmalbrüstigen Prozessoren für x86-Rechner haben vor allem seit der Jahrtausendwende wahre Quantensprünge in ihrer Leistungsfähigkeit hingelegt, sodass sie immer näher an die großen Brüder von Unix und Mainframe heranreichen. Für einen einzelnen Server plus Applikation war das viel zu viel und konnte letztlich von keiner noch so ressourcenhungrigen Anwendung für sich allein ausgenutzt werden.
Um diese überschüssige CPU-Leistung abzuschöpfen und gerecht zu verteilen, lag es nahe, Prinzipien aufzugreifen, die bei Unix- und Mainframe-Rechnern schon seit Jahrzehnten Usus waren. Dort gehören Hardware-Partitionierung und Virtualisierung entweder als statische oder als dynamische Zuteilung von CPU oder Arbeitsspeicher zur Standardausrüstung.
Sicher war es die historische Leistung von Forschern an amerikanischen und britischen Universitäten, die Mainframe-Virtualisierung auf die Bedingungen der x86-Rechner herunterzubrechen und sie hier zur Anwendungsreife zu bringen. Es war die Geburtsstunde von VMware in den USA und Open Xen in Großbritannien.
IDC-Analyst Rüdiger Spies erinnert an den Ausgangspunkt: "In der Mainframe-Welt war und ist es nichts Besonderes, über einer Virtualisierungsschicht (heute z/VM) verschiedene, voneinander abgetrennte Betriebssysteme und Applikationen zu fahren. Die VM-Schicht hatte schon damals verschiedene Betriebssystemfunktionen integriert."
Bei den x86-Servern lässt sich nun ebenfalls eine solche Schicht zwischen Betriebssystem und Hardware implementieren: Ein Hypervisor sorgt dann statt des klassischen Betriebssystems für die Zuteilung von Ressourcen an die einzelnen, voneinander abgetrennten virtuellen Maschinen.
Hypervisoren sorgen für Ordnung
Die eigentliche Leistung der Server-Virtualisierung besteht darin, mehrere unterschiedliche Betriebssysteme nebeneinander auf dem gleichen physikalischen Rechner unterzubringen, ohne dass sich diese und die ihnen zugeordneten Applikationen in die Quere kommen. Hypervisor und virtuelle Maschinen sorgen für einen Sicherheitsmechanismus, der so in Windows-Umgebungen nicht möglich war.
Damit dies funktioniert, muss sich die Virtualisierung um die Ressourcenverwaltung kümmern, und das in einer Weise, die genauer und gerechter vorgeht, als es ein Windows- oder Linux-Betriebssystem kann. Laut Stephan Gehring, bei HP Deutschland für Datacenter Modernization mit dem Schwerpunkt Virtualisierung zuständig, kann man so die CPU-Auslastung verbessern und kostengünstige Skaliereffekte im Rechenzentrum erreichen. Applikationen brauchen keinen eigenen Server mehr, sondern teilen sich in virtuellen Maschinen mit anderen Anwendungen eine gemeinsame physikalische Basis.
Eduard Glatz, Schweizer Professor an der ETH Zürich und Autor des Buchs "Betriebssysteme" (dpunkt Verlag), resümiert: "Betriebssysteme und Virtualisierungssoftware leisten nur im übertragenen Sinn das Gleiche. Während Virtualisierungssoftware die Hardware auf konkurrierende Gastbetriebssysteme aufteilt, macht dies das Betriebssystem auf konkurrierende Applikationen." Virtualisierungssoftware und Betriebssysteme seien architekturmäßig verschiedene Schichten, wie bei IBM-Großrechnern seit Längerem ersichtlich. Allerdings könne es sinnvoll sein, diese zwei Schichten optimal aufeinander abzustimmen und sie, so gesehen, auch zu einem Produkt zu verschmelzen.
Bei VMware ist man der Ansicht, dass die Bedeutung der Betriebssysteme weiter abnehmen werde. Schon jetzt habe ja der Hypervisor komplett die Kontrolle der physikalischen Infrastruktur der Rechner übernommen, meint Jörg Heske, Geschäftsführer von VMware Deutschland. Gerade Windows-Betriebssysteme schleppten viele überflüssige Funktionen mit. So habe der durchschnittliche Windows-Service-Manager etwa 150 Dienste laufen, die von 90 Prozent der Anwendungen nicht benötigt würden. Überdimensionierte Betriebssysteme stellen laut Heske auch ein Sicherheitsrisiko dar, da sie Hackern zu viel Angriffsfläche bieten.
Im Sinne der Anwender sei es deshalb, die klassischen Betriebssysteme langfristig abzulösen. Heske verweist auf die zunehmende Zahl von Virtual Appliances, bei denen einer Applikation gerade mal die Betriebssystemfunktionen, meistens auf Linux-Basis, mitgegeben würden, die unbedingt erforderlich sind. Solche vorfabrizierten, möglichst schlanken Anwendungen plus etwas Steuerungssoftware bietet die VMware-Homepage auf dem "Marketplace Virtual Appliances" an. Mehr als 1000 Stück sollen es bereits sein, auch einsetzbar für Cloud-Umgebungen.
Bei Microsoft sieht man naturgemäß die Rolle eines Betriebssystems ein wenig anders. Auf Basis einer Hardware-Plattform gehe es darum, sie so umfassend wie möglich für Endbenutzer und Administratoren beziehungsweise für Applikationen nutzbar zu machen. Für Ralf Schnell, der bei Microsoft Deutschland den schönen Titel eines "Technical Evangelist" trägt, ist eine Virtualisierungsschicht eine Ergänzung zum Betriebssystem, die es erlaubt, dass mehr als eine Betriebssysteminstanz auf die gleiche Hardware zugreift. Konsequent hat Microsoft den Hypervisor "Hyper-V" als eine Extension zu Windows Server 2008, Release 2, organisiert - letztlich allerdings mit den identischen Aufgaben, wie sie die Hypervisoren von VMware und anderen Anbietern ausführen.
Hyper-V für Windows
Hyper-V ist mit etwa 100 Megabyte noch schlanker als das Pendant bei VMware. Das geht aber nur, weil die Verzahnung mit dem Betriebssystem extrem eng ist. Schnell betont denn auch im Gespräch immer wieder, dass Hyper-V keine Funktionen von Windows übernehme. Anwendungen ließen sich nun mal nur auf Basis eines Betriebssystems zum Laufen bringen. Das sei "Stand heute" so. In Zukunft könne sich das aber durchaus ändern.
So hat Microsoft bereits die nächste Generation des "Virtual Machine Manager" vorgestellt, mit dem aus Anwendersicht frei definierbare Applikationen möglich seien, nicht nur vorfabrizierte Angebote wie beim Konkurrenten. Was bei VMware "Virtual Appliance" heißt, nennt man beim großen Konkurrenten "App-V". Unternehmen könnten sie künftig direkt aus einer "Public Cloud" heraus abrufen.
Linux-Anbieter Red Hat setzt ebenfalls auf die herkömmlichen Betriebssystemfunktionen. Mit KVM (Kernel-based Virtual Machine) hat man die Virtualisierungsaufgaben direkt in die Linux-Software integriert. Einen selbstständigen Hypervisor gibt es nicht.
Aus unabhängiger Sicht resümiert IDC-Analyst Spies die Kontroverse um Betriebssystem und/oder Virtualisierung: "Es ist richtig, dass die Server-Virtualisierung im x86-Umfeld immer mehr Funktionen der Betriebssysteme übernimmt. Das bedeutet aber nicht das Ende der Betriebssysteme, da ja nur ein Teilverlagerungsprozess stattfindet." Diese Funktionen, meistens zur Steuerung der Hardware-Ressourcen, würden lediglich unter einem anderen Mantel vorgenommen.
Würden die Betriebssysteme vollständig von der Virtualisierungsschicht aufgesogen, wäre allerdings ihre besondere Leistung wieder aufgehoben: die Abschottung verschiedener virtueller Maschinen gegeneinander, die mit unterschiedlichen Betriebssystemen nebeneinander auf einem physikalischen Server laufen. Dieser Sicherheitsmechanismus wäre dann wieder weg.
Nach Ansicht des Betriebssystemexperten Glatz ist die Entwicklung offen: "Bei dem neuerdings zu beobachtenden Wildwuchs des Begriffs ,Betriebssystem‘ kann es allerdings schon geschehen, dass ein Hersteller von Virtualisierungssoftware einen Linux-Kernel in sein Produkt integriert und das Resultat anschließend der staunenden IT-Fachwelt als neues Betriebssystem verkauft."
Virtualisierung - Drei Varianten
Der Analyst Josh Krischer von Krischer & Associates unterscheidet drei Typen von Server-Virtualisierung: 1. Hardware-Virtualisierung, bei der der Virtualisierungs-Layer direkt in die Firmware der Prozessoren eingebaut ist. Diese Technik zeichnet sich durch den geringsten Overhead und die feinste Granularität aus. Sie ist Bestandteil von Mainframes, IBM Power-Series (Unix) und Hitachi Blade Server. 2. Hypervisoren, die direkt auf der Hardware laufen (Bare-Metal- oder Typ-1-Hypervisoren). Darüber befinden sich eine Betriebssystemschicht und diverse virtuelle Maschinen (VM) oder Partitionen, in denen unterschiedliche Betriebssysteme nebeneinander und abgeschottet voneinander laufen. Pro VM ist eine Applikation zugeordnet. Beispiele: Open Source Xen, Microsoft Hyper-V, Citrix XenServer, Wind River, OpenSolaris, VMware ESX. 3. Typ-2-Hypervisoren werden oberhalb des Betriebssystems installiert. Die Performance dieser Technik ist langsamer, aber das Betriebssystem unterstützt eine breitere Palette von Treibern. |
Nur eine neue Abhängigkeit
Letztlich hätte man dann die Abhängigkeit von einem Betriebssystem - bei x86 in der Regel Windows, zunehmend auch Linux - lediglich durch eine neue Abhängigkeit ersetzt. Spies von IDC urteilt: "Mag sein, dass VMware und EMC das gerne so sehen würden, aber da spielen noch andere Faktoren eine wichtige Rolle. Microsoft wird mit Sicherheit kreativ genug sein, um eine solche Entwicklung zu verhindern."
Schließlich verfügt Microsoft über riesige Markt- und Partnerbeziehungen, um gegen Wettbewerber zu bestehen. Außerdem besitzt das Unternehmen genug Entwicklungskapazitäten, um Hyper V weiter zu verbessern und mehr Tools à la VMware herauszubringen. Und wenn alles nichts nützt, könnte Microsoft sogar EMC samt VMware kaufen. Geld dafür hätte man genug.
Dieser Artikel basiert auf einem Beitrag der CW-Schwesterpublikation CIO.