Der Begriff Virtualisierung umfasst im IT-Bereich unterschiedliche Techniken. Im Prinzip geht es darum, die Software, etwa ein Betriebssystem oder einzelne Anwendungen, von der Hardware abzukoppeln. Das bedeutet nicht, dass die Hardware unwichtig wird, im Gegenteil: Aktuelle Chipsätze und Prozessoren sind auf eine Virtualisierung ausgelegt und unterstützen die Technik mit zusätzlichen Funktionen.
Größte Verbreitung hat die Virtualisierung im Server-Umfeld, dort kommt sie zum Einsatz, um ein akutes Problem zu lösen: Da moderne Server-Systeme oftmals zu leistungsfähig sind, um nur einzelne Server zu betrieben, liegt ein Großteil der Ressourcen brach. Mit der Virtualisierung ist es möglich, mehrere, voneinander komplett getrennte Server auf der gleichen Hardware zu installieren und diese unabhängig voneinander arbeiten zu lassen. So werden die zur Verfügung stehenden Ressourcen optimal zwischen den verschiedenen Systemen aufgeteilt. Positiver Nebeneffekt: Firmen benötigen insgesamt weniger Server oder können die frei gewordenen Kapazitäten im Datacenter für andere Aufgeben nutzen.
Das Problem älterer Systeme wird klar, wenn man sich die Virtualisierung als Schichtenmodell ansieht: Ganz unten ist dabei die physikalische Hardware zu finden, also Komponenten wie Prozessoren, Sub-Systeme für die Anbindung von Speichermedien, die Netzwerkkomponenten oder Arbeitsspeicher. Ursprünglich setzten die Betriebssysteme direkt darauf auf, konnten also Aufgaben ohne Umweg an die Hardware weiterleiten. Nun schiebt sich mit der Virtualisierung eine weitere Schicht zwischen Hardware und Software, durch die sämtliche Anfragen geleitet werden müssen. Diese zusätzliche Ebene zwischen Betriebssystem und Hardware wird häufig als Virtual Machine Manager oder einfacher VMM bezeichnet. Vor allem wenn mehrere Gast-Systeme auf einem physikalischen Host arbeiten, kann das zu einem enormen zusätzlichen Rechenaufwand führen, einem Overhead, der unnötig Ressourcen belegt.
Die Lösung für dieses Problem liegt in einer weiteren Schicht, der Intel Virtualisations-Technologie, kurz Intel VT. Mit Hilfe dieser Techniken kann der Overhead durch den Virtual Machine Manager minimiert werden, da dieser nicht mehr jede Instruktion selbst bearbeiten muss, das übernimmt zum Großteil Intels VT. Muss der VMM dennoch eingreifen, greift Intel VT unterstützend ein, um die Übergaben zwischen VMM und dem Gastsystem zu beschleunigen und zusätzlich gegen Störungen - und somit Datenverlust - abzusichern.
Hinter Intel VT verbirgt sich eine ganze Sammlung an Techniken. Jede für sich setzt an einem bestimmten Bereich und einem möglichen Flaschenhals an. Ein gängiges Problem, das auftritt, wenn mehrere Gast-Systeme auf einem Server installiert sind, ist der Anstieg des Input/Output-Traffic. Grob gesagt ist dies die Kommunikation zwischen einem Computer und einem anderen Gerät. Im Sonderfall der Virtualisierung bezeichnet man damit auch die Kommunikation zwischen den Hardware-Komponenten und den jeweils installierten Gast-Systemen. Das Problem dabei: Oftmals sind sich die Gast-Systeme der Virtualisierung nicht bewusst. Das führt dazu, dass der VMM die Anfragen jeweils separat abarbeiten und an die jeweiligen physikalischen Systemkomponenten weiterleiten muss. Steigt der I/O-Traffic an, gilt dies auch für den Verwaltungsaufwand.
In modernen Intel-Systemen helfen hier mehrere Komponenten, etwa Intel VT for Directed I/O. Diese kann eine direkte Verbindung zwischen einem Gast-System und einem gesicherten, speziell dieser virtuellen Maschine zugewiesenen Bereich des jeweiligen I/O-Gerätes herstellen. Vorteil hierbei: Durch den direkten Zugriff müssen die Befehle keinen Umweg über den VMM nehmen, der Ressourcenverbrauch wird optimiert.
Hilfreiche Techniken zur Server-Virtualisierung
Ein weiterer möglicher Flaschenhals ist die Netzwerk-Anbindung. Im Normalfall kommuniziert jede virtuelle Maschine mit weiteren Clients und Hosts im Netzwerk, etwa um Mail-Nachrichten zu versenden oder Informationen in einer Storage-Umgebung abzulegen. Hier hilft die Intel VT for Connectivity oder kurz Intel VT-c. Die Technik stattet die Netzwerkkomponenten mit zusätzlicher Intelligenz aus, damit diese für den Einsatz in virtuellen Umgebungen optimiert werden können. Eine davon ist SR-IOV, was ausgeschrieben für PCI-SIG Single Root I/O Virtualization steht. Einfach erklärt sorgt diese Technik dafür, dass virtuelle Maschinen ein direkter Kommunikationsweg zur Verfügung steht. Dadurch reduziert sich die Rechenlast für VMMs und Prozessoren deutlich. Ein weiterer Vorteil: Einzelnen virtuellen Servern kann mit dieser Technik eine stabile Verbindung garantiert werden. In der Praxis könnte man damit etwa dafür sorgen, dass dem Mail-Server stets eine garantierte Mindestgeschwindigkeit gewährleistet wird.
Ebenfalls populär ist die Workstation Virtualisierung – auch wenn diese längst nicht so verbreitet ist wie das Server-Pendant. Der große Unterschied: Sitzt beim Server der VMM direkt auf der Hardware, schiebt sich auf der Workstation noch das Betriebssystem dazwischen. Ein praktisches Anwendungsbeispiel ist der XP-Mode in Windows 7. Dabei handelt es sich um ein virtuelles Windows XP, das in Windows 7 mit Hilfe des VMM Virtual PC installiert wird. Anschließend kann der Nutzer Windows XP während des Betriebs von Windows 7 starten. Andere bekannte Lösungen in diesem Umfeld sind VMware Workstation oder der Sun VirtualBox. Bei der Workstation Virtualisierung geht es also im Grunde darum, auf einem laufenden Betriebssystem ein weiteres auszuführen, ohne dass ein Reboot vorgenommen werden muss.
Virtualisierung am Arbeitsplatz
Da auch die Workstation-Virtualisierung ein wachsender Trend ist, stellt dies die Hardware in Desktop-Systemen vor ähnliche Probleme wie im Server-Umfeld. Auch hier sind also Techniken notwendig, welche den Nutzer unterstützen und dem VMM möglichst viele Aufgaben abnehmen. Intel begegnet diesen Problemen damit, dass die Server-Techniken rund um Intel VT auch in die modernen Prozessoren und Chipsätze der Core-Serie Einzug halten.
Wer Workstation Virtualisierung ausgiebig nutzen will, sollte sich also in jedem Fall eine entsprechende Hardware auf Intel-Core-Basis zulegen, beim Betriebssystem ist eine 64-Bit-Unterstützung fast Pflicht. Der Grund dafür ist, dass bei der Workstation Virtualisierung oftmals der Arbeitsspeicher den Flaschenhals darstellt. Wirklich sinnvoll ist Virtualisierung daher erst bei 64-Bit-Architekturen, da diese Systeme mehr als vier GByte Arbeitsspeicher adressieren und nutzen können.
Relativ jung ist das Thema Virtual Desktop Infrastructure, kurz VDI. Das Konzept dahinter ist vor allem für Firmen interessant: Der komplette Arbeitsplatz des Nutzers ist nicht mehr direkt auf einem PC oder Notebook installiert, sondern wird über das Netzwerk als virtuelle Maschine von einem Server gestreamt. Da alle Systeme der Nutzer zentral im Datacenter verwaltet werden, können Administratoren einfacher neue Updates aufspielen, innerhalb weniger Minuten neue Arbeitsplätze anlegen oder ohne große Verluste auf einen früheren Stand zurückkehren.
VDI und virtualisierte Anwendungen
Ein weiterer Vorteil: Im Prinzip kann der Nutzer damit nahezu jeden beliebigen Rechner als Empfangsgerät verwenden – selbst ein Rechner im Internet-Cafe kann auf diese Weise als sicherer Arbeitsplatz im Unternehmensnetzwerk fungieren. Notebooks mit Intel vPro unterstützten diese VDI-Technik mit einem speziellen Offline-Modus. Ist normalerweise eine aktive Internetverbindung für das Streaming des Arbeitsplatzes zwingend erforderlich, kann ein solches System mit vPro die Arbeitsumgebung selbst dann zur Verfügung stellen, wenn der Rechner nicht mit dem Firmennetz verbunden ist. Die in dieser Zeit vorgenommenen Änderungen werden übertragen, sobald die Verbindung wieder steht.
Anders bei der Anwendungsvirtualisierung. Hier greifen Nutzer auf einzelne Anwendungen statt kompletter Arbeitsplätze zu. Diese werden nicht lokal auf einem Desktop installiert, sondern sind ebenfalls nur auf dem Server abgelegt. Produkte wie beispielsweise der Citrix Receiver können sich mit diesen Installationen verbinden und die jeweilige Anwendung dann auf dem Endgerät des Nutzers ausführen. Vorteil dabei: Beim Endgerät ist der Nutzer flexibel. Solange die Receiver-Software darauf läuft, kann ihm nahezu jede beliebige Software zugänglich gemacht werden.
Citrix und Intel wollen diese Kooperation noch vertiefen und den nächsten Schritt in der Arbeitsplatz-Virtualisierung gehen. Auf Basis eines Xen-Servers soll es künftig möglich sein, virtuelle Desktops direkt aus einem Browser heraus zu starten und damit zu arbeiten. Weiterer Vorteil der Lösung soll sein, dass Nutzer die virtuelle Maschine (VM) der Firma parallel auf dem eigenen System ausführen kann. Während sich der User also in „seinem“ System austoben kann, unterliegt das Firmen-System starken Einschränkungen um etwa die Gefahr eines unerlaubten Zugriffs oder den Diebstahl von sensiblen Daten zu verhindern. Zudem ist es möglich, die Firmen-VM ständig mit dem zentralen Server abzugleichen, selbst wenn ein Client also verloren geht, sind alle Daten noch zentral gespeichert.
Quelle: PC-Welt