Gartner hat laut eigener Aussage mit Tausenden von Kunden über die Sicherheitsrisiken von Virtualisierung gesprochen. Zwar hätten die Unternehmen erst 18 Prozent der Workloads in ihren Rechenzentren virtualisiert, die sich für diese Technologie eignen (in der Regel fast alle außer großen Datenbanken und geschäftskritischen ERP-Anwendungen), doch werde dieser Prozess bis zum Jahr 2012 schon mehr als 50 Prozent der Applikationen erfasst haben.
Die Analysten von Gartner gehen davon aus, dass 60 Prozent der virtuellen Server bis zu diesem Zeitpunkt unsicherer sind als die physikalischen Rechner. Erst danach, bis 2015, werde dieser Anteil voraussichtlich wieder sinken – auf 30 Prozent. Ob sich diese Wende zum Positiven aber wirklich durchsetzt, hängt sehr stark davon ab, welche Maßnahmen die Anwender ergreifen.
Gartner definiert sechs Risikofelder bei Virtualisierung und legt in der neuen Studie „Addressing the Most Common Security Risks in Data Center Virtualization Projects" auch jeweils gleich spezielle Empfehlungen vor, wie Unternehmen im Kampf gegen diese Bedrohungen vorgehen sollten.
Risiko 1: Sicherheitsspezialisten nicht von Beginn an in Virtualisierungsprojekte einbezogen
Laut Gartner wurden 2009 etwa 40 Prozent der Virtualisierungsprojekte gestartet, ohne dass die Security-Fachleute im eigenen Haus an den Planungsphasen beteiligt wurden. Das sei zwar gegenüber Umfragen von 2008 mit einem Anteil 50 Prozent ein geringerer Anteil, führe aber noch immer zu einer falschen Risikoeinschätzung: Mögliche Risiken, die erst gar nicht erkannt und kommuniziert werden, können auch nicht gemanagt werden.
Neuorganisation der Planungsprozesse
Verantwortlich für diese Gefahr ist nach Gartner eine Einschätzung der IT-Abteilung, dass man eigentlich gar nichts ändere, da man Tools und Wissen besitze, mit denen man weiterhin Workloads, Betriebssysteme und die darunter liegende Hardware absichern könne. Die Gartner-Analysten weisen darauf hin, dass dies zwar richtig sei, aber den neuen Software-Layer vernachlässige, der mit der Installation eines Hypervisors und von virtuellen Maschinen entsteht.
Mit einer Umorganisation des Planungsprozesses und der verbesserten Absicherung beziehungsweise Abtrennung der verschiedenen virtuellen Maschinen und ihrer Applikationen kann das Sicherheitsrisiko eingegrenzt werden, ohne dass zusätzliche Tools angeschafft werden müssen.
Risiko 2: Virtualisierungsschicht enthält Software-Fehler oder lässt Hacker-Angriffe durch
Der Virtualisierungs-Layer ist nach Ansicht von Gartner ein Stück Software wie andere auch. Und als solche ist sie nicht gefeit vor internen Fehlern oder möglichen Angriffsflächen. Hypervisoren mit weniger Lines of Code reduzieren zwar das Risiko von Attacken, können aber nicht grundsätzlich Hackerangriffe ausschließen. Gefahren können auch dadurch entstehen, dass die Virtualisierungsschicht gegenüber den Anwendungen und Management-Tools durchlässig ist oder dass zusätzliche Software wie Treiber oder Plug-ins aufgespielt wird. Einen Ausweg sieht Gartner in regelmäßigen Patches sowie in Konfigurationsrichtlinien.
Risiko 3: Interne virtuelle Netzwerke bleiben unsichtbar für Security-Tools
Für die Kommunikation zwischen den verschiedenen virtuellen Maschinen verfügen die meisten Virtualisierungsplattformen über virtuelle Switche und Netzwerke. Der auf dieser Ebene ablaufende Datenverkehr bleibt für Security-Software, die wie zum Beispiel Intrusion-Prevention-Systeme im Firmennetzwerk installiert ist, unsichtbar. Als Schutzmaßnahme empfiehlt Gartner, nur solche Sicherheitsprogramme einzusetzen, die in der Lage sind, neben den physikalischen auch virtuelle Umgebungen zu kontrollieren.
Risiko 4: Virtuelle Maschinen nicht ausreichend voneinander abgetrennt
Immer mehr Applikationen werden auf virtuelle Umgebungen verlagert. Gefährlich wird dies laut Gartner dann, wenn sich unterschiedliche Trust Zones oder Sicherheitslevels von Anwendungen auf dem gleichen physikalischen Server befinden, ohne deutlich voneinander abgegrenzt zu sein. Besonders gefährlich wird es, wenn geschäftskritische Anwendungen routinemäßig zwischen verschiedenen virtuellen und physikalischen Servern hin- und hergeschoben werden. Als Minimum an Schutz empfiehlt Gartner, die gleichen Standards der Abgrenzung von Applikationen oder Workloads einzuführen, wie sie in physikalischen Netzwerken üblich sind. Besonders abgesichert sollten virtuelle Desktop-Umgebungen sein, wenn sie im Rechenzentrum gehostet werden.
Schlechte Zugangskontrolle
Risiko 5: Mangelnde Zugangskontrolle zum Virtualisierungslayer und zu den Verwaltungswerkzeugen
Wenn mehrere physikalische Server auf einen Rechner konsolidiert werden, müssen die Grenzen zwischen den verschiedenen virtuellen Bereichen streng überwacht werden. Und einer besonders strengen Überprüfung bedarf der Zugang zu den Kontroll- und Verwaltungsinstanzen der virtuellen Umgebung. Gartner betont, dass die Problematik noch verschärft wird durch die verschiedenen Ebenen, auf denen das Virtualisierungsmanagement stattfindet: Browser, Server-Konsole, Skripten, Management-Tools für Virtualisierung und so weiter. Die Komplexität erhöht sich noch durch die Möglichkeiten von Live Migration und Automatisierung. Die Zugangskontrollen müssen deshalb laut Gartner mindestens so eng ausgelegt werden wie bei Betriebssystemen.
Risiko 6: Kein gemeinsamer Schutz von physikalischen und virtuellen Netzen
Die Gartner-Analysten warnen auch vor der Trennung der Zuständigkeiten für physikalische und virtuelle Switche und Netze. Oft kümmert sich der Betreuer der virtuellen Umgebung und Server auch noch um die virtuellen Netzwerke. Um Inkompatibilitäten zwischen der physikalischen und der virtuellen Welt zu vermeiden, empfiehlt Gartner, diese Aufgabe in die Hände derjenigen IT-Mitabeiter zu legen, die sich auch um die physikalischen Switche und Netzwerke kümmern.