Darauf müssen Sie achten!
Risiken bei der Server-Virtualisierung vermeiden
Falle 2: Falsche und übertriebene Erwartungen
Die Virtualisierungs-Euphorie verleitet Unternehmen dazu, mit verfehlten und zum Teil auch übertriebenen Erwartungen sowohl an die Fähigkeiten der Technik als auch die potenziellen Nutzeneffekte heranzugehen. So werden bei der Planung und Einführung virtualisierter Server oftmals die Konsolidierungsfähigkeiten der neuen Infrastruktur überschätzt, was teilweise von optimistischen Herstelleraussagen gefördert wird. Mögen in Test-Setups und unter Laborbedingungen problemlos bis zu 50 verschiedene VMs auf einem Rechner ausreichend schnell und stabil laufen, werden in realistischen Produktions-Szenarios deutlich geringere Konsolidierungsraten erreicht.
Für den Betrieb von ressourcenintensiven geschäftskritischen Applikationen ist eine Beschränkung auf 6 bis 8 VMs je Rechner durchaus üblich. Wird hier im Vorfeld von höheren Konsolidierungsraten ausgegangen, droht eine Kostenexplosion, da letztlich doch mehr Rechner bereitgestellt werden müssen, die wiederum mehr StorageStorage, Netzwerk-Kapazität, Lizenzen und Administration benötigen. Alles zu Storage auf CIO.de
Gerade zu Beginn von Virtualisierungsvorhaben werden oft eher weniger ausgelastete und weniger kritische Server auf virtuellen Systemen konsolidiert, was meist gut funktioniert. Zu Problemen kommt es, wenn diese Ratios in späteren Projektphasen auf hochgradig ausgelastete Mission-Critical-Systeme mit womöglich hohen Anforderungen an die Netzwerkbandbreite übertragen werden. Dies führt zwangsläufig zu eklatanten Flaschenhälsen.
Als Faustregel sollten virtualisierte Rechner so geplant werden, dass maximal 60 Prozent der physischen Ressourcen ausgelastet werden. Damit erreicht man immer noch hohe Konsolidierungsraten, hat aber gleichzeitig genügend Reserven. Entsprechend erhöhte Kosten sind dafür einzuplanen.