Server sind bekanntlich Verschwender. Sie nutzen normalerweise lediglich 10 bis 20 Prozent ihrer Kapazität, der Rest ist Reserve. Der überwiegende Teil der Server-Arbeit besteht daher im Warten auf Arbeit - und im Erzeugen von Wärme und Verbrauchen von Strom. Durch die Konsolidierung der Server lässt sich deren Auslastung deutlich erhöhen, denn eventuelle Schwankungen bei der Beanspruchung können innerhalb einer physischen Maschine verteilt werden.
Wer auf diese Weise weniger Server einsetzt, muss auch weniger für Strom und Kühlung aufwenden, und eine geringere Anzahl von Geräten braucht schließlich auch weniger Platz; ein wichtiger Aspekt, wenn der Server-Raum schon aus allen Nähten platzt.
Die offenkundigen wirtschaftlichen und technischen Vorteile der Virtualisierung haben diese zu einem der großen aktuellen IT-Trends werden lassen – auch in kleineren und mittleren Unternehmen. Überall wird jetzt virtualisiert, und fast alle Hersteller unterstützen diesen Trend - mancher vielleicht mit gemischten Gefühlen, weil die Anzahl der verkauften Geräte natürlich sinkt, wenn Unternehmen nicht mehr Server neben Server stellen, sondern wenige leistungsstarke Systeme mit logischen Servern voll packen. Die Sache hat allerdings auch für die Anwender einen kleinen Haken, der in der derzeitigen Virtualisierungs-Euphorie gern übersehen wird.
Risiken virtueller Server
Je mehr logische Server auf einer physischen Maschine laufen, desto gravierender sind Systemausfälle. Fällt in einer herkömmlichen Server-Landschaft ein Gerät aus, so trifft es die dort betriebene Anwendung - die Auftragsverwaltung, die Datenbank oder den Mail-Server. So bitter das im Fall des Falles dann sein mag - wenigstens können alle anderen Anwendungen weiterlaufen. In einer Virtualisierungslösung ist dagegen immer eine ganze Reihe von Applikationen betroffen. Bei kleineren Unternehmen, die möglicherweise alle Anwendungen auf einen Server gepackt haben, bedeutet das unter Umständen einen Totalausfall der Applikationen. Und das ist in einer Zeit, in der Geschäftsprozesse vollständig auf die Verfügbarkeit ihrer IT angewiesen sind, für Unternehmen nicht hinnehmbar.
Niveau der Verfügbarkeit |
Betriebszeit pro Jahr |
Ausfallzeit pro Jahr |
---|---|---|
99,0% |
8.672,40 Stunden |
87,6 Stunden |
99,9% |
8.751,24 Stunden |
8,8 Stunden |
99,99% |
8.759,12 Stunden |
52,5 Minuten |
99,999% |
8.759,91 Stunden |
5,2 Minuten |
99,9999% |
8.759,99 Stunden |
0,5 Minuten |
Referenz: 100% |
8.760 Stunden |
0 Sekunden |
Gerade kleinere und mittlere Unternehmen, die nur wenige virtualisierte Server betreiben, müssen diese deshalb besonders absichern. Sie müssen dafür Sorge tragen, dass Systemausfälle nicht nur selten, sondern nie vorkommen. Dabei scheiden Lösungen aus, die im Störungsfall administrative Eingriffe erfordern, erst recht für Unternehmen, die keine große IT-Mannschaft beschäftigen können. Im Ernstfall wird der für den Neustart der Server zuständige Experte nämlich auf Fortbildung und sein Vertreter im Krankenhaus sein; und nun fängt der Kollege, der normalerweise für Word und Excel zuständig ist, erst einmal mit dem Studium der Handbücher an - eine hohe Verfügbarkeit der IT lässt sich so natürlich nicht gewährleisten.
Ausfallsicherheit - aber wie?
Bis vor wenigen Jahren hätten Unternehmen zur Sicherstellung von Hochverfügbarkeit auf proprietäre Speziallösungen zurückgreifen müssen - Lösungen, die teuer und aufwändig sind, also nur wenig geeignet für kleinere und mittlere Betriebe. Mittlerweile gibt es jedoch sowohl Hardware- als auch Software-basierte hochverfügbare Systeme, die ganz auf Standard-Technologien aufbauen.
Stand-By-Lösung |
Cluster-Lösung |
Hardware-Lösung |
Software-Lösung |
|
---|---|---|---|---|
Investition |
Gering |
Hoch |
Hoch |
Gering |
Implementierungsaufwand |
Keiner |
Hoch |
Gering |
Sehr gering |
Administrationsaufwand |
Mittel |
Hoch |
Gering |
Gering |
Spezielles |
Keines |
Hoch |
Keines |
Keines |
Anwendungssoftware |
Standard |
Angepasst |
Standard |
Standard |
Erreichbare |
99,9 % |
99,95 % |
99,9999 % |
99,99 % |
Beide Varianten betreiben Störungsvermeidung anstatt Störungsbehebung: Fehler treten gar nicht auf, so dass die aufwändigen und immer auch kritischen Maßnahmen zur Wiederherstellung von Prozessen oder Transaktionen gar nicht erst ergriffen werden müssen. Diese Systeme arbeiten auch im Störungsfall völlig selbstständig.
Hochverfügbarkeit per Hardware
Fehlertolerante Server erreichen eine kontinuierliche Verfügbarkeit durch einen komplett redundanten Systemaufbau. Alle wichtigen Komponenten, also Prozessoren, Speicher-Chips, I/O-Einheiten, Netzteile und Festplatten, sind doppelt vorhanden, so dass bei einem etwaigen Ausfall die jeweils korrespondierende Komponente den Betrieb ohne Unterbrechung weiterführen kann.
Viele fehlertolerante Server-Lösungen erreichen dadurch eine Verfügbarkeit von 99,9999 Prozent, was einer durchschnittlichen Ausfallzeit von etwa einer halben Minute pro Jahr entspricht. Dieses Verfügbarkeitsniveau reicht sogar für die Flugsicherung. Wenn die fehlertoleranten Server Standard-Technologie verwenden, sind sie vollständig kompatibel zu VMware ESX, so dass die Virtualisierungs-Software direkt auf der Hardware aufsetzen kann, Anpassungen der Anwendungs-Software sind daher nicht erforderlich.
Hochverfügbarkeit per Software
Für kleinere und mittlere Unternehmen eignet sich eine Software-basierte Hochverfügbarkeitslösung, da sie nur geringe Kosten verursacht und ohne Aufwand zu implementieren und zu betreiben ist. Während bei der Hardware-Lösung speziell aufgebaute Server verwendet werden, kann eine Software-Lösung auf Standard-x86-Servern basieren und zwei dieser Server per Software zu einer hochverfügbaren Einheit verbinden.
Mit der Lösung kann automatisch auf beiden Servern ein gemeinsamer logischer Server installiert werden, auf dem sich wiederum beliebig viele virtuelle Server einrichten lassen. Im Störungsfall kann die Software dann automatisch auf den jeweils anderen Server umschalten und dafür sorgen, dass der Betrieb reibungslos fortgesetzt wird. Das Verfügbarkeitsniveau liegt etwas unter dem der Hardware-Lösung; mit 99,99 Prozent, was einer durchschnittlichen Ausfallzeit von etwa einer Stunde pro Jahr entspricht. Diese Lösung übertrifft aber immer noch die Verfügbarkeit klassischer Großrechner.
Physische und virtuelle Systeme richtig verwalten
Für kleine IT-Teams ist wichtig, dass man mit der Software-Lösung die virtuellen Maschinen, die physikalischen x86-Server und Netzwerkschnittstellen auch aus der Ferne überwachen und verwalten kann. Die meisten heute angebotenen Lösungen lassen sich beispielsweise auch an verteilten Standorten ohne Fachpersonal vor Ort einsetzen, ein Szenario, das besonders bei entfernten Niederlassungen häufig vorkommt.
Außerdem ist bei der Lösung nicht nur die Administration problemlos, auch die Implementierung ist relativ einfach, weil hier im Unterschied zu den Cluster-Lösungen keine aufwändigen Konfigurierungen oder Software-Anpassungen erforderlich sind. Die komplette Virtualisierungs-Software lässt sich daher in sehr kurzer Zeit installieren.
So können auch kleinere und mittlere Unternehmen ihre unternehmenskritischen IT-Anwendungen in einer echt hochverfügbaren Umgebung betreiben und so das Ausfallrisiko fast auf Null reduzieren. Aufwand und Kosten dafür sind dabei überschaubar - erst recht wenn man sie ins Verhältnis zum möglichen Schaden eines Serverausfalls setzt.
Quelle: Tecchannel