Von den Branchenriesen lernen
Hochverfügbarkeit richtig umsetzen
Dass Großkonzerne sich die modernste Technik leisten können, ist bekannt. Aber nicht nur die unterschiedlichen Geldmittel hindern mittelständische Unternehmen daran, Facebook und Google sofort alles nachzumachen: der Leitspruch "Kaufe niemals die erste Version" sorgt dafür, dass nur im Ausnahmefall die neueste Technik angewandt wird. Nach ein bis zwei Jahren Marktreife lässt sich schließlich besser entscheiden, wo die Stärken und Schwächen liegen und ob die Technik für das eigene Unternehmen geeignet ist. Hochverfügbarkeit ist ein gutes Beispiel für dieses Phänomen.
Technologisch hat sich seit den ersten Angeboten viel verändert. Startups und Branchengiganten haben bereits erfolgreich Hochverfügbarkeit umgesetzt. Dennoch herrscht in vielen Unternehmen noch Unklarheit über mögliche Einsätze, Konzepte und Vorteile - sie reagieren mit Unkenntnis oder setzen verfügbare Software nicht korrekt ein.
Dabei gibt es genügend Gründe, sich mit Hochverfügbarkeit auseinander zu setzen: Unternehmen, die jetzt mittel- und langfristige IT-Entscheidungen treffen, etwa zur Automatisierung der Infrastruktur, sollten sich die Vorteile und Möglichkeiten vor Augen führen. Das eigene System lässt sich stabilisieren und gegen Hochlasten absichern, Fehler werden frühzeitig entdeckt und drastisch reduziert, und die damit verbundene Automatisierung ermöglicht deutliche Einsparungen bei Wartung und Betrieb.
- 10 Mythen über Hochverfügbarkeit
Geredet wird darüber viel, aber nur wenige Unternehmen haben wirklich hochverfügbare Systeme im Einsatz. Ursache dafür sind oft falsche Vorstellungen zum Thema. Stratus entzaubert die Mythen. - Mythos 1: Normale Server bieten heute ausreichend Sicherheit
Tatsächlich sind Server in den letzten Jahren wesentlich zuverlässiger geworden. Allerdings sind auch die Anforderungen gestiegen: Unternehmen betreiben unternehmenskritische Anwendungen heute auf Standard-Servern. Solche Anwendungen müssen kontinuierlich verfügbar sein, sonst können hohe Verluste entstehen, die möglicherweise sogar die Existenz des Unternehmens gefährden. - Mythos 2: Hochverfügbarkeit ist nur für große Unternehmen relevant
Ausnahmslos alle Unternehmen sind heute von ihrer IT abhängig und müssen daher Risikovorsorge betreiben. Lösungen wie fehlertolerante Server oder hochverfügbare Software-Lösungen, wie Stratus everRun oder Stratus Avance, sind aufgrund des geringen Aufwands für Implementierung und Administration auch für kleinere und mittlere Unternehmen geeignet. - Mythos 3: Hochverfügbarkeit ist teuer
Die Kosten von Hochverfügbarkeits-Lösungen müssen im Verhältnis zum möglichen Schaden gesehen werden. Tatsächlich ist Hochverfügbarkeit heute auch für kleinere Unternehmen erschwinglich. Fehlertolerante Server kosten unterm Strich sogar weniger als entsprechende Cluster-Lösungen, weil keine zusätzlichen Kosten für Software-Anpassung, zusätzliche Lizenzen oder eine aufwändige Administration anfallen. - Mythos 4: Hochverfügbarkeit ist aufwändig zu administrieren
Cluster-Lösungen erfordern tatsächlich aufwändige Implementierung und Administration. Fehlertolerante Server, die aus komplett redundanten Komponenten aufgebaut sind, verhalten sich gegenüber dem Benutzer wie ganz normale Server; die Administration ist nicht schwieriger als bei einem Standard-Server. - Mythos 5: Hochverfügbarkeit erfordert spezielle Applikationen
Nur für Cluster-Lösungen müssen die Applikationen angepasst werden. Fehlertolerante Server arbeiten mit Standard-Technologien, so dass Windows- und Linux-Applikationen ohne Anpassungen oder Änderungen betrieben werden können. Anwender benötigen hier für ihre Applikation auch jeweils nur eine einzige Lizenz, was die Gesamtkosten der Lösung reduziert. - Mythos 6: Cluster bieten ausreichende Sicherheit
Cluster arbeiten im Störungsfall nicht völlig unterbrechungsfrei, weil beispielsweise System-Dienste und Programme neu gestartet oder Datenbank-Transaktionen zurückgesetzt werden müssen. Je nach Komplexität der Applikationen können mehrere Minuten vergehen, bis alle Systeme wieder uneingeschränkt zur Verfügung stehen. In Extremfällen kann die Übergabe der Prozesse aber auch mehrere Stunden dauern. - Mythos 7: Virtualisierung macht Hochverfügbarkeit überflüssig
Das Gegenteil ist richtig: Werden auf einem physischen Server mehrere virtuelle Umgebungen betrieben, so sind von einem Hardware-Ausfall immer gleich mehrere Server mitsamt den Anwendungen betroffen. Ein einziger defekter physischer Server zieht also eine ganze virtuelle Server-Gruppe mit sich - und für jedes System müssen dann mehr oder weniger aufwändige Maßnahmen zur Wiederherstellung des Betriebs vorgenommen werden. - Mythos 8: Disaster Recovery und Hochverfügbarkeit sind dasselbe
Disaster Recovery bietet Katastrophenschutz: Unternehmen schützen damit ihre IT vor Bränden, Erdbeben, Flugzeugabstürzen oder Anschlägen. Hochverfügbarkeit sorgt dagegen für den Schutz der IT bei internen technischen Störungen. Verantwortungsvolle Unternehmen werden daher immer beides in ihrem Sicherheitskonzept berücksichtigen. - Mythos 9: Hochverfügbare Systeme basieren auf proprietären Technologien
Fehlertolerante Server arbeiten mit Standard-Technologien wie Intel-x86, Windows oder Linux, Software-Lösungen bauen auf dem Open-Source-Server Xen auf. Diese Systeme erreichen ihre hohe Ausfallsicherheit indem sie die Standard-Technologien redundant auslegen, so dass alle betriebswichtigen Teile doppelt vorhanden sind. - Mythos 10: Hochverfügbarkeit haben wir schon
Viele Unternehmen verwenden unterschiedliche Technologien, um ihre IT abzusichern. Der Einsatz einer USV oder die Durchführung regelmäßiger Backups sind zwar unerlässlich, machen ein System aber keineswegs hochverfügbar.
Wie ausgelastet ist mein System - und wie gut funktioniert es?
Monitoring sorgt dafür, dass für Unternehmen stets ersichtlich ist, was funktioniert und was nicht. Das gilt für den normalen Betrieb und noch viel mehr im Fall einer Reparatur oder eines Upgrades. Es gibt daher mindestens drei gute Gründe, warum sich Unternehmen mit Monitoring beschäftigen sollten: Erstens ist es hilfreich für alle, die sich mit Automatisierung beschäftigen, manuelle Prozesse zu identifizieren und zu ersetzen. Hier können Unternehmen jeder Größe effizient Geld und Fehler einsparen.
Zweitens lassen sich mit intelligentem Monitoring auch technische und funktionelle Fehler im System finden und eliminieren, bevor sie Schaden anrichten. Drittens können Unternehmen Ausfälle und Reaktionen auf anfallende Lasten besser antizipieren, wenn die Grenzen der eigenen Performance klar umrissen und die zu erwartenden Lasten bekannt sind.
Der erste Schritt zur Hochverfügbarkeit besteht darin, sich Informationen über die eigene Infrastruktur zu verschaffen: Wie ausgelastet ist mein System? Wie viele Ressourcen verbraucht es wirklich? Danach lassen sich die Fehlerfälle betrachten. Nicht alle Fehler müssen direkt behoben werden, komplexe Systeme kommen mit einer gewissen Anzahl an Fehlern gut zurecht.
So lassen sich Fehler durch falsche Eingaben, die im Logfile gespeichert werden, leicht beheben. Komplettausfälle wichtiger Systemkomponenten benötigen hingegen größere Refactoring-Maßnahmen. Fehlermetriken erfüllen die Funktion, einen wertvollen Einblick in die Ausrichtung der Infrastruktur zu liefern und Fehler in Zukunft wirksamer zu bekämpfen.