Analysten-Kolumne
Server-Konsolidierung: Wie sich die angestrebten Kosteneffekte realisieren lassen
SAPS-Zahlen sind zumindest in Deutschland weit verbreitet und deshalb eine mögliche Basis für ein Preismodell. Bei dynamischer Zuordnung von Server-Leistung ist die "zugesicherte" Performance ein guter Ausgangspunkt. Welche Größe man auch wählt - entscheidend ist ein transparentes Preismodell, das die in Anspruch genommene Server-Leistung pro virtueller Umgebung in einer beliebigen Einheit möglichst gut widerspiegelt.
Von Bedeutung ist auch, wie die Investitionskosten des Service-Providers in die neue, bei der Virtualisierung verwandte Hardware auf den Kunden umgelegt werden. Auch bei verbrauchsabhängiger Abrechnung wird der Stückpreis pro Leistungseinheit heute entweder fix für die üblichen drei bis fünf Jahre Einsatzzeit vereinbart, oder er senkt sich während der Laufzeit dynamisch, wobei eine Mischkalkulation mit verschiedenen Umgebungen zugrunde gelegt wird. Im nächsten Schritt wäre dann zu untersuchen, wie viele SAPS-, RPE2- oder andere Einheiten eine Applikation verbraucht. Nach diesem Wert wird dann abgerechnet - unabhängig davon, welche Hardware konkret zugrunde liegt. So gewinnt man Flexibilität: Service-Provider können sich weiter optimieren, und die Fachbereiche können den Ressourcen-Verbrauch während der Vertragslaufzeit beeinflussen.
Die Konsolidierungseffekte stetig messen
Um Konsolidierungsprojekte optimal zu steuern, sollten Unternehmen Messmethoden zur kontinuierlichen Erfolgskontrolle einführen. Zunächst sollten in einer Standortbestimmung Kapazität, Nennleistung und heutige Auslastungsrate der einzelnen Server und die damit verbundenen Gesamtkosten bestimmt werden. Dem wird das entsprechende Einsparungspotenzial bei Konsolidierung und Virtualisierung gegenübergestellt.
Das Kennzahlensystem sollte sowohl messen, inwieweit die Ziele bezüglich Auslastung und Kosten während des Projektverlaufs erreicht werden, als auch die Governance des Veränderungsprozesses selbst unterstützen. Es sollte dazu technische und wirtschaftliche Größen verknüpfen sowie - durch Aggregieren und Drill-Down - bei Bedarf jedem Bereich passende KPIs an die Hand geben, die den Ursache-Wirkungs-Zusammenhang erkennen lassen. Damit sollte es möglich sein, die Effekte der eingeleiteten Maßnahmen kontinuierlich zu verfolgen und bei Bedarf korrigierend einzugreifen. Das betrifft unter anderem:
-
Komplexität. Übergreifende Konsolidierungs-Projekte, die Applikationen und Server adressieren, können die Komplexität zunächst einmal erhöhen. Werden beispielsweise Daten-Redundanzen beseitigt - etwa indem Versicherungen gemeinsame Stammdaten der zuvor getrennten Sparten-Anwendungen einführen - lassen sich die Applikationen nicht mehr isoliert betrachten.