Mit dem Schlagwort Software Defined Data Center (SDDC) hat die Virtualisierungsdiskussion den Rechenzentrumsbetrieb erreicht. Das Konzept sieht vor, über die einzelnen, virtualisierten Bestandteile eines Data Centers - etwa Server, Netzwerke, Speicher, Security - Abstraktionsschicht zu legen, die die gesamte Infrastruktur steuert, kontrolliert, provisioniert und automatisiert.
Das US-Markforschungshaus Enterprise Management Associates (EMA) ist davon überzeugt, dass diese Idee noch im Lauf dieses Jahres Realität wird, und die erforderlichen Produkte und Techniken so reif sind, dass Anwender ein SDDC implementieren können.
In einem Blog-Beitrag rät EMA-Berater Torsten Volk Unternehmen sich mit dem Konzept ernsthaft zu beschäftigen. Ein softwarebasierender Betrieb der Data Center sei erforderlich, weil die IT-Mannschaft künftig nicht mehr schnell genug den Bedarf der Fachbereiche nach IT-Ressourcen erfüllen kann. "Im Kern eines SDDC steht der Anspruch, dass Anforderungen der Fachbereiche besser bedient werden können, wenn die IT-Infrastruktur - egal ob intern oder extern betrieben - zentral kontrolliert wird. Die Ressourcen werden ganz klar am Bedarf von Applikationen und Services ausgerichtet", schreibt Volk in einem Report zum Thema. Dazu sollten Anwenderunternehmen bei Neuanschaffungen die Server, Netzkomponenten und Speichersysteme nicht wie bislang je nach Leistung und Funktionsumfang auswählen, sondern darauf achten, wie sie sich in eine zentrale Management-Strategie einfügen.
Volk nannte drei wesentliche Schlüsselelemente für ein Software Defined Data Center (SDDC):
1. Kapazitäts-Management
Im SDDC geht es vor allem darum, Hardware zügig zu provisionieren, so dass die Anwender die Ressourcen nutzen können. Dafür wiederum ist es wesentlich, dass auch die benötigten Kapazitäten zur Verfügung stehen, die die Fachbereiche für den Betrieb ihrer Applikationen und Services benötigen. Was nicht da ist, lässt sich nicht zuweisen. Alle Automatisierungsbemühungen wären dann perdú.
Daher ist es erforderlich, sinnvolle Schwellwerte zu finden, die auf anstehende Anforderungen aus den Fachbereichen hinweisen, um rechtzeitig neue Kapazitäten aufzubauen. Dafür gibt es Werkzeuge. Volk nennt etwa "ProactiveNet" von BMC, "Performance Management" von CA und das recht unbekannte Tool "VMTurbo".
2. Multi-Cloud-Management-Plattformen
Data Center haben komplizierte Architekturen. Homogene Rechenzentren, die mit Komponenten eines Herstellers bestückt sind, gibt es selten, gängig ist ein Mix aus diversen Lösungen. Selbst innerhalb eines Anwendungsfeldes und in relativ neuen Backend-Technologien dominiert die Vielfalt. So ist es durchaus üblich, dass in Unternehmen, die in Sachen Virtualisierung eine klare VMware-Strategie fahren, vereinzelt Hyper-V-Installationen von Microsoft zu finden sind. Wo die IT-Strategie Private-Cloud-Strukturen vorsieht, werden dennoch Amazon Web Services (AWS) oder andere externe Cloud-Dienste genutzt.
Unterm Strich haben mit der zunehmenden Virtualisierung der Server, Speichersysteme und Netze sehr viele unterschiedliche Hypervisor-Technologien den Weg ins Data-Center gefunden. Eine verlässliche Kontrolle und Steuerung von SLAs und Security-Systemen sowie der Application-Performance ist kaum möglich.
Um die Komplexität in den Griff zu bekommen, empfiehlt EMA-Manager Volk Multi-Cloud-Management-Plattformen. Mehr und mehr Anbieter von Cloud-Management-Portalen implementieren Unterstützungsfunktionen für Techniken unterschiedlicher Hersteller. Für den Betrieb von SDDC hält der EMA-Experte die Nutzung derartiger Management-Plattformen für unerlässlich.
3. Konfigurations-Management
Ganz entscheidend für den Erfolg eines Software Defined Data Center (SDDC) ist die Migration von einer manuellen Ressourcen-Zuteilung zu einem automatisieren Provisioning.
Für eine selbsttätige Zuteilung der erforderlichen Computing-, Netz- und Speichersysteme muss der Provisioning-Lösung bekannt sein, welche Anforderungen die jeweiligen Applikationen beziehungsweise die genutzten Service haben. Hier setzt auch die in jüngster Zeit vielfach von den Softwareherstellern zitierte "Devop"-Idee an. Um solche Informationen liefern zu können, müssen Entwickler (Developer) schon in der Gestaltung der Applikationen eng mit den Betriebsexperten (Operator) kooperieren.
Volk nennt die beispielhaft die zwei Tools "Puppet" (von Puppet Labs) und "Chef" (vom gleichnamigen Unternehmen), die beim automatischen Provisioning helfen.
SDDC braucht eine neue Abstraktionsschicht
Alles in allem benötigen SDDCs laut Volk eine neue Abstraktionsschicht oberhalb von Hardware-Ressourcen sowie internen und externen Cloud-Installationen. Sie ermächtigt Applikationen auf Basis von Leistungsdaten, Sicherheits- und Verfügbarkeitsanforderung dazu, die eigene IT-Umgebung so zu definieren, dass immer ausreichend Kapazitäten bereit stehen.
Dass der Weg zum SDDC notwendig ist, will das Marktforschungshaus mit Umfragedaten belegen. Demnach sind 70 Prozent der IT-Nutzer der Meinung, IT-Projekte sollten nicht länger als zwei Wochen dauern. 40 Prozent der befragten IT-Manager stufen ihre manuellen Prozesse zur Konfiguration der IT-Infrastruktur als zu langsam ein, wenn etwa Anforderungen aus den Fachbereichen umgesetzt werden sollen.
SDDC sei der "goldene Pfad", diese Herausforderungen zu lösen, finden die Marktbeobachter von EMA.