Mitte März 2013 hatten EMC und VMware eine kaum beachtete Investoren- und Analysten-Konferenz unter dem Namen "Strategic Forum" in New York einberufen. Bei dieser Gelegenheit haben beide Unternehmen, die nur formal getrennt agieren (EMC ist mit 90 Prozent Anteilseigner der Tochter VMware), ihre Pläne für die nächsten Jahre dargelegt. Zu den Schwerpunkten der Strategie gehören eine Trennung der Zuständigkeiten zwischen EMC, VMware und der neugegründeten Tochter Pivotal mit den drei CEOs Joe Tucci, Pat Gelsinger und Paul Maritz. Getrennt marschieren, gemeisam für den Profit von EMC sorgen – so sieht die Strategie auf der ökonomischen Seite aus.
Inhaltlich setzt man jeweils verschiedene Akzente: EMC nach wie vor mit Storage pur (plus etwas RSA Security), jetzt angereichert mit Software Defined Storage (alias Storage Virtualisierung), VMware neben klassischer Virtualisierung jetzt verstärkt mit SDN (Software Defined Network) und SDDC (Software Defined Datacentre), Pivotal schließlich mit einer geplanten Software-Initiative für Cloud- und Big-Data-Umgebungen. EMC und seine Töchter marschieren nicht alleine in diese Richtung. IBM, HP, Cisco und andere haben ebenfalls in "Software Defined" eine ihrer neuen Lieblingsvokabeln gefunden, die ihr Marketing beherrschen.
Mit "Software Defined" ist folgendes gemeint: Virtualisierungssoftware soll den vier Säulen eines Rechenzentrums – Server, Speicher, Netzwerk und Security – neue Intelligenz einflößen. Im Prinzip möchte man den Erfolg von Server-Virtualisierung auf die anderen Bestandteile eines Rechenzentrums ausdehnen. Server-Virtualisierung mit virtuellen Maschinen (VMs) könnte man insofern genauso als "Software Defined Server" bezeichnen. Die einzelnen VMs sind ein Stück Software, das dem Server-Betriebssystem einen unabhängigen Server vorgaukelt.
Der Vorteil einer in dieser Form durchgeführten Konsolidierung: mehr (virtuelle) Server auf einer einzigen (physikalischen) Maschine, weniger physikalische Server, weniger Platz im Rechenzentrum, eventuell weniger Energieverbrauch. Ob eine wirkliche Kostenreduzierung erzielt werden kann, bedarf einer genauen Kalkulation im Einzelfall: VMware verlangt üppige Software-Lizenzen (Hyper-V von Microsoft gibt es dagegen mit dem Windows-Betriebssystem zusammen umsonst). Und für virtuelle Umgebungen, die nebeneinander die CPU beanspruchen, bedarf es leistungsfähiger neuer Server mit mehreren Cores oder CPUs.
VMware CEO Pat Gelsinger, im September 2012 inthronisiert, um der EMC-Tochter als Fachmann für "Execution" neuen Schwung zu verleihen, begründet die aktuelle Stoßrichtung seines Unternehmens so: "Was würde passieren, wenn die gleichen Prinzipien, die einen einzelnen Layer des Rechenzentrums transformiert und den Kunden einen bisher nicht dagewesenen Wertzuwachs beschert haben, auf das gesamte Rechenzentrum angewendet werden?"
Theorie und Praxis des SDDC
Seit Jahren schon soll ein Großteil der etwa 4.000 VMware-Entwickler damit beschäftigt sein, diesen Schritt von der Server-Virtualisierung in Richtung komplett virtualisiertes Rechenzentrum in neue Software umzugießen. Das Software Defined Data Center (SDDC) bedeutet demnach: "Alle Infrastruktur ist virtualisiert und wird als Service geliefert. Die Kontrolle dieses Rechenzentrums geschieht vollständig automatisiert durch Software." Soweit die Theorie.
Die Praxis sieht anders aus: Bisher ist man kaum über die Ankündigungsphase hinausgekommen. Allenfalls kleine Schritte sind zu vernehmen, etwas mehr Virtualisierung hier, ein paar Ansätze für Cloud Services dort. Dabei muss eines klar sein: Die Hardware-Basis der Rechenzentren wird auch bei zukünftigen SDDCs bestehen bleiben, so wie ja auch virtuelle Maschinen (VMs) immer noch auf einem physikalischen Server aufsetzen. Zwar braucht es etwas weniger "Blech", dafür aber um so mehr an Performance und Verfügbarkeit, um die Ansprüche aller Applikationen und Tools ohne Latenz zu befriedigen.
Der Analyst Richard Fichera von Forrester Research geht davon aus, dass sich SDDC gleichzeitig in Richtung einer "Produkt-Kategorie" und eines zunächst unscharfen Trends entwickeln wird. Erste Produkte würden auf bestehenden Angeboten wie "Converged Infrastructure" sowie Cloud-Technologien und -Tools beruhen. Microsoft und VMware würden aber bald mit reinen Software-Lösungen herauskommen. Man dürfe deshalb, so Fichera, getrost davon ausgehen, dass zunächst einige Konfusion über genaue Features, Skalierbarkeit und Schnittstellen im SDDC-Umfeld herrschen werde.
Fichera sieht ferner eine verstärkte Konkurrenz zwischen den Herstellern voraus, die allesamt den neuen Infrastruktur-Markt beherrschen wollen. So habe Cisco mit seiner Erfahrung bei Netzwerk-Virtualisierung ("Software Defined Network") teilweise die Nase voraus und könnte versucht sein, andere Hersteller auf diesem Gebiet auszugrenzen. Eine ähnliche Haltung könnte man auch von dem Gespann EMC-VMware erwarten. VMware hat bereits 2012 den SDN-Spezialisten Nicira übernommen und damit dem "Alliance"-Partner Cisco, mit dem mit EMC zusammen das Joint Venture „VCE" gegründet wurde, direkte Konkurrenz bereitet. Seitdem wird immer wieder über die Zukunft von VCE und seinen Vblocks, leistungsfähigen Racks aus aufeinander abgestimmten Servern (hauptsächlich Cisco), Netzwerkelementen (Cisco), Speicher (EMC) und Virtualisierungslayer (VMware), gemunkelt.
SDDC ist für Forrester die angemessene Antwort auf eine kaum noch beherrschbare Komplexität in den Rechenzentren und Generationen von Silo-Implementationen, unvollständigen Virtualisierungsanstrengungen und einem Wirrwarr von Management-Tools. In dem Maße, wie verfeinerte Virtualisierungs-Tools, SDNs und Converged-Infrastructure-Stacks Eingang in die Rechenzentren finden, eröffne sich die Chance, die Infrastruktur der Rechenzentren neu zu modellieren. Der Begriff "Software Defined Data Center" (SDDC) vereint dann nach Forrester-Angaben nichts weniger als alle Anstrengungen, "gewachsene" Legacy-Strukturen, Cloud Computing und neue I/O-Ansätze in eine gemeinsame Management-Ebene zu überführen.
Der lange Weg zur Virtualisierung
Folgt man dieser Forrester-Begriffsbestimmung, dann wird auch klar, dass SDDC keineswegs bedeutet, die alten Rechenzentren wegzuwerfen und durch neue auf Software-Basis zu ersetzen. Stattdessen geht es eher darum, neue Rahmenbedingungen und Tools zu finden, um das klassische Inventar von Rechenzentren auf neue Art zusammenzuhalten. Server bleiben Server, Festplatten bleiben Festplatten, Netzwerke dienen mit ihrer physischen Basis dem Datentransport und so weiter. Gelsinger hat es, wie zitiert, so beschrieben: "Alle Infrastruktur ist virtualisiert und wird als Service geliefert."
Auf der Storage-Ebene soll es zum Beispiel vermehrt darum gehen, Management-Funktionen von der Hardware zu entkoppeln, heterogene Speicherumgebungen in Pools zusammenzufassen und geographisch verteilt skalieren zu können. Im Idealfall hieße das, eigene Schnittstellen für die Arrays der Konkurrenz zu öffnen und den Weg zu Commodity-Produkten zu ebnen. Manche von diesen hehren Zielen schwirren schon seit einiger durch die Storage-Welt, an der Umsetzung hat es aber fast immer gehapert, weil kein Hersteller bereit war und ist, den eigenen proprietären Ansatz aufzugeben. Software Defined Storage würde in der Konsequenz bedeuten, sich als Hersteller von der eigenen existierenden Storage-Technologie zu befreien – und sogar bereit zu sein, weniger eigene Hardware zu verkaufen.
Ob EMC, HP oder IBM dazu in der Zukunft bereit sein werden, ist durchaus anzuzweifeln. EMC immerhin hat jüngst mit "ViPR" einen neuen Vorstoß in Richtung offene Speicher-Infrastruktur vorgenommen. Man entwickelt mit ViPR einen Software-Layer für Storage-Arrays, mit dem alle Speicherprodukte verschiedener Hersteller sowie Commodity-Produkte über offene APIs in eine gemeinsame Infrastruktur überführt werden könnten. Dies soll besonders für Unternehmen und Service Provider interessant sein, die an einer Cloud-Zukunft arbeiten und dabei ihre bestehenden Gerätschaften mitnehmen wollen. Bestehende Ansätze für virtuelle Storage-Pools, die es zum Beispiel von HDS oder IBM gibt, waren immer Hersteller-zentriert und nicht generell offen. Lediglich von DataCore gibt es einen Software-Ansatz, mit dem Geräte unterschiedlicher Provenienz virtualisiert werden können.
Forrester-Mann Fichera spricht von einer langanhaltenden Suche in der Welt der Computer-Technologie, die Abstraktion von den tiefer liegenden Ressourcen in den Rechenzentren zu verbessern. Diese seien zwar immer sehr mächtig gewesen, aber nie anwenderfreundlich und einfach zu nutzen. Als Beispiele für Abstraktionen nennt er die Entwicklung von rohen Maschinen- zu Assembly-Programmiersprachen oder von Datenverarbeitung vom Batch- zum Time-Sharing-Verfahren. Mit Virtualisierung – bereits üblich ab Ende der 60er bis Anfang der 70er Jahre in Mainframe- oder Unix-Umgebungen – gelang schließlich ein weiterer, wichtiger Schritt in der Abstraktion von den physikalischen Ressourcen. Fichera schreibt: "Und ab Mitte der 70er Jahre verwandelten Multi-User-Betriebssysteme, Virtualisierung und erste Software-Defined-Netzwerke den Computer in eine Umgebung, in der Programmierer mit durchschnittlichen Fähigkeiten und wenig Verständnis von der darunter liegenden Hardware effektive Anwendungen für Business-Probleme entwickeln konnten."
Eine gegenläufige Entwicklung diagnostiziert Fichera für die nachfolgenden Jahrzehnte. Der Komplexitätsgrad in den Rechenzentren hätte angetrieben durch billige x86-basierte Hardware, Ethernet und Internet und die explosionsartige Vermehrung verteilter Systeme enorm zugenommen und die frühen Produktivitätsverbesserungen durch erste Abstraktionslayer wieder aufgezehrt. Das Resultat: Die Rechenzentren verharren auf einer Komplexitäts- und Investitionsstufe, die nur gelegentlich aufgebrochen wird.
Konvergenz und Konkurrenz
Ab etwa 2001 hat sich – so der Forrester-Analyst – das Blatt wieder gewendet. Es gab erste Ansätze von "Converged Infrastructure", Gesamtlösungen aus virtuellen Servern, virtuellen Netzwerken und virtuellen Pools für Speicherressourcen. HP führte das "Utility Data Center" (UDC) ein, später folgten VMware, Cisco und EMC mit der VCE-Coalition und den Vblocks. IBM (mit PureSystems) und Oracle (mit Exadata und Exalogic) sind inzwischen ebenfalls mit ihren "Converged"-Varianten am Markt vertreten.
Bezogen auf die Speicher-Infrastruktur finden sich erste Abstraktionsformen im Sinne von Fichera bereits in der Aufteilung von Storage-Arrays in RAIDs (Redundant Array of Independent Disks): Je nach RAID-Definition werden die Dateien oder Dateiblöcke in einem Array quer über sämtliche Festplatten verteilt, um bei einem Ausfall einer oder mehrerer Platten sofort eine Sicherungsversion zur Hand zu haben. In einem SAN (Storage Area Network) oder NAS (Network Attached Storage) macht man sich durch LUNs (Logical Unit Number) von der physikalischen Basis unabhängig: Alle Platten eines Arrays erscheinen als ein gemeinsamer Pool, der dann für unterschiedliche Applikationen und Dateien in logische Einheiten aufgeteilt wird. Dies funktioniert auch über mehrere zusammengekoppelte Arrays hinweg, wobei diese – zumindest theoretisch – sogar von verschiedenen Herstellern stammen können. In vielen Rechenzentren hat man aber auf solche komplexen Lösungen verzichtet und unterhält verschiedene Speichersilos parallel nebeneinander.
Wann es wirklich zu den ersten real existierenden Software Defined Datacentres kommt, dürfte sich noch etwas hinziehen. Für Unternehmen wird es aber zunehmend neue interessante Virtualisierungs- und Automatisierungsangebote geben. Wie man das Kind dann aber nennt, ist ziemlich egal. "Software Defined" ist nicht gerade die sinnvollste Wortschöpfung.