Das Software-definierte Rechenzentrum ist in vielen Firmen längst angekommen, zumindest was die Server-Infrastruktur betrifft. Zu verdanken ist dies dem Siegeszug der Virtualisierung. Laut einer Untersuchung von IDC vom Mai 2013 virtualisieren bereits 82 Prozent der deutschen Unternehmen ihre Server. Speichersysteme aber sind das fehlende Puzzle-Teil wenn es darum geht, die Vision von Software-definierten Rechenzentrum wirklich vollständig umzusetzen. Gemeint ist damit, die komplette RZ-Infrastruktur zu virtualisieren und als Service anzubieten, also vom Server über das Netzwerk bis hin zu den Speichersystemen.
Die Kontrolle eines solchen Rechenzentrums erfolgt vollständig automatisiert mittels Software. Unternehmen können also Standard-Hardware einsetzen und mit Software Flexibilität und Skalierbarkeit erzielen. Dadurch erhalten sie eine schlankere Infrastruktur, die aber gleichzeitig besser auf Veränderungen reagieren kann und sich einfach neuen Anforderungen anpassen lässt, wie sie etwa neue Open-Source Datenbanken oder auch Analytics-Anwendungen im Rahmen von Big-Data-Projekten stellen.
Software-defined Storage (SDS) hat sich in jüngster Zeit beinahe zu einem neuen Buzz-Word entwickelt. Doch eine allgemeingültige Definition gibt es für diese Alternative zu Hardware-definierter Speicherinfrastruktur bis jetzt nicht. Vielmehr beschreibt der Begriff eine Reihe von Fähigkeiten, die über offene Programmierschnittstellen verfügbar gemacht werden. Gegenwärtig ist es den Anbietern auf dem Speichermarkt überlassen, was sie als Software-definierte Speicherlösungen verkaufen; viele fokussieren sich auf ihr eigenes Produktportfolio und weniger darauf, Industriestandards zu schaffen.
Was ist eigentlich Software-defined Storage (SDS)?
-
Die Datenspeicherung, ihre Merkmale und die Verwaltung werden von der zugrundeliegenden Hardware abstrahiert: Software und Hardware existieren als getrennte Instanzen.
-
Der physische Speicher wird als Pool-Hardware und Hypervisor-unabhängige Ressource behandelt. Das gilt für ein vorhandenes Storage Area Network (SAN) ebenso wie für Direct Attached Storage (DAS) und für Server-seitigen Flash-Speicher.
-
Software-definierte Speichersysteme müssen über multiple Server und Speicher hinweg skalierbar sein, um Exabytes von Daten verarbeiten zu können.
Neue Technologien für neue Herausforderungen
Für eine Speicherinfrastruktur gilt im Grunde das Gleiche wie für den Rest des Rechenzentrums: Proprietäre Lösungen mit eigenentwickelter Hardware, geschlossenen Betriebssystemen und Designphilosophien, denen Zentralisierung wichtiger ist als Leistung, sind aufwändig im Unterhalt. Zudem sind Erweiterungen kostspielig und in ihrer Leistungsfähigkeit limitiert. Das bekommen Unternehmen immer deutlicher zu spüren.
Die technischen Entwicklungen der vergangenen Jahre, darunter die Verbreitung mobiler Geräte, der Siegeszug sozialer Netzwerke und Dienste und das Cloud Computing, haben zu einer wahren Datenexplosion geführt. Das hat auch die Aufgabe der Speichersysteme verändert. Rechenzentren sammeln Daten nicht mehr nur, um sie zu archivieren. Der Wert vieler Daten definiert sich vielmehr darüber, welche Erkenntnisse sich daraus gewinnen lassen, mit denen wiederum der Unternehmenserfolg beeinflusst werden kann.
Herkömmliche Festplatten-basierte Speichersysteme werden diesen Herausforderungen kaum gerecht. Sie können auch nicht mit dem Datenhunger der neuesten Generationen von Mehrkern-Server-Prozessoren mithalten. Auch die neue Flash-Speichertechnologie brachte so lange nicht die erhoffte Leistung, wie man sie wie traditionelle, wenn auch sehr schnelle Festplattenspeicher behandelte - wie manch alteingesessener Speicherhersteller es tat. Denn „alte“ Protokolle wie SAS und SATA werden dann rasch zu Flaschenhälsen und bremsen Flash-Speicher dabei aus, Daten an die Applikation zu liefern.
Das änderte sich erst, als Flash wie Arbeitsspeicher behandelt wurde. Junge Unternehmen wie Fusion-io entwickelten einen Formfaktor, der das neue Speichermedium über die PCI-Express-Schnittstelle direkt an die CPU anbindet. Dazu schrieben sie Software, mit der sich die Latenz-verursachenden Protokolle der Festplatten-Ära umgehen ließen. Diese neuartigen Speichersysteme sind den aktuellen Herausausforderungen bezüglich Skalierbarkeit und Leistung in virtualisierten und Cloud-Umgebungen gewachsen. Sie liefern große Datenmengen schnell und ohne Umwege an Prozessoren, die nun auch endlich ihre Leistungsfähigkeit unter Beweis stellen können. Sie bedienen Applikationen, die auf niedrige Latenzzeiten angewiesen sind, und stellen die Daten in virtuellen Umgebungen so schnell bereit, dass Anwender produktiv und ohne Verzögerung arbeiten können. Flash sorgt für die intelligente Verteilung von I/O zwischen Server und SAN. Damit könnte sich die Flash-Speichertechnologie als Wegbereiter für Software-defined Storage erweisen.
SDS ist das Herz eines Software Defined Data Center
Software-defined Storage (SDS) ist ein zentrales Element beim Aufbau einer Service-orientierten Infrastruktur. Sie ermöglicht es, Speicherressourcen einfach in Abhängigkeit vom Bedarf zu beschaffen, hinzuzufügen und bereitzustellen. SDS sorgt beispielsweise dafür, dass Administratoren das neue, leistungsstarke Speichermedium Flash den jeweiligen Anforderungen entsprechend in die bestehende Infrastruktur integrieren und dessen Vorteile voll nutzen können, um ein modernes, leistungsfähigeres Rechenzentrum zu schaffen – ganz egal ob es eine „All-Flash“- oder eine Hybridlandschaft ist. Software vereinfacht die Integration von Flash-Lösungen mit der bestehenden Festplatten-basierten Speicherinfrastruktur, die auch in einem Software-definierten Rechenzentrum nach wie vor ihre Berechtigung hat. Mit ihrer Hilfe können Administratoren festlegen, wie Flash eingesetzt wird, als lokaler Speicher oder aber auch als gemeinsam genutzter Arbeitsspeicher. Dabei werden aus Standardservern Netzwerkspeicher, die mit allen Standardnetzwerkprotokollen kompatibel sind.
Software-definierte Speichersysteme spielen aber noch eine ganz andere, zukunftsweisende Rolle im Software-definierten Rechenzentrum: Sie erlauben es Software-Entwicklern, die Leistungsfähigkeit von Applikationen zu steigern, indem sie den Software-Stack optimieren und überflüssigen Code eliminieren – die Applikation wird schneller, da sie die Vorteile des Flash-Speichers voll ausnützen kann.
Software Defined Storage: Vorteile auf allen Ebenen
Eine Software-definierte Speicherinfrastruktur hat Unternehmen einiges zu bieten: größere Flexibilität, mehr Leistung, nahezu beliebige Skalierbarkeit, geringerer Aufwand für Management und Wartung, und nicht zuletzt beachtliche Kostenersparnisse und Effizienzsteigerung auf mehreren Ebenen. Sie versetzt IT-Verantwortliche in die Lage, die Servicequalität zu erhöhen.
SDS bietet außerdem mehr Möglichkeiten beim Design einer Rechenzentrumsinfrastruktur: Administratoren können die Standard-Hardware einsetzen, mit der sie am besten zurechtkommen, egal von welchem Hersteller. Obendrein ist für den Unterhalt kein Spezialwissen nötig. Maßgeblich bei der Hardware-Wahl sind lediglich die jeweiligen Anforderungen. Es muss also keine reine Flash-Speicherlösung sein. Auch Hybridspeichersysteme und traditionelle Festplattenspeicher können mit Software zu einer maßgeschneiderten, leistungsfähigen Speicherinfrastruktur kombiniert werden, die je nach Architektur den Fokus auf Leistung, Flexibilität oder Zuverlässigkeit und Sicherheit legt.
Eine Software-definierte Speicherinfrastruktur lässt sich rasch an veränderte Leistungs- und Kapazitätsanforderungen oder auch Veränderungen in der Unternehmensstrategie anpassen. Wenn die Speicherkapazitäten für neue Aufgaben nicht ausreichen, ist Standard-Hardware schnell ergänzt, denn die eigentliche Arbeit übernimmt ja die Software. Ein Flash-basierte SDS ist einfach und nahezu beliebig skalierbar. Es macht das Rechenzentrum damit auch fit für Hochleistungs- und Cloud-Umgebungen, in denen riesige Datenmengen schnell einer Vielzahl von Anwendern zur Verfügung gestellt werden müssen.
Wenn es um die Kosten geht, ist größere Effizienz das entscheidende Stichwort. In der Regel kommt SDS mit weniger Hardware aus, da diese effizienter genutzt wird. Das wirkt sich nicht nur auf die damit verbundenen Kosten wie Wartung, Stromverbrauch, Kühlung oder Platzbedarf aus. Was die meisten IT-Verantwortlichen freuen wird, aber bis jetzt die wenigsten auf der Rechnung haben, sind die Ersparnisse bei den Software-Lizenzgebühren. Denn wer weniger Server betreibt, benötigt auch weniger Lizenzen für das Betriebssystem und die darauf installierten Applikationen.
Software Defined Storage in der Praxis – wie Facebook profitiert
Wie die Marktforscher von IDC kürzlich erläutert haben, sollten Unternehmen, die eine Service-orientierte Infrastruktur aufbauen wollen, auch eine Software-basierte Speicherinfrastruktur implementieren. Allerdings gibt es bislang für dieses noch junge Konzept nur wenige Anwenderbeispiele. Vielleicht auch deshalb, weil sich viele Unternehmen gar nicht im Klaren sind, dass sie SDS bereits umsetzen. Denn wer beispielsweise Flash-basierte Speicherprodukte einsetzt, ist bereits auf dem besten Weg – auch wenn es dabei auf dem Papier etwa „nur“ um die Beschleunigung einer Applikation geht. Auch der jüngste Vorstoß von VMware in Sachen Speichervirtualisierung dürfte so manches Unternehmen einen Schritt Richtung SDS machen lassen. Speicherarchitekturen in Cloud-Umgebungen sind dagegen nahezu automatisch Software-basiert.
Ein prominentes Praxisbeispiel für Software-defined Storage ist Facebook: Große, ständig wachsende Datenvolumen müssen schnell für wenige, klar definierte Funktionen einer Vielzahl von Nutzern gleichzeitig über eine Cloud-Infrastruktur zur Verfügung stehen. Neben Speicherkapazität und Skalierbarkeit sind niedrige Latenz, Daten- und Ausfallsicherheit entscheidend für das soziale Netzwerk. Alles Dinge, die mit einer herkömmlichen Speicherinfrastruktur nicht in einem akzeptablen Kostenrahmen zu erreichen sind. Deshalb setzt Facebook bereits seit einigen Jahren auf Software-defined Storage: Günstige Standardserver sind in einem Netzwerkspeicher-Pool gebündelt und mit Flash-basierten Speicherkarten von Fusion-io ausgestattet. Diese beschleunigen serverseitig den Zugriff auf die am häufigsten genutzten („heißen“) Daten – bei konstant niedrigen Latenzzeiten für eine hohe Verfügbarkeit. Ergänzt wird diese Infrastruktur von herkömmlichen Festplattenspeichern, die Facebook als günstigste Möglichkeit für die Speicherung von selten genutzten Daten einsetzt, also beispielsweise für die Fotoalben der Nutzer. Damit ist es Facebook gelungen, ein Rechenzentrum einzurichten, das enorm leistungsfähig, aber dank minimalem Hardwareeinsatz auch kosteneffizient ist. Mittelfristig will Facebook sogar die Vision vom „All-Flash-Rechenzentrum“ umsetzen. Damit sollen sich Skalierbarkeit und Leistung nochmals erhöhen, bei kleinstmöglichem Platzbedarf und überschaubaren Kosten.
Fazit Software Defined Storage
Das Rechenzentrum der Zukunft muss mehr Leistung mit weniger Hardware erbringen können. Software-defined Storage gibt IT-Verantwortlichen die Möglichkeit, die Speicherinfrastruktur von Grund auf neu zu gestalten. Das Konzept verschafft ihnen die Flexibilität, eine passgenaue Lösung für konkrete lang- und kurzfristige Herausforderungen zu entwickeln. In einer Software-definierten Speicherinfrastruktur ist die Hardware nur insofern relevant, als dass sie die Anforderungen der Daten, die sie vorhält und verarbeitet, hinsichtlich Leistung, Kapazität und Zuverlässigkeit erfüllt.