Trotz aller Innovationen: Die eine oder andere Storage-Technologie hält sich unerwartet hartnäckig. So wurden etwa Tapes schon seit Jahrzehnten totgesagt, erleben aber gerade wieder eine Renaissance. Andererseits prognostizieren Marktanalysten wie IDC und Gartner, dass bis 2018 bis zu 70 Prozent aller kleinen und mittelständischen Unternehmen IT-Services nur noch als Software as a Service nutzen. Dann müssen sie überhaupt keine Speicherkapazitäten mehr anschaffen und betreiben.
Fest steht: Für die zentrale Infrastruktur im Rechenzentrum großer Unternehmen sind solche Prognosen immer mit Vorsicht zu genießen. Schließlich planen die Verantwortlichen hier im Zeitraum von mehreren Jahren. Bringen neue Storage-Technologien jedoch umgehend einen hohen Mehrwert oder lösen aktuelle Herausforderungen, setzen sie sich vergleichsweise schnell durch.
Sollten die Prognosen der Markanalysten zutreffen, verliert die klassische Storage-Industrie in den nächsten drei bis vier Jahren ein Marktpotenzial von rund 15 Milliarden US-Dollar. Denn die großen Serviceanbieter werden die notwendigen Speichermedien und Systeme nicht mehr bei den klassischen Speicherherstellern kaufen, sondern nach dem Vorbild von Amazon und Co. von Auftragsfertigern produzieren lassen.
Cloud oder Tape?
Große Unternehmen werden dagegen ihre Daten wohl auch in Zukunft selbst verwalten. Dies liegt zum einen an den Herausforderungen bei Performance und Latenzen bei Datenbewegungen in Cloud-Angeboten und zum anderen an den hohen Kosten im Petabyte-Bereich. Deutlich zeigt sich dabei vor allem eine Entwicklung: die Trennung von Performance und Kapazität. So verwenden Unternehmen hybride Systeme mit zwei unterschiedlichen Speicherebenen (Tiers): eine Ebene mit hoher Geschwindigkeit und eine mit großer Kapazität. Ein dritter Tier mit Speicherservices aus der Cloud lässt sich heute im Bereich Disaster Recovery bereits in der Praxis einsetzen. Doch vor allem im Online-Bereich sollten Kunden die Angebote hybrider Speicherinfrastrukturen kritisch prüfen und klären, ob sich die Daten immer sinnvoll zwischen all den Storage-Bereichen verschieben lassen.
Die altbekannten Tapes wiederum besitzen nach wie vor das beste Preis-/Leistungs-Verhältnis in Bezug auf die Kapazität. Der Nachteil liegt heute noch im Zugriff auf die Daten: Bei dem linearen Medium müssen Bänder langwierig vor- und zurückgespult werden. Mittelfristig wird das Medium aber gerade wegen der ökonomischen Aspekte als Ablageort für selten genutzte Daten - sogenannte "kalte Daten" - eine größere Rolle spielen. Auf der anderen Seite nehmen die Anforderungen von immer mehr Applikationen an den Datendurchsatz und die Vorhersagbarkeit von Latenz zu. Hier liefern die heute noch weit verbreiteten Festplattensysteme nicht die richtigen Antworten.
Flash sorgt für hohe Geschwindigkeit
Aufgrund ihrer hohen IOPS-Raten und kurzen Latenzzeiten bieten sich Flash-Technologien für den schnellen Datenzugriff bei Online-Speichern an. Sie eignen sich zum Beispiel optimal für eine zeitkritische Informationsverarbeitung in VDI-Umgebungen oder Datenbanken. Bislang werden viele Unternehmen von den vergleichsweise hohen Kosten abgeschreckt. Doch dieser Nachteil verschwindet zunehmend, da sich die Preise den SAS-Laufwerken annähern.
Es gibt jedoch sehr unterschiedliche Flash-Storage-Systeme: als SSD-Festplatte, RAM-Disk, Flash-Karte oder All Flash Array (AFA). Es hängt sehr stark von den gewünschten Funktionen sowie der vorhandenen Infrastruktur ab, welche dieser Technologien für ein Unternehmen optimal geeignet ist. Bestandteil vieler Enterprise-Storage-Systeme sind insbesondere Funktionen zur Datenreduktion wie Kompression und Deduplikation. Aber auch bei AFA-Appliances sind das Zusammenspiel mit traditionellen Speicherlösungen sowie die volle Bandbreite der Datendienste wie Replikation, Snapshots oder die Integration von Anwendungen wichtig.
Ein solches AFA-System ist zum Beispiel FlashRay von NetApp. Dieses wird mit dem neuen Betriebssystem MARS ausgeliefert. Es reduziert die Lese- und Schreibaktivitäten auf ein Minimum aufgrund des längenvariablen Block-Layouts bei der Verarbeitung im System. Dadurch steigert sich die effektive Kapazität und es wird ein höherer Durchsatz bei gleichbleibender Latenz im Millisekunden-Bereich möglich. Auf der anderen Seite wird die Version 1.0 des ab April verfügbaren Systems wohl noch auf einige Enterprise-Ready-Dataservices verzichten müssen.
Auch bei anderen Herstellern gibt es in der Produktkategorie der AFAs häufig das Konzept eines eigenen, speziell entwickelten Betriebssystems, um eine optimale Leistung der Systeme zu gewährleisten. Hybride Storage-Systeme mit Anteilen von SSD, Flash und Festplatte basieren häufig auf den etablierten Speicherinfrastrukturen. Sie ermöglichen einen individuell anpassbaren Kompromiss zwischen Performance und der Vollständigkeit von Datendiensten, die spezialisierte AFA-Systeme heute noch nicht immer vollständig vergleichbar bieten können.
Flash vereinfacht das Management
Von Flash erwarten viele Unternehmen, dass sich die Bereitstellung von Speicherkapazität vereinfacht. Die Flash-Technologie selbst ermöglicht dies jedoch nicht. Damit werden die eigentlichen Speicherprozesse sogar noch komplexer als in den traditionellen Disk-Arrays. Die Managementfunktionen sind jedoch vor allem in den spezialisierten Betriebssystemen weitgehend standardisiert und automatisiert. Die Bedienoberfläche bietet damit weniger Einstellungsmöglichkeiten und eine deutlich intuitivere Nutzung.
Unternehmen profitieren dadurch von wesentlichen Vorteilen: Das Management wird effizienter, manuelle Fehler lassen sich durch Automatisierung besser vermeiden und sie benötigen nicht mehr rund um die Uhr hochspezialisierte Storage-Fachkräfte. Im täglichen Betrieb entlasten sie die IT-Kollegen von Routineaufgaben und eröffnen ihnen Freiräume, um sich verstärkt um die Umsetzung von Businessprojekten zu kümmern.
Spindeln und Tapes bieten große Kapazitäten
Aufgrund der vielen Vorteile von Flash gehen einige Hersteller bereits davon aus, dass in den Rechenzentren bald nur noch Flash-basierte Speichersysteme eingesetzt werden. Sie sollten jedoch bedenken, dass Unternehmen auch künftig bis zu 80 Prozent kalte Daten erzeugen, die nicht zeitkritisch sind. Es ist wohl auch in Zukunft wirtschaftlich nicht sinnvoll, diese auf den relativ teuren Flash-Systemen zu speichern. So werden für diese Daten weiterhin großvolumige Festplatten und Tapes eingesetzt.
Spindellaufwerke besitzen allerdings einen entscheidenden Nachteil: Auch wenn Festplatten eine höhere Speicherkapazität besitzen, erhöht sich nicht die Geschwindigkeit des Datenzugriffs. Denn dieser bleibt bei den rund 80 IOPS einer SATA-Disk stabil, da sich die Rate von 7200 Umdrehungen pro Minute (rpm) nicht verändert. Entsprechend halbieren sich faktisch die IOPS pro MByte Speicherplatz bei doppelter Festplattenkapazität. Als Konsequenz daraus könnten Unternehmen zunehmend auf die SAS-Technologie verzichten, performance-intensive Daten auf Flash speichern und kalte Daten eher auf großvolumige SATA-Festplatten speichern.
Cloud erhöht die Flexibilität
Einen vergleichsweise neuen Ansatz, um Daten preiswert zu speichern, bildet ein Object Store in der Cloud. Diesen können Unternehmen, die heute bereits mehrere Storage Tiers nutzen, relativ einfach einführen. Mit Hilfe eines Cloud-Gateways zur Erweiterung der klassischen Speichersysteme lassen sich insbesondere kalte Daten wie Archive oder Datensicherungen zu Cloud-Storage-Providern auslagern.
Die Anwender bemerken im Idealfall nichts von dieser Aufteilung, da diese komplett im Hintergrund läuft. Viele Unternehmen befürchten jedoch Probleme mit der Performance, wenn die Daten in einem anderen Rechenzentrum liegen. Diese Zweifel sind heute in vielen Fällen durchaus berechtigt, sollten aber mit zunehmenden Bandbreiten und effizienteren Übertragungstechnologien in Verbindung mit Inline-Dedupe und -Kompression in Zukunft ausgeräumt werden.
Bedenken hinsichtlich der Sicherheit und des Schutzes persönlicher sowie geschäftskritischer Daten sind ebenfalls weit verbreitet. Entsprechend bieten viele Provider auch Private Cloud- oder sich gerade entwickelnde Hybrid Cloud-Lösungen als Komplettpaket an. Sie werden meist gemeinsam von Cloud-Anbieter und Systemintegrator implementiert.
Alternativ lassen sich bei den bereits im Rechenzentrum installierten Rack-Servern meist brachliegende Speicherkapazitäten nutzen. Zum Beispiel können über Ansätze aus dem Bereich Software Defined Storage (SDS) heute ungenutzte Festplattenkapazitäten, etwa der Betriebssystem-HDDs der Server, zentral als Speicherpool zur Verfügung gestellt werden. Eine solche Lösung liefert schon heute die Firma EMC mit einem Teil ihrer ViPR-Lösungen.
Noch schneller auf Daten zugreifen
Neben Flash werden derzeit Technologien entwickelt, mit denen der Datenzugriff noch schneller realisierbar wird. Dazu muss der Speicher möglichst nah an der CPU sein. Zum Beispiel lässt sich der Flash-Speicher direkt über PCIe an die Server-CPU anbinden. Alleine dadurch kann eine Latenzzeit von 60 Mikrosekunden statt ein bis zwei Millisekunden in den aktuellen AFA-Systemen erreicht werden. Dies könnte zum Beispiel für In-Memory-Datenbanken einen erfolgskritischen Unterschied ausmachen.
Inzwischen gibt es NAND-Flash-Speicher, die sich in freie RAM-DIMM-Slots der Server stecken lassen. Weil der Flash-Speicher hier sehr nah an der CPU sitzt, funktioniert er wesentlich schneller als Flash über PCIe-Bus oder eine Festplatte mit zusätzlicher SCSI-Protokollebene. Jedoch verfügen die NAND-RAM-Disk-Module nur über eine begrenzte Speicherkapazität. Außerdem müssen technische Herausforderungen wie die der Garbage Collection erst noch zufriedenstellend gelöst werden.
Vielversprechend sind auch Decoupled-Storage-Ansätze, die den Performance- und Kapazitäts-Tier in einer Speicherlandschaft physikalisch voneinander trennen. Für eine konsumierende Anwendung führt eine Softwareschicht im Kernel des Hypervisors beide Tiers virtuell zusammen - nicht nur als Lese-Cache, sondern insbesondere auch zur Beschleunigung der Writes im Schreib-Cache. Unternehmen können dann in Flash- oder RAM-Erweiterungen ihrer Server als Performance-Tier investieren. Sie entlasten damit die heute bestehenden Speichersysteme von der IOPS-intensiven Nutzung und vermeiden Performance-Engpässe der zentralen Speicher. Damit verlängert sich die Lebensdauer der bestehenden Speicherinfrastrukturen. Zudem skaliert der Performance-Tier in den Servern linear mit der Anzahl der eingesetzten virtuellen Maschinen. Ein Anbieter in diesem Markt ist das Startup PernixData.
Diese Trends werden sich zwar erst in den kommenden Jahren im Markt durchsetzen, doch Unternehmen sollten sich schon heute damit befassen, um frühzeitig von den Vorteilen profitieren zu können.