Von Tapes bis Decoupled Storage
Aktuelle Trends bei Speichertechnologien
Spindeln und Tapes bieten große Kapazitäten
Aufgrund der vielen Vorteile von Flash gehen einige Hersteller bereits davon aus, dass in den Rechenzentren bald nur noch Flash-basierte Speichersysteme eingesetzt werden. Sie sollten jedoch bedenken, dass Unternehmen auch künftig bis zu 80 Prozent kalte Daten erzeugen, die nicht zeitkritisch sind. Es ist wohl auch in Zukunft wirtschaftlich nicht sinnvoll, diese auf den relativ teuren Flash-Systemen zu speichern. So werden für diese Daten weiterhin großvolumige Festplatten und Tapes eingesetzt.
Spindellaufwerke besitzen allerdings einen entscheidenden Nachteil: Auch wenn Festplatten eine höhere Speicherkapazität besitzen, erhöht sich nicht die Geschwindigkeit des Datenzugriffs. Denn dieser bleibt bei den rund 80 IOPS einer SATA-Disk stabil, da sich die Rate von 7200 Umdrehungen pro Minute (rpm) nicht verändert. Entsprechend halbieren sich faktisch die IOPS pro MByte Speicherplatz bei doppelter Festplattenkapazität. Als Konsequenz daraus könnten Unternehmen zunehmend auf die SAS-Technologie verzichten, performance-intensive Daten auf Flash speichern und kalte Daten eher auf großvolumige SATA-Festplatten speichern.
Cloud erhöht die Flexibilität
Einen vergleichsweise neuen Ansatz, um Daten preiswert zu speichern, bildet ein Object Store in der Cloud. Diesen können Unternehmen, die heute bereits mehrere StorageStorage Tiers nutzen, relativ einfach einführen. Mit Hilfe eines Cloud-Gateways zur Erweiterung der klassischen Speichersysteme lassen sich insbesondere kalte Daten wie Archive oder Datensicherungen zu Cloud-Storage-Providern auslagern. Alles zu Storage auf CIO.de
Die Anwender bemerken im Idealfall nichts von dieser Aufteilung, da diese komplett im Hintergrund läuft. Viele Unternehmen befürchten jedoch Probleme mit der Performance, wenn die Daten in einem anderen Rechenzentrum liegen. Diese Zweifel sind heute in vielen Fällen durchaus berechtigt, sollten aber mit zunehmenden Bandbreiten und effizienteren Übertragungstechnologien in Verbindung mit Inline-Dedupe und -Kompression in Zukunft ausgeräumt werden.
- Johannes Wagmüller, Director Systems Engineering, NetApp
"Der Trend wird zum Multisourcing gehen. On-Premise Storage wird weiterhin erste Wahl bleiben, wenn mit den Daten und Leistungen erhebliche Wertschöpfung für das Kerngeschäft der eigenen Organisation geschaffen wird." - Vincenzo Matteo, Disk Product Management Director, Oracle
"Es wird immer Bereiche geben, die von On-Premise-Storage-Lösungen profitieren, dazu zählen etwa datenintensive Aufgaben wie Big Data Analytics." - Ralf Colbus, Leading Storage Professional, IBM Deutschland
"Nein, die beiden Möglichkeiten werden sich aber stärker ergänzen. Sicherheit, Verfügbarkeit und Performance werden nach wie vor für On-Premise Storage-Systeme sprechen." - Dr. Stefan Radtke, CTO Isilon Storage Division, EMC Deutschland
"Das ist auch eine Frage der Kosten. Wenn sie gelegentlich ein paar Gigabyte oder weniger Daten analysieren wollen, kann man sicher Cloud Services nutzen. Muss man die Daten aber erst in die Cloud übertragen, wird die Analyse sehr unhandlich. Bei großen Datenmengen dürfte eine eigene Infrastruktur günstiger sein." - Stefan Roth, Manager Sales Competence Center, Fujitsu
"Nein, denn sehr viele Kunden lagern nicht ihre komplette IT Infrastruktur aus, sondern setzen auf sogenannte Hybrid-Cloud-Architekturen. Bei diesem Sourcingmodell werden nur ausgewählte Applikationen, Prozesse, Infrastrukturen oder Datenbereiche ausgelagert." - Dr. Georgios Rimikis, Senior Manager Solutions Strategy, HDS
"Wir würden nicht sagen, dass On-Premise Storage überflüssig wird, es wird eher eine Vielzahl von Kombinationen aus Cloud Services, Virtualisierung und On-Premise geben. Wir sehen eher eine Koexistenz dieser Konzepte." - Guido Klenner, Business Unit Manager Storage, Hewlett-Packard
"Mithilfe einer Datenklassifizierung lässt sich herausfinden, welche Speicher, Protokolle und Speicherorte sich am besten für die Speicherung eignen. Nicht alle Daten sind gleich, nicht alle Daten haben eine gleich hohe ‚Lebenserwartung‘ und nicht alle Daten müssen in gleicher Geschwindigkeit bereitgestellt werden.“ - Hans Schramm, Field Product Manager Enterprise, Dell
"Um welche Daten handelt es sich? Wie sensibel sind diese? Soll die Analyse in Echtzeit stattfinden? Es ist in vielen Fällen hilfreich, die Analysen auszulagern, am besten dorthin, wo auch die Daten liegen."
Bedenken hinsichtlich der Sicherheit und des Schutzes persönlicher sowie geschäftskritischer Daten sind ebenfalls weit verbreitet. Entsprechend bieten viele Provider auch Private Cloud- oder sich gerade entwickelnde Hybrid Cloud-Lösungen als Komplettpaket an. Sie werden meist gemeinsam von Cloud-Anbieter und Systemintegrator implementiert.
Alternativ lassen sich bei den bereits im Rechenzentrum installierten Rack-Servern meist brachliegende Speicherkapazitäten nutzen. Zum Beispiel können über Ansätze aus dem Bereich Software Defined Storage (SDS) heute ungenutzte Festplattenkapazitäten, etwa der Betriebssystem-HDDs der ServerServer, zentral als Speicherpool zur Verfügung gestellt werden. Eine solche Lösung liefert schon heute die Firma EMC mit einem Teil ihrer ViPR-Lösungen. Alles zu Server auf CIO.de
Noch schneller auf Daten zugreifen
Neben Flash werden derzeit Technologien entwickelt, mit denen der Datenzugriff noch schneller realisierbar wird. Dazu muss der Speicher möglichst nah an der CPU sein. Zum Beispiel lässt sich der Flash-Speicher direkt über PCIe an die Server-CPU anbinden. Alleine dadurch kann eine Latenzzeit von 60 Mikrosekunden statt ein bis zwei Millisekunden in den aktuellen AFA-Systemen erreicht werden. Dies könnte zum Beispiel für In-Memory-Datenbanken einen erfolgskritischen Unterschied ausmachen.
Inzwischen gibt es NAND-Flash-Speicher, die sich in freie RAM-DIMM-Slots der Server stecken lassen. Weil der Flash-Speicher hier sehr nah an der CPU sitzt, funktioniert er wesentlich schneller als Flash über PCIe-Bus oder eine Festplatte mit zusätzlicher SCSI-Protokollebene. Jedoch verfügen die NAND-RAM-Disk-Module nur über eine begrenzte Speicherkapazität. Außerdem müssen technische Herausforderungen wie die der Garbage Collection erst noch zufriedenstellend gelöst werden.
Vielversprechend sind auch Decoupled-Storage-Ansätze, die den Performance- und Kapazitäts-Tier in einer Speicherlandschaft physikalisch voneinander trennen. Für eine konsumierende Anwendung führt eine Softwareschicht im Kernel des Hypervisors beide Tiers virtuell zusammen - nicht nur als Lese-Cache, sondern insbesondere auch zur Beschleunigung der Writes im Schreib-Cache. Unternehmen können dann in Flash- oder RAM-Erweiterungen ihrer Server als Performance-Tier investieren. Sie entlasten damit die heute bestehenden Speichersysteme von der IOPS-intensiven Nutzung und vermeiden Performance-Engpässe der zentralen Speicher. Damit verlängert sich die Lebensdauer der bestehenden Speicherinfrastrukturen. Zudem skaliert der Performance-Tier in den Servern linear mit der Anzahl der eingesetzten virtuellen Maschinen. Ein Anbieter in diesem Markt ist das Startup PernixData.
Diese Trends werden sich zwar erst in den kommenden Jahren im Markt durchsetzen, doch Unternehmen sollten sich schon heute damit befassen, um frühzeitig von den Vorteilen profitieren zu können.