Anders als in klassischen Rechnern nutzen Hersteller im Storage-Umfeld keine flüchtigen RAM-Bausteine sondern Flash-Chips, die zu Solid State Disks (SSDs) aggregiert werden. Laut Gartner erreichte der Umsatz mit SSDs für Server und Speicher im vergangenen Jahr ein Volumen von 2,6 Milliarden Dollar. 2016 sollen es bereits 14,2 Milliarden Dollar sein. Angesichts solcher Wachstumsprognosen ist es kein Wunder, dass sich in diesem Markt immer mehr Anbieter tummeln. Weil die Technik noch längst nicht ausgereizt ist, haben sich außerdem Spezialisten wie Smart Storage Systems auf die Optimierung von Flash-Bausteinen und SSDs verlegt.
K.o.-Kriterien: Preis und Haltbarkeit von SSDs
Zum einen geht es darum, die Haltbarkeit der Chips insbesondere bei Schreibvorgängen zu verbessern. Das zweite Kriterium ist der Preis, denn SSDs sind in der Anschaffung noch immer teuer. Laut IDC musste man 2011 für 1 GB Speicherkapazität auf den hochwertigen SLC-basierenden SSDs noch rund 11 Dollar bezahlen (SLC = Single Level Cell). Bis 2016 soll es einen Preisabschlag von gut 30 Prozent pro Jahr geben, bis dann nur mehr zwei bis 3 Dollar für 1 GB zu berappen sind.
Auf der diesjährigen Fachmesse Storage Networking World (SNW) in Frankfurt am Main zeigte das Angebot des US-Unternehmens Smart Storage Systems, dass man kostengünstige Multi-Level-Cell-(MLC-) Flash-Chips dank Veredelung nahe an die Zuverlässigkeit und Haltbarkeit von Single-Level-Cells (SLCs) bringen kann. Die patentierte „Guardian“-Technik ändert die Flash-Parameter der NAND-Chips und setzt Fehlerkorrekturmechanismen ein, die die kostengünstigen MLC-Bausteine tauglich für den Einsatz in Unternehmen machen sollen.
Mittlerweile ist man bei der Fertigung der Chips beim 19-Nanometer-Fertigungsprozess angekommen, was die Bauteile nochmals verbilligen wird. Smart gibt fünf Jahre Garantie auf die Produkte. Unter anderem nutzen der Newcomer X-IO sowie die IBM die Produkte von Smart. Allerdings übernahm Big Blue kürzlich das US-Unternehmen Texas Memory Systems, das Flash-Controller und –Anwendungsbeschleuniger herstellt.
Auch in puncto Haltbarkeit gibt es laufend Verbesserungen, was insbesondere für die Beschreibbarkeit der SSDs wichtig ist: soll ein Datum in einer Zelle gespeichert werden, dann muss sie zuerst gelöscht werden, fabrikneue Teile ausgenommen. Herkömmliche Festplatten dagegen überschreiben einfach. Das Löschen der Flash-Chips lässt diese aber altern. Für eine Arbeitslast von 70:30 (70 Prozent Lesen, 30 Prozent Schreiben) liegen die Durchschnittswerte in puncto Haltbarkeit derzeit für SLCs bei 100.000 Zyklen, für MLCs bei 3000 und für enhanced MLCs (eMLC) bei 30.000 Program-Erase Cycles (P/E cycles). Man darf in Zukunft auf noch bessere Werte hoffen.
Die optimale Platzierung: SSD als Tier-0-Speicher
Noch spannender als die Technik der Bausteine ist die Frage nach dem optimalen Ort für SSDs. Im Rahmen von Tiered-Storage-Konzepten werden sie am häufigsten als Tier-0-Speicher im Speicherverbund aus schnellen, langsamen und Archivmedien eingesetzt. Die wichtigsten und aktuellsten Informationen und die mit den meisten Zugriffen sollen im SSD abgelegt werden. Das senkt Zugriffs- und Latenzzeiten enorm. Wenn sich die Daten in der SSD „abkühlen“, sprich weniger aktuell sind, wandern sie auf kostengünstigere Festplatten ab, in der Speicherhierarchie also nach unten.
Dell nutzt dieses Verfahren beispielsweise für alle hauseigenen Speichersysteme und setzt in den Powervault-, Equallogic- und Compellent-Speichern Solid-State-Disks mit Kapazitäten zwischen 200 und 400 GB ein. „SSDs müssen unbedingt in eine mehrstufige Speicherlandschaft eingebunden werden“, propagiert auch Hans Schramm, Field Product Manager Enterprise bei Dell. Denn die automatische Verlagerung der Informationen empfiehlt sich - um Platz für neue Daten zu schaffen - schon wegen der knappen Kapazitäten, mit denen SSDs meist ausgestattet sind.
Automatisches Tiering, da sind sich die Speicherhersteller einig, muss sein, wenn SSDs verwendet werden sollen. Doch was bedeutet in diesem Zusammenhang automatisch? Wann wird geprüft, ob Daten noch „heiß“ sind, also oft gebraucht werden oder ob sie bereits den Weg hinab in der Speicherhierarchie antreten sollen? Meist untersuchen die Softwareroutinen nur alle acht, zwölf oder gar nur 24 Stunden, wie es um die Bedeutung der Informationen bestellt ist. Automatisch ist also relativ.
Anders macht es der Hersteller Dot Hill. Dessen „Realtime-Data-Movement“-Technik überprüft alle fünf Sekunden, ob sich schon etwas auslagern lässt. „Die Daten werden aber nur dann verlagert, wenn wichtigere und aktuellere reinkommen“, beschreibt Warren Reid, Dot Hills Director Marketing Emea, das Vorgehen. Tests der Enterprise Strategie Group haben gezeigt, dass sich mit der Echtzeitverlagerung der Daten die Leistung um das 2,5-fache steigern lässt. Parallel dazu erhöht sich die Anzahl der möglichen Datenbanktransaktionen um mehr als das Doppelte während die I/O-Antwortzeiten um zwei Drittel sinken.
Algorithmen stellen sicher, dass nicht immer die gleichen Zellen der SSD beschrieben werden, was die Güte und Lebenszeit der Bausteine verlängert. Manager Reid erwartet, dass die neue Technik die hauseigenen „AssuredSAN Pro 5000“-Arrays in die Mittelklasse des Speicherangebots befördern wird, und das bei einem Einstiegspreis von 50.000 Euro für 20 TB Speicherkapazität und vier SSDs mit je 200 GB. Zu beziehen sind die Produkte über HP (OEM-Version) und den Handel, beispielsweise bei Avnet.
Gegen den Flaschenhals: SSDs als Cache-Speicher
Hitachi Data Systems (HDS) nutzt SSDs außer als Tier-0-Speicher auch als Beschleuniger für das Speichersystem, denn das stellt vielfach einen Flaschenhals dar. „Der Server hat dank Flash-Erweiterung mehr Dampf erhalten und kann die Daten schnell entladen, aber die Entladung im Speicher passt nicht mehr dazu“, beschreibt Jürgen Krebs, Director Business Development und Field Marketing bei HDS, die aktuellen Sorgen von Herstellern und Betreibern.
HDS hat deshalb eine Flash-Erweiterung entwickelt, die als Cache-Speicher für „Highspeed-Beschleunigung“ verwendet wird. „Die Flash-Acceleration mit 1,6 TB wird wie ein Festplatten-Array angeschlossen“, beschreibt Krebs das Produkt. „Durch das Asic erkennt der Speicher-Controller, dass darin ein Cache-Speicher enthalten ist.“ Bei schnellen Applikationen sollen sich damit Transaktionsraten von einer Million I/O in der Sekunde (IOPS) erreichen lassen. Der Preis für die Erweiterung, die in die VSP- und HUS-VM-Modelle passt und bei der keine Änderungen im System vorgenommen werden müssen, soll laut Krebs deutlich unter 50.000 Euro liegen.
Auch zum automatischen Verlagern von Daten hat sich HDS Gedanken gemacht. Die Company nennt ihre Lösung „Dynamic Tiering“. Sie erlaubt es, Daten zu definieren, die in 42-MB-Paketen auf eine höhere Ebene der Speicherhierarchie verschoben werden sollen – automatisch und ohne das sonst übliche Kopieren der Daten. Der Vorteil ist unter anderem, dass ein Look-ahead-Buffer alle verwandten Informationen erkennt und nach oben expediert. Normalerweise kopiert man Daten, wenn sie etwa aus dem Archiv aktuell gebraucht werden. Das kostet Zeit und ist auch fehleranfällig.
SSD: Der Turbo im Server
Ebenfalls auf die Beseitigung der Performance-Lücke zwischen Server und Speicher konzentriert sich LSI mit der „Nytro“-Produktlinie. Die Raid-Controller mit Flash-Bausteinen unterstützen die Festplatten im Server. Sie stecken im PCIe-Bus, wo die Flash-Module „näher an die Applikation heranrücken und zudem den schnellen Bus nutzen können“, beschreibt Thomas Pavel, Director of Channel Sales bei LSI, ein mögliches Szenario. Angeblich hat LSI 600 Millionen Dollar im Jahr für die Entwicklung der Baureihe ausgegeben. „Theoretisch sind 12 TB an schnellem Primärspeicher im Server möglich. Das kostet dann aber schnell 100.000 Dollar und mehr“, hat Pavel ausgerechnet.
Die Reduzierung der Latenzzeiten hat sich Emulex auf die Fahnen geschrieben. Die Host-Bus-Adapter „16GFC“ erreichen die magische Grenze von einer Million IOPS, schaffen den doppelten Datendurchsatz und halbieren laut Hersteller die Antwortzeiten für die Anwendung.
Am weitesten in puncto SSD-Technik scheint Fusion-io zu sein. Der Hersteller hatte mit Thomas Kejser seinen frisch gebackenen CTO Europe zur SNW geschickt. Die Company, die mit ihren IO-Drives, die ebenfalls direkt im PCI-Bus stecken, große Erfolge erzielt, dürfte in Zukunft mit weiteren Neuerungen aufwarten. „Flash wird in Zukunft anders genutzt werden als bisher“, orakelt Kejser, gibt aber immerhin einen Ausblick, wohin die Reise gehen kann: Atomic Writes heißt das Schlagwort. „In NAND-Bausteine kann man mehr Logik implementieren, sie wandert von der Datenbank in den Flash“, beschreibt der Manager, woran derzeit auch in der Community gearbeitet wird, denn Fusion-io hat die APIs veröffentlicht.
Im Endeffekt vermischen sich In-Memory- und Flash-Techniken, denn neben den bekannten Vorteilen wie Robustheit, geringe Wärmeentwicklung und Energieeffizienz zeichnen sich SSDs auch dadurch aus, dass sie sich einfacher verwalten lassen als herkömmliche Festplatten: „Festplatten verfügen über einen mächtigen Protokoll-Layer, Flash-Zellen sind dagegen direkt adressierbar“, fasst Kejser zusammen.
„SSDs werden Festplatten ersetzen“
„Die Frage ist nicht, ob SSDs herkömmlichen Festplatten ersetzen, sondern wann dies der Fall sein wird“, da ist sich Garry Veale, Managing Director Emea bei Violin Memory, sicher. Das Unternehmen aus dem kalifornischen Mountain View, an dem unter anderem Flash-Erfinder Toshiba beteiligt ist, hat sich auf den Bau von Flash-Memory-Arrays spezialisiert. Dazu wurden die Speicher – mit vielen patentierten Techniken - von Grund auf entwickelt, gefertigt werden sie von Flextronic.
Auch für Veale ist die Reduzierung der Latency das Hauptargument für den Einsatz von SSDs. Beim Anschluss der schnellen Speicher über den PCIe-Bus soll die Latenzzeit auf 90 Mikrosekunden sinken. Die Geräte der „3000“- und „6000“-Familie sind fehlertolerant ausgelegt, denn sie sollen für unternehmenskritische Anwendungen eingesetzt werden: Risk Management, Online-Wettbüros, Web-Shops, Bonitätsprüfungen bei Banken oder Luftraumüberwachung sind nur einige der Anwendungen dafür.
Im Vergleich zu herkömmlichen Fibre-Channel-Arrays sollen die Violin-Speicher nur rund 15 bis 20 Prozent teurer sein. Auch Veale vergleicht das eigene Angebot mit In-Memory-Lösungen, die ja mit teuren DRAMs arbeiten: „Violin verfügt über 70 Prozent der Leistung von DRAMs, kostet aber nur ein Drittel davon“, wirbt der Manger. Fujitsu hat sich die Violin-Technik schon gesichert und will ab sofort das 6000-Array als OEM-Produkt anbieten.
Fazit – SSDs im Unternehmen
Dass Flash-basierende Speicher früher oder später herkömmliche Highend-Festplatten ablösen werden, ist abzusehen. Zu groß sind die Vorteile dieser Technik, die jeder bereits von seinen Mobilgeräten her kennt. Steigen Speicherkapazitäten und Haltbarkeit weiter bei sinkenden Preisen, ist bald der Punkt erreicht, wo das Preis-Leistungsverhältnis der SSDs das Niveau von klassischen Festplatten erreicht. „Von da ab gibt es keine magnetischen Laufwerke mehr“, prognostiziert Hitachi-Manager Krebs. (Computerwoche)