Andererseits wird kräftig investiert in neue Technik wie Flash oder Software-Defined Storage. Der Markt ist in Bewegung geraten.
Wie lässt sich erklären, dass das Geschäft mit externen Speichern rückläufig ist, obwohl die Datenmengen weiter rasant steigen? Eric Sheppard, Research Director Storage beim Marktforschungsinstitut IDC, schreibt den Rückgang vor allem der sinkenden Nachfrage nach Highend-Speichern zu. Im ersten Quartal 2014 büßten die Anbieter solcher Arrays 25 Prozent des Umsatzes ein.
Das bedeutet aber nicht, dass Anwender ihre Datenhaltung komplett in die Cloud verlagert hätten. Es liege vielmehr an den Herstellern selbst, meint Storage-Analyst Josh Krischer: "Bei Highend-Speichern gibt es kaum noch signifikante technische Innovationen." Dafür haben die Mittelklasse-Speicher mächtig aufgeholt, was Kapazitäten und Funktionen angeht: "Für viele Anwender reichen heutige Midrange-Systeme aus. Sie bieten viele der Highend-Funktionen, sind aber deutlich günstiger in der Anschaffung."
Nicht gerade förderlich für den Hardwareabsatz dürfte zudem sein, dass die Datenhaltung derzeit überall optimiert wird. Aufgeschreckt durch die zu erwartenden Datenmengen, haben Anwender verzweifelt nach Optimierungs- und Reduzierungsmöglichkeiten gesucht - und sie sind fündig geworden: Techniken wie Datenkompression, Deduplizierung oder Thin Provisioning reduzieren das Speichervolumen erheblich. Und wenn weniger Daten anfallen, die gespeichert werden müssen, sinkt der Bedarf an Top-Equipment.
Die Analysten der Experton Group haben die Sparpotenziale bei Speichern mit Zahlen belegt: Das Datenwachstum liegt noch immer zwischen 18 und 25 Prozent jährlich, bei stagnierenden IT-Budgets. Datenkopien sorgen für den größten Zuwachs, egal ob es um strukturierte oder unstrukturierte Daten geht. Mit diversen Datenkompressionsverfahren lässt sich die Originalgröße einer Datei um bis zu 80 Prozent verkleinern.
Hinzu kommt der Trend zum Automated Tiering Storage: Je nach Nutzungsgrad lassen sich Daten auf dem jeweils passenden Speichermedium ablegen - von der Solid State Disk (SSD) über die Festplatte bis hin zum Bandlaufwerk. Tiering-Stufen sorgen für sinkende Kosten, denn die Faustregel besagt, dass die Preise für Tier-1-Speicher doppelt so hoch sind wie für Tier-2-Storage, und diese wiederum sind doppelt so teuer wie Tier-3-Speicher.
IDC-Forscher Sheppard macht neben technischen auch wirtschaftliche Gründe für den Rückgang bei externen Arrays geltend: "Die wirtschaftliche Unsicherheit und der generelle Trend, Systeme länger zu nutzen als bisher, lassen die Nachfrage sinken. Dazu besteht die Möglichkeit, einen erweiterten Kapazitätsbedarf schnell und exakt dosiert über Public-Cloud-Dienste zu decken." Die großen Speicherlieferanten haben diese Marktlücke entdeckt und bieten bereits entsprechende Services an.
Allerdings heben Mahner beim Stichwort Cloud-Storage den Zeigefinger. Auch Josh Krischer hat gute Argumente gegen das Speichern in der Wolke: "Die NSA-Affäre hat natürlich geschadet, da sich gezeigt hat, dass alle US-Firmen letztendlich porös sind." Auch der plötzliche Konkurs von Nirvanix im vergangenen Jahr sei ein gutes Beispiel dafür, in welche Notlage Cloud-Speicher Unternehmen bringen könne. Das Unternehmen, das seinen Kunden im Gegensatz zu manch anderer Cloud-Company eine robuste Infrastruktur bereitgestellt hatte, konnte den Kunden nur zwei Wochen Zeit gewähren, um ihre Daten zurückzuholen. Das hatte abschreckende Wirkung. Auch vor Hybrid-Cloud-Services warnt Krischer: "Wenn jemand das nur macht, um Geld zu sparen, dann rate ich ab." Ähnlich wie beim Outsourcing seien die Dienste nur anfangs lukrativ, "nach einiger Zeit ist eine Inhouse-Lösung billiger".
Dauerbrenner Flash bleibt attraktiv
Geht es um die gegenwärtigen Technologietrends im Speichermarkt, dann bleibt Flash-Speicher in Mode. Meistens kommen Hybridsysteme aus herkömmlichen Festplatten zum Einsatz, denen SSDs als schneller Cache-Speicher vorgeschaltet sind. Es gibt aber auch die Variante der "All-Flash-Arrays", die ohne Festplatte auskommen und nur auf Chips speichern. Die konnten in der Vergangenheit zwar mit hohen Durchsatzraten punkten, verfügten aber über keine Funktionen wie Deduplizierung oder Datenkompression. Das ändert sich gerade: Moderne Rechenzentren benötigen sowohl Geschwindigkeit und Datendurchsatz als auch hohe Kapazität, wie sie vor allem durch solche Einsparungsfunktionen erreicht wird.
Derzeit konsolidiert sich der Markt für SSDs. So verleiben sich die Hersteller von Flash-Bausteinen, etwa Toshiba oder Sandisk, ihre ehemaligen Abnehmer ein, die aus den schnellen Chips dann marktfähige SSDs bauen. Auf der anderen Seite sichern sich Hersteller von Festplatten wie Western Digital und Seagate durch Zukäufe das nötige Flash-Know-how. Tatsache ist, dass der Markt für Flash-Speicher weiter boomt und mit jährlichen Wachstumsraten von 25 bis 30 Prozent aufwartet.
Allerdings werden sich demnächst die Basistechnologien ändern, prophezeit Speicher-analyst Krischer: "Die derzeitige Flash-Technik ist am Ende des Lebenszyklus angelangt." In den Labors wird fieberhaft an Nachfolgern wie Phase-Change-Chips, Magnetic und Ferroelectric RAM, Magnetic Racetrack Memory oder Resistive RAM gearbeitet, die eine bessere Leistung als Flash-NAND-Chips bieten, aber langsamer sind als bipolare DRAMs. Wer das Rennen macht, ist ungewiss. Enorm sind in jedem Fall die Herstellkosten: Ein Werk für Festplatten kostet rund 200 bis 300 Millionen Dollar, eine Chipfabrik schlägt mit drei bis fünf Milliarden Dollar zu Buche.
Software-Defined Storage
Software-Defined Storage (SDS) folgt dem Trend, die physikalische Speicherhardware von der für Management und Automatisierung zuständigen Softwareinfrastruktur zu trennen. Speicherressourcen können in einer solchen Umgebung automatisch und effizient den Bedürfnissen der einzelnen Enterprise-Anwendungen angepasst werden. Zudem werden die physikalischen Speichereinheiten austauschbar. Um Themen wie Interoperabilität, Ressourcenzuweisung oder manuelle Anpassungen muss sich der Anwender - im Idealfall - nicht mehr kümmern.
Viele Anbieter tummeln sich bereits in dem Markt, darunter solche wie VMware und Nexenta, die keine Hardware, sondern nur Speichersoftware anbieten. Analyst Krischer lobt diese Technik für den Einsatz in kleinen und mittelgroßen Unternehmen, insbesondere dann, wenn keine breite Nutzung von Speicherfunktionen wie Thin Provisioning oder Remote Copy geplant sei. Im Endeffekt muss aber die Hardware doch gekauft werden, egal ob als Intel-Chip im Controller oder als CPU im Rechner: "There is no free lunch", sagt Krischer - und das gilt ja eigentlich immer in der IT.
Tipps für den Speicher-Einkauf
-
Auf Optimierungsfunktionen wie Deduplizierung, Datenkompression und Thin Provisioning achten.
-
Für eine vernünftige Hierarchie mit Flash-Speicher und automatischer Datenplatzierung sorgen. Ein typischer Anwender benötigt fünf bis zwölf Prozent der Speicherkapazität als Flash-Speicher. Selbst mit nur fünf Prozent Flash-Kapazität kann sich der Datendurchsatz auf das Zwei- bis Dreifache steigern lassen.
-
Zu vermeiden ist der "Vendor lock-in", also die Abhängigkeit von der Technik eines einzigen Anbieters.
-
Immer notwendig: eine gute Verhandlungstechnik beim Einkauf.