Top 100 - Storage
Auf der Jagd nach Speed
Wie wichtig das Thema Flash auch für die großen Anbieter ist, beweisen die zahlreichen Firmenzukäufe der vergangenen Jahre, etwa die Übernahme von Extreme I/O durch EMC oder die von Texas Memory Systems durch IBMIBM. Alles zu IBM auf CIO.de
Schnelle CPUs durch Zusatzaufgaben abbremsen
Wenn die Server-Prozessoren – heute meist von Intel – mit ihren zahlreichen Cores schon so leistungsfähig sind, dass sie in virtuelle Maschinen unterteilt werden können, dann lassen sich dort auch Partitionen einrichten, die mit Speicheraufgaben betraut sind. Der Speicher-Controller wird damit überflüssig. Das ist im Prinzip die Wirkungsweise, die sich hinter dem Begriff „Software Defined StorageStorage“(SDS) verbirgt. IDC definiert so: „Software-defined Storage ist ein Stack an Storage-Software, der auf einer gängigen Ressource (x86 Hardware, Hypervisors oder Cloud) installiert werden kann. Alles zu Storage auf CIO.de
Dieser Storage-Software-Stack bietet eine vollumfängliche Suite an Storage-Services (zum Beispiel Orchestration Layer, Skalierbarkeit, Attribut-Management, Datenschnittstellen) und vereinigt zugrunde liegende Speicherressourcen, um Datenmobilität zwischen diesen zu ermöglichen.“ Gespart werden kann damit zum einen bei der Investition in leistungsstarke Speicher-Controller, zum anderen in externe Appliances für Speicherdienste wie Deduplizierung und Remote Copy.
Das funktioniert natürlich auch umgekehrt: Applikationen, die auf Spezialmaschinen ausgelagert sind, laufen im Speicher-Controller ab: „Das passiert heute schon mit Diensten wie Remote Replication, Datenkompression und -Verschlüsselung, in Zukunft dürften Programme für Deduplizierung, Backup und sogar für Suchaufgaben oder Analysen dort platziert werden“, prophezeit Speicherexperte Josh Krischer. Er gibt allerdings zu bedenken, dass mit jeder Zusatzaufgabe die Leistung der Prozessoren angezapft wird. Vorsicht sei also geboten, damit die CPU nicht mit Anfragen überfrachtet wird und die Performance für die Hauptbeschäftigung nicht mehr ausreicht.
Große Datenberge auch nach Jahren wiederfinden
Wie lassen sich große Mengen an unstrukturierten Daten auch morgen (oder übermorgen) noch wiederfinden, auch wenn der ursprüngliche Speicher vielleicht bereits verschrottet wurde? „Object Storage“ heißt die Wunderwaffe, mit der dies gelingen soll. Der Trick besteht darin, dass die blanken Informationen zusammen mit Metadaten und Attributen in sogenannte Container geschoben werden und dort sogar Zusatzfunktionen wie Datenkompression oder Verschlüsselung ablaufen können.
Die Container lassen sich herstellerunabhängig auf den unterschiedlichen Speichern (DAS, SAN, NAS, Cloud) ablegen und auch wiederfinden beziehungsweise auch später noch lesen. „Ein normales File-System hat Grenzen in der Skalierbarkeit, Object Storage ist unbegrenzt“, beschreibt Krischer einen weiteren Vorteil der Technik. Zudem gebe es keine Beschränkungen hinsichtlich der verschiedenen Dateitypen (strukturiert, Voice, Video), die normalerweise nicht in ein einziges Dateisystem passen. Über die Zuordnung der Attribute sei das aber möglich, so der Analyst.
Tape ist nicht tot
Speicheranalyst Josh Krischer bricht eine Lanze für das LTO-Tape, das ähnlich wie Object Storage ebenfalls zwischen Nutz- und Metadaten unterscheidet: „Das bedeutet, der Zugriff auf die Datei erfolgt quasi wie ein Direct Access.“ Der User agiert mit Drag und Drop wie beim Zugriff auf eine Disk, was sich beispielsweise zur einfachen Archivierung nutzen lässt.
Weitere Vorteile von Tape-Storage sind das immer noch beste Verhältnis von Preis und Speicherkapazität, Worm-Fähigkeit (Write once, read multiple), die geringe Stromaufnahme und eine solide Roadmap mit den kompatiblen LTO-Systemen von HPHP und IBM. Was seiner Meinung nach fehlt, sind StrategienStrategien der Hersteller, intelligente Tape-Lösungen wie Virtual Tape oder Verschlüsselung zu vermarkten. Alles zu HP auf CIO.de Alles zu Strategien auf CIO.de