Umstrittene Speicher-Methode
7 Ratschläge zur Deduplizierung
Deduplizierung als Methode der Datenverdichtung gilt seit drei Jahren als heißes Eisen im Storage-Köcher. Von Anbieterseite wird heftig über Sinn und Unsinn des Verfahrens debattiert, regelrechte Marketing-Schlachten waren zu bestaunen. Weithin unklar ist, inwieweit Deduplizierung in mittelgroßen Rechenzentren mit wenig Personal und kaum Backup-Spezialisten anwendbar ist. Steve Mackey, Nordeuropachef des Storage-Anbieters Quantum, versucht, sieben drängende Fragen zu beantworten.
1. Ist Daten-Deduplizierung mittlerweile eine Mainstream-Technologie? Klares Ja, sagt Mackey. Nach Einschätzung von Analysten setze etwa jede dritte IT-Abteilung die Methode zumindest für einen Teil der Daten ein. Auf der Anbieterseite seien inzwischen Produkte einer neuen Generation auf dem Markt, die eine vereinfachte und fortlaufende Anwendung erlauben. Mackey warnt aber auch, dass die Anbieter immer noch mitten im Lernprozess seien. Anwender tun also gut daran, sich über Erfahrungen, Referenzen und Support genau zu informieren.
2. Was genau passiert bei der Methode? Allgemein ist Deduplizierung ein Verfahren, um überflüssige Daten auf Sub-File-Level zu finden und Verweise auf die Dubletten zu ersetzen. So können die Datenträger entschlackt und die zur Übertragung nötige Bandbreite reduziert werden. Das geht auf unterschiedliche Weise vonstatten. Typisch ist die Block-Level-Deduplizierung, manche Produkte deduplizieren aber auch differenziert auf verschiedenen File-Niveaus. Die verschiedenen Ansätze wirken sich auf die Performance, den benötigten Arbeitsspeicher, die Unterstützung verschiedener Software-Anwendungen und die Möglichkeiten der Replikation aus. „Der spezifische Ansatz ist aber weniger wichtig als die erzielten Resultate“, meint Mackey.
3. Welche Probleme werden durch Deduplizierung gelöst? Am gebräuchlichsten ist die Anwendung für Backup-Daten. Nachvollziehbar, denn diese weisen mehr Redundanzen auf als andere Datensätze und werden länger aufbewahrt. Laut Mackey ergeben sich für die am meisten verbreiteten Office-Daten – darunter auch E-Mail und Flat Files – hohe Deduplizierungsraten. In einer Anwenderbefragung fand Quantum heraus, dass die Kunden im Durchschnitt eine um 125 Prozent beschleunigte Backup-Geschwindigkeit erzielten. Die fehlgeschlagenen Backups reduzierten sich um 87 Prozent. Zugleichen sanken die Kosten: die Ausgaben für austauschbare Medien um die Hälfte, jene für die Datenabfrage via Tape um 97 Prozent. Die eingesparte Zeit für die Backup-Steuerung beziffert der Anbieter auf 63 Prozent. Anwender, die die Technologie für Disaster Recovery (DR) einsetzten, profitierten von der Automatisierung des Prozesses und der Eliminierung von Bändern in kleineren Büros.