Moderne Datendeduplikation mit Arcserve UDP

Zu viele Daten, zu wenig Zeit, nicht ausreichender Speicherplatz, knappe Budgets – das alles kommt Ihnen bekannt vor? Seit den ersten Mainframes wurden enorme Anstrengungen unternommen, um die Anforderungen an Speicherkapazität und die Datensicherungsprozesse zu optimieren.

Die Menge der Daten nimmt heute exponentiell zu. Unternehmen jeder Größenordnung versuchen, dieses inzwischen sehr kostspielige Problem in den Griff zu bekommen. Kostengünstigere Speicher sind zwar eine Lösung, bei vielen Workloads aus betrieblichen Gründen allerdings nicht wirklich effizient. Das Datenvolumen muss auf ein Niveau reduziert werden, das besser handhabbar ist. Zu viele Daten stellen die Unternehmen vor echte Probleme:

  • Die Unternehmen möchten sich durch Überprovisionierung ihrer Backup-Infrastruktur für schnelles, künftiges Wachstum rüsten. Das ist sehr teuer.
  • Veraltete Systeme können nicht mehr mithalten, und Backups dauern zu lange oder sind unvollständig.
  • Die Unternehmen können ihre Ziele für Wiederherstellungspunkte und -zeiten nicht erfüllen.
  • Die Sicherungen überlasten die Infrastruktur und nehmen zu viel Netzwerkbandbreite in Anspruch.
  • Die Unternehmen können neue Technologien z.B. Cloud-basierte Sicherungen, nicht einführen, da zu viele Daten über WAN’s (Wide Area Networks) übertragen werden müssen.

Wir brauchen eine technologische Weiterentwicklung, um das unaufhaltsame und exponentielle Wachstum virtueller Maschinen und Daten in den Griff zu bekommen. Dazu hat die Firma Arcserve ihren Ansatz für die Datendeduplikation vorgestellt.

Zielbasierte Deduplikation: sowas von überholt

In den letzten Jahren haben die Unternehmen erkannt, dass sie ihr Sicherungsfenster mit herkömmlichen Backup-Architekturen nicht einhalten können. Abgesehen von der Performance der Sicherungen waren auch die hohen Kosten für das Speichern der großen Mengen an Sicherungsdaten ein Problem. Die Speicherkosten explodierten – während die Backup-Systeme quasi zusammenbrachen. Als Versuch einer Lösung wurden immer mehr Deduplikations-Appliances eingesetzt. Man nahm die  Backup-Daten, optimierte sie durch Deduplikationsvorgänge und speicherte sie auf Festplatte. Das Sicherungsvolumen wurde sozusagen komprimiert, um Geld zu sparen. Die zielbasierte Deduplikation hat sehr gut funktioniert und wird auch heute in vielen Umgebungen noch verwendet.

Die zielbasierte Deduplikation ist deshalb so attraktiv, weil der Anwender die Konfiguration oder die Richtlinien seiner Backup-Software nicht großartig ändern muss, höchstens um das Ziel der Backup-Datenströme anzupassen.

Die zielbasierte Deduplikation kann entweder sofort oder als nachgelagerter Vorgang ausgeführt werden (dabei wird alles auf die Festplatte geschrieben und im Nachhinein optimiert, um Sicherungen zu beschleunigen.)

In einem seiner Präsentationen von 2008 gab SNIA einen Einblick auf einzige Szenarien der zielbasierten Deduplikation. Bei der zielbasierten Deduplikation fungiert die Backup-Software als Data Mover und sendet alle nicht deduplizierten Backup-Datenströme an eine Zielfestplatte oder an ein VTL-Gerät.

Unabhängig davon, ob die Verarbeitung transparent oder nach dem Backup erfolgt, stellt sich die Frage, warum man die Kosten für eine weitere Technologie eingehen soll. So etwas gehört der Vergangenheit an, heute gibt es bessere Methoden.

Verteilte Deduplikation: sowas von teuer

Bei einigen Anbietern entstehen dadurch zusätzliche Kosten, das für jeden verteilten Deduplikationsagenten auf jedem zu schützenden System abgerechnet wird. Im Hinblick auf die Disaster Recovery gibt es hierbei vielleicht ein paar Vorteile, der Einsatz so vieler teurer Systeme und Softwarelizenzen sowie die damit verbundenen steigenden Anforderungen an die Bandbreite treiben die Kosten jedoch nur noch weiter in die Höhe. Außerdem: Die Tools mögen zwar vorhanden sein, aus administrativer Sicht kann sich diese Art von Architektur allerdings als recht schwerfällig erweisen.

Quellenseitige Deduplikation: so sieht die nächste Generation aus

Warum Daten erst im Nachhinein deduplizieren, wenn man schon auf der Quellseite dedupliziert und nur die neuen und einmalig vorhandenen Daten sichert? Solange der Client nicht beeinträchtigt wird, können Sie die gesamte Bandbreite, die zur Übermittlung der Sicherungsdaten an das Ziel in Anspruch genommen wird, einsparen.

Und warum nicht alle deduplizierten Informationen für all Ihre Clients gemeinsam nutzbar machen? Genau darum geht es bei der globalen quellenseitigen Deduplikation. Und genau diesen Trend muss die Branche aufgreifen. Von vielen Endanwendern wurde die globale quellenseitige Deduplikation als Backup-Technologie der Zukunft erkannt. Die Herausforderung bei der globalen quellenseitigen Deduplikation besteht darin, sicherzustellen, dass das Quellsystem (der Client) von der Deduplikationssoftware nicht zu sehr behindert und belastet wird.

‌‍

whitepaper

Arcserve UDP
Moderne Datendeduplikation PDF

INTERESSIERT? NEUGIERIG? ÜBERZEUGT?

Sie benötigen mehr Informationen oder wünschen eine persönliche Beratung?

Möchten Sie uns etwas im Vorfeld mitteilen?