Backup der Zukunft … (Teil 1)

Optimierung der Backup & Recovery Services zählt zu den Top-10 Prioritäten vieler Unternehmen. Zu diesem Ergebnis kommt eine von ESG durchgeführte Studie. Ein Treiber dafür sind u.a. steigende SLA Anforderungen sowie zu hohe Kosten. Ich hab mich also mal selbst gefragt, wie sehen heutige Backup Landschaften aus und was bzw. wie kann man das optimieren?

 

Ist Situation: Backup-to-Disk-to-Tape

 

Viele Unternehmen nutzen heute ein klassisches „Backup-to-Disk-to-Tape“ Konzept.

 

Bild2.png

D.h. die Datensicherung erfolgt in „Stufe 1“ auf Festplatten (Disk). Dafür nutzen viele Unternehmen virtuelle Tape Libraries (VTL) oder auch Backup Diskpools. Verglichen mit einem DiskPool bieten viele VTLs entsprechende Speichereffizienz Funktionen um auch die Daten länger vorhalten zu können. Allerdings sind diese VTL Systeme meist nur als physikalische Appliance erhältlich, was sich letztlich auch in teurer, proprietärer Hardware wiederfindet.

 

Im Anschluss an die Sicherung auf Disk werden die Daten in Stufe 2 von den Festplatten auf klassische Bänder (Tapes) verdrängt. In Stufe 3 erfolgt meist die Auslagerung der Bänder an eine „Offsite Lokation“.

 

Seit über fünf Jahrzenten sind Bänder als Backupmedium im Einsatz. Wie erfolgreich oder nicht möchte ich an dieser Stelle nicht beurteilen. Zweifelsohne liefern Bänder für Langzeitarchivierung einen interessanten Preis pro Terabyte. Auch die Möglichkeit zur Datenauslagerung an eine Offsite Lokation, z.B. eine Bank oder einen Tresor an einem anderen Standort, bietet Mehrwerte.

 

Aber, Bänder haben auch erhebliche Herausforderungen und m.E. Risiken. Und jetzt meine ich nicht nur das Thema „Performance“. Nein, ich denke eher an so Themen wie Verlässlichkeit, d.h. kann man die Daten auf dem Band in ein paar Jahren wirklich noch lesen? Persönlich hatte ich leider in der Vergangenheit einige negative Erfahrungen gemacht… Sie auch ?

 

Bild4 def Tape.jpg

 

Auch Themen wie Risikominimierung sehe ich eher skeptisch. D.h. was ist der maximale RPO, den man mit Bändern erzielen kann? Tritt wirklich einmal der „worst case“ Fall ein und man muss auf Band zurückgreifen, wieviel Datenverlust hat man? 24 Stunden, 48 Stunden, oder mehr… Das hängt sicherlich davon ab, wann das Band zuletzt an eine Offsite Lokation transferiert wurde – oder?

 

Bild4 Tape kopieren.jpg

Eine weitere Herausforderung sehe ich aber vor allem im hohen, administrativen Aufwand und damit verbunden den Kosten. Bänder müssen nicht nur beschriftet und immer wieder transportiert werden. Nein, Bänder müssen auch regelmäßig umkopiert werden z.B. wenn ein Wechsel in der Bandtechnologie stattfindet. Das kann durchaus Wochen, Monate aber auch Jahre dauern.

 

Lange Rede kurzer Sinn. Ich denke, es gibt Optimierungspotential für heutige Backup-to-Disk-to-Tape Konzepte. Aber wie …?

 

Meine spontane Antwort dazu würde lauten: Backup-to-Disk-to-Cloud

 

Auch in einer zukünftigen, optimierten Backup Infrastruktur muss Disk die erste Stufe im Sicherungskonzept sein. Nur so können die Sicherungen schnell „auf“- bzw. „entgegengenommen“ werden. Natürlich sollten Festplatten auch im Falle der Datenwiederherstellung die erste Quelle sein. Dies wiederum setzt voraus, dass das Disksystem für Backup möglichst viele Kopien vorhalten sollte. Intelligente Effizienztechnologien wie Inline-DeDuplizierung und Komprimierung sind aus diesem Grund ein Muss.

 

Um Daten langfristig aufzubewahren bzw. an eine Offsite Lokation zu bringen, sollte m.E. der Einsatz eines Public- oder Private Cloud Speichers in Betracht gezogen werden. Sicherlich wird der Preis pro Terrabyte, verglichen mit Bändern, noch etwas höher liegen. Aber die Komplexität im Umgang mit Tape d.h. „Bänder beschriften, transportieren, umkopieren, usw.“ würde komplett wegfallen.

 

Darüber hinaus kann man auch das Risiko deutlich minimieren. Einerseits weil man regelmäßig Rücksicherungen ohne großen Aufwand testen kann und dazu nicht extra die Bänder aus dem „Remote Standort“ zurückholen muss. Andererseits versetzt einem der Cloud Storage in die Lage, pro Tag mehrere Datenkopien (z.B. jede Stunde = RPO von 1h) außer Haus zu schaffen.

 

Ein Mehrwert, den vor allem Public Cloud Anbieter ermöglichen, ist die Datenreplikation über Länder bzw. auch Kontinente hinweg. Damit solche Konzepte funktionieren ist auch hier höchste Effizienz im Umgang mit der Datenreplikation gefordert.

 

Natürlich gibt es bei der Nutzung von Public Cloud Storage immer gewisse Vorbehalte. Zum einen, weil man Angst um die eigentlichen Daten hat. Aus diesem Grund setzt der Einsatz von entsprechenden Verschlüsselungstechnologien ein Mindestmaß an Voraussetzungen. Andere Vorbehalte gegenüber Public Cloud Storage bezieht sich oft auch auf den Restore Fall. Denn auch hier gibt es Bedenken, ob man seine Daten schnell genug aus der Wolke zurückbekommt. Deshalb ist es in erster Linie wichtig, Sicherungskopien über einen möglichst langen Zeitraum auch im lokalen Rechenzentrum vorzuhalten und da sind wir wieder beim Thema Speichereffizienz.

 

NetApp AltaVault – Cloud-integrierter Speicher

 

Gefällt Ihnen mein Backup-to-Disk-to-Cloud Ansatz? Mit Hilfe unserer NetApp AltaVault Systeme sind wir bereits heute in der Lage o.g. Backupkonzepte umzusetzen.

Bild3.png

NetApp AltaVault ist ein sogenannter Cloud-integrierter Speicher und übermittelt Backup- oder Archivierungsdaten an öffentliche und private Objektspeicher, wie beispielsweise Amazon S3, Microsoft Azure, u.v.m.

 

Mit Hilfe der integrierten Speichereffizienztechnologie, wie Inline-Deduplizierung und Komprimierung wird eine Datenreduktion von bis zu 30:1 erzielt. Dies steigert die Vorhaltezeit der Daten auf Disk, verringert gleichzeitig die benötigte Kapazität beim Cloud Storage und reduziert vor allem auch die zu übertragende Datenmenge über LAN/WAN Netzwerke auf ein Minimum.

 

Zur einfachen und schnellen Datenübertragung vom Backup Server auf die AltaVault nutzt man reine filebasierte Protokolle wie CIFS und NFS. Eine Vielzahl der heute im Einsatz befindlichen Backup Softwareprodukte unterstützen unsere AltaVault Systeme. Aus diesem Grund sind auch keine großen Anpassungen an den Betriebsprozessen notwendig.

 

NetApp AltaVault Systeme stehen als physikalische aber auch virtuelle Appliance unter VMware ESX sowie Microsoft Hyper-V zur Verfügung. Darüber hinaus sind die sogenannten AltaVault Cloud-Appliances im Amazon sowie Microsoft Azure Marketplace auf deren IaaS Plattform erhältlich.

 

Zusammengefasst:

 

NetApp AltaVault ermöglicht neue Backup Infrastruktur Lösungen unter Nutzung von Public- oder Private Storage um damit

  1. die Komplexität zu reduzieren,
  2. den SLA zu erhöhen und
  3. gleichzeitig die Kosten zu senken.

Unter dem Motto „Backup in der Cloud mit NetApp zertifizierter Qualität“ bieten bereits heute einige unserer Partner fertige Backup-as-a-Service (BaaS) Lösungen auf Basis der AltaVault Technoloie an. Mehr dazu finden Sie hier: http://www.baas-made-in-germany.de/

 

Ausblick Teil 2 - NetApp AltaVault und Microsoft Azure eine interessante Kombi…

 

Unter dem Motto „NetApp AltaVault und Microsoft Azure eine interessante Kombi…“ möchte ich Ihnen in Teil 2 meines Blogs die Funktionsweise etwas näher erläutern und im Rahmen einer kurzen Demo auch unter Beweis stellen. Natürlich will ich auch meine These begründen, warum ich diese Kombination sehr interessant finde.

 

Weitere Informationen über unsere AltaVault Systeme finden Sie hier: http://www.netapp.com/de/products/protection-software/altavault/altavault-tech-specs.aspx

NetApp AltaVault Cloud - Integrated Storage Appliances Technology Overview – TR-4427

NetApp AltaVault Cloud Integrated Storage Appliances - Security Overview– TR-4405

NetApp AltaVault Cloud Integrated Storage Appliances - Best Practices Guide for Backup Appl. – TR-4415