{"id":22,"date":"2015-08-11T14:13:36","date_gmt":"2015-08-11T14:13:36","guid":{"rendered":"http:\/\/www.neam.de\/?p=7701"},"modified":"2015-08-11T14:13:36","modified_gmt":"2015-08-11T14:13:36","slug":"moderne-datendeduplikation-mit-arcserve-udp","status":"publish","type":"post","link":"https:\/\/www.kai-wittenburg.de\/?p=22","title":{"rendered":"Moderne Datendeduplikation mit Arcserve UDP"},"content":{"rendered":"<p>Zu viele Daten, zu wenig Zeit, nicht ausreichender Speicherplatz, knappe Budgets \u2013 das alles kommt Ihnen bekannt vor? Seit den ersten Mainframes wurden enorme Anstrengungen unternommen, um die Anforderungen an Speicherkapazit\u00e4t und die Datensicherungsprozesse zu optimieren.<\/p>\n<p>Die Menge der Daten nimmt heute exponentiell zu. Unternehmen jeder Gr\u00f6\u00dfenordnung versuchen, dieses inzwischen sehr kostspielige Problem in den Griff zu bekommen. Kosteng\u00fcnstigere Speicher sind zwar eine L\u00f6sung, bei vielen Workloads aus betrieblichen Gr\u00fcnden allerdings nicht wirklich effizient. Das Datenvolumen muss auf ein Niveau reduziert werden, das besser handhabbar ist. Zu viele Daten stellen die Unternehmen vor echte Probleme:<\/p>\n<ul>\n<li>Die Unternehmen m\u00f6chten sich durch \u00dcberprovisionierung ihrer Backup-Infrastruktur f\u00fcr schnelles, k\u00fcnftiges Wachstum r\u00fcsten. Das ist sehr teuer.<\/li>\n<li>Veraltete Systeme k\u00f6nnen nicht mehr mithalten, und Backups dauern zu lange oder sind unvollst\u00e4ndig.<\/li>\n<li>Die Unternehmen k\u00f6nnen ihre Ziele f\u00fcr Wiederherstellungspunkte und -zeiten nicht erf\u00fcllen.<\/li>\n<li>Die Sicherungen \u00fcberlasten die Infrastruktur und nehmen zu viel Netzwerkbandbreite in Anspruch.<\/li>\n<li>Die Unternehmen k\u00f6nnen neue Technologien z.B. Cloud-basierte Sicherungen, nicht einf\u00fchren, da zu viele Daten \u00fcber WAN&#8217;s (Wide Area Networks) \u00fcbertragen werden m\u00fcssen.<\/li>\n<\/ul>\n<p>Wir brauchen eine technologische Weiterentwicklung, um das unaufhaltsame und exponentielle Wachstum virtueller Maschinen und Daten in den Griff zu bekommen. Dazu hat die Firma Arcserve ihren Ansatz f\u00fcr die Datendeduplikation vorgestellt.<\/p>\n<div id='tab-15809'>\n<ul>\n<li><a>Zielbasiert<\/a><\/li>\n<li><a>Verteilt<\/a><\/li>\n<li><a>Quellenseitig<\/a><\/li>\n<\/ul>\n<div>\n<div>\n<p class=\"strongblau\">Zielbasierte Deduplikation: sowas von \u00fcberholt<\/p>\n<p>In den letzten Jahren haben die Unternehmen erkannt, dass sie ihr Sicherungsfenster mit herk\u00f6mmlichen Backup-Architekturen nicht einhalten k\u00f6nnen. Abgesehen von der Performance der Sicherungen waren auch die hohen Kosten f\u00fcr das Speichern der gro\u00dfen Mengen an Sicherungsdaten ein Problem. Die Speicherkosten explodierten \u2013 w\u00e4hrend die Backup-Systeme quasi zusammenbrachen. Als Versuch einer L\u00f6sung wurden immer mehr Deduplikations-Appliances eingesetzt. Man nahm die\u00a0 Backup-Daten, optimierte sie durch Deduplikationsvorg\u00e4nge und speicherte sie auf Festplatte. Das Sicherungsvolumen wurde sozusagen komprimiert, um Geld zu sparen. Die zielbasierte Deduplikation hat sehr gut funktioniert und wird auch heute in vielen Umgebungen noch verwendet.<\/p>\n<p>Die zielbasierte Deduplikation ist deshalb so attraktiv, weil der Anwender die Konfiguration oder die Richtlinien seiner Backup-Software nicht gro\u00dfartig \u00e4ndern muss, h\u00f6chstens um das Ziel der Backup-Datenstr\u00f6me anzupassen.<\/p>\n<p>Die zielbasierte Deduplikation kann entweder sofort oder als nachgelagerter Vorgang ausgef\u00fchrt werden (dabei wird alles auf die Festplatte geschrieben und im Nachhinein optimiert, um Sicherungen zu beschleunigen.)<\/p>\n<p>In einem seiner Pr\u00e4sentationen von 2008 gab SNIA einen Einblick auf einzige Szenarien der zielbasierten Deduplikation. Bei der zielbasierten Deduplikation fungiert die Backup-Software als Data Mover und sendet alle nicht deduplizierten Backup-Datenstr\u00f6me an eine Zielfestplatte oder an ein VTL-Ger\u00e4t.<\/p>\n<p>Unabh\u00e4ngig davon, ob die Verarbeitung transparent oder nach dem Backup erfolgt, stellt sich die Frage, warum man die Kosten f\u00fcr eine weitere Technologie eingehen soll. <strong>So etwas geh\u00f6rt der Vergangenheit an, heute gibt es bessere Methoden.<\/strong><\/p>\n<\/div>\n<div>\n<p class=\"strongblau\">Verteilte Deduplikation: sowas von teuer<\/p>\n<p>Bei einigen Anbietern entstehen dadurch zus\u00e4tzliche Kosten, das f\u00fcr jeden verteilten Deduplikationsagenten auf jedem zu sch\u00fctzenden System abgerechnet wird. Im Hinblick auf die Disaster Recovery gibt es hierbei vielleicht ein paar Vorteile, der Einsatz so vieler teurer Systeme und Softwarelizenzen sowie die damit verbundenen steigenden Anforderungen an die Bandbreite treiben die Kosten jedoch nur noch weiter in die H\u00f6he. Au\u00dferdem: Die Tools m\u00f6gen zwar vorhanden sein, aus administrativer Sicht kann sich diese Art von Architektur allerdings als recht schwerf\u00e4llig erweisen.<\/p>\n<\/div>\n<div>\n<p class=\"strongblau\">Quellenseitige Deduplikation: so sieht die n\u00e4chste Generation aus<\/p>\n<p>Warum Daten erst im Nachhinein deduplizieren, wenn man schon auf der Quellseite dedupliziert und nur die neuen und einmalig vorhandenen Daten sichert? Solange der Client nicht beeintr\u00e4chtigt wird, k\u00f6nnen Sie die gesamte Bandbreite, die zur \u00dcbermittlung der Sicherungsdaten an das Ziel in Anspruch genommen wird, einsparen.<\/p>\n<p>Und warum nicht alle deduplizierten Informationen f\u00fcr all Ihre Clients gemeinsam nutzbar machen? Genau darum geht es bei der globalen quellenseitigen Deduplikation. Und genau diesen Trend muss die Branche aufgreifen. Von vielen Endanwendern wurde die globale quellenseitige Deduplikation als Backup-Technologie der Zukunft erkannt. Die Herausforderung bei der globalen quellenseitigen Deduplikation besteht darin, sicherzustellen, dass das Quellsystem (der Client) von der Deduplikationssoftware nicht zu sehr behindert und belastet wird.<\/p>\n<\/div><\/div>\n<\/p><\/div>\n<p>\t\t<script> \n\t\t\tjQuery(document).ready(function(){\n\t\t\t\tjQuery('#tab-15809').zozoTabs({\n\t\t\t\t\ttheme: 'silver',\n\t\t\t\t\torientation: 'horizontal',\n\t\t\t\t\tposition: 'top-left',\n\t\t\t\t\tstyle: 'normal',\n\t\t\t\t\tanimation: {\n\t\t\t\t\t\tduration: 200,\n\t\t\t\t\t\teffects: 'fadeIn',\n\t\t\t\t\t\teasing: 'swing'\n\t\t\t\t\t}<\/p>\n<p>\t\t\t\t});\n\t\t\t});\n\t\t<\/script>\u200c\u200d<\/p>\n<h2>whitepaper<\/h2>\n<div class=\"purchase-plate\">\n<h5 class=\"purchase-plate_header\">Arcserve UDP<\/h5>\n<p>\t\t\t\t\t\t<span class=\"purchase-plate_text\">Moderne Datendeduplikation<\/span><br \/>\n\t\t\t\t\t\t<a class='purchase-plate_button sc-button-hover'  href='http:\/\/www.neam.de\/wp-content\/uploads\/Arcserve_Dedupe_Whitepaper_DE.pdf' data-background-hover=\"#FFFF00\" style=' background-color:#2FABE0;'>PDF<\/a>\n\t\t\t\t\t<\/div>\n<article class=\"service_iconbox service-style2 border_iconbox\">\n<div class=\"service-icon\">\n              <span class=\"icon-info-sign\"><\/span><\/p>\n<div><\/div>\n<\/p><\/div>\n<h2 class=\"tran03slinear\">INTERESSIERT? NEUGIERIG? \u00dcBERZEUGT?<\/h2>\n<p>Sie ben\u00f6tigen mehr Informationen oder w\u00fcnschen eine pers\u00f6nliche Beratung?<\/p>\n<p>[contact-form-7]<\/p>\n<\/article>\n","protected":false},"excerpt":{"rendered":"<p>Zu viele Daten, zu wenig Zeit, nicht ausreichender Speicherplatz, knappe Budgets &ndash; das alles kommt Ihnen bekannt vor? Seit den ersten Mainframes wurden enorme Anstrengungen unternommen, um die Anforderungen an Speicherkapazit&auml;t und die Datensicherungsprozesse zu optimieren. Die Menge der Daten nimmt heute exponentiell zu. Unternehmen jeder Gr&ouml;&szlig;enordnung versuchen, dieses inzwischen sehr kostspielige Problem in den [&hellip;]<\/p>\n","protected":false},"author":3,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[9],"tags":[],"class_list":["post-22","post","type-post","status-publish","format-standard","hentry","category-storage-backup-restore"],"_links":{"self":[{"href":"https:\/\/www.kai-wittenburg.de\/index.php?rest_route=\/wp\/v2\/posts\/22","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.kai-wittenburg.de\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.kai-wittenburg.de\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.kai-wittenburg.de\/index.php?rest_route=\/wp\/v2\/users\/3"}],"replies":[{"embeddable":true,"href":"https:\/\/www.kai-wittenburg.de\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=22"}],"version-history":[{"count":105,"href":"https:\/\/www.kai-wittenburg.de\/index.php?rest_route=\/wp\/v2\/posts\/22\/revisions"}],"predecessor-version":[{"id":867,"href":"https:\/\/www.kai-wittenburg.de\/index.php?rest_route=\/wp\/v2\/posts\/22\/revisions\/867"}],"wp:attachment":[{"href":"https:\/\/www.kai-wittenburg.de\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=22"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.kai-wittenburg.de\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=22"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.kai-wittenburg.de\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=22"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}