Schlagwort-Archive: NAS

Datensicherung für Fotografen - Teil 2

Festplatten in einem professionellen NAS-System
Festplatten in einem professionellen NAS-System

In Datensicherung für Fotografen habe ich bereits ausführlich beschrieben, warum man Backups machen sollte und wie die üblichsten Techniken funktionieren. Wie es immer so ist, wenn man Wasser predigt und Wein trinkt, ist mir kurz nach diesem Artikel eine Festplatte kaputt gegangen und ich habe selbst einige Daten verloren. Meine älteren Fotos waren durch einen glücklichen Zufall gesichert, aber von anderen Daten auf der Festplatte gab es kein Backup. Die Platte war eigentlich völlig intakt, aber inzwischen ca. 2 Jahre nicht mehr in Betrieb gewesen. Das reichte, um die Technik außer Gefecht zu setzten: die Festplatte wurde vom Computer gar nicht erst erkannt. Auch wenn wahrscheinlich keine "lebenswichtigen" Daten betroffen sind, hat mir dieser Vorfall noch einmal die Dringlichkeit einer vernünftigen Sicherung vor Augen geführt. Deshalb habe ich mir die Zeit genommen, selbst Komponenten für ein NAS-System auszusuchen und einen zuverlässigen Netzwerkspeicher zu bauen. In diesem Artikel möchte ich also konkret auf meine umgesetzte Lösung eingehen und Interessierten  eine Nachbauanleitung zur Verfügung stellen.

Warum überhaupt Selbstbau?

Natürlich gibt es von erfahrenen Herstellern wie Synology oder Qnap fertige NAS-Systeme zu kaufen. Die Geräte sind fire-and-forget-Lösungen, die man im Prinzip nur auspackt, anschließt und dann loslegen kann. Trotzdem habe ich mich entschieden, meine eigene maßgeschneiderte Lösung zu bauen. Dadurch erhalte ich die volle Kontrolle und die freie Wahl aller Einzelkomponenten und kann eine beliebige freie Software auf meinem Gerät einsetzen. Einige fertige NAS-Lösungen kann man zwar ebenfalls mit alternativen Betriebssystemen betreiben, aber da ich hier wenig Erfahrung habe, wollte ich mich darauf nicht unbedingt verlassen müssen.

Kostentechnisch bin ich ungefähr auf dem gleichen Niveau wie mit einem fertigen NAS-System - wenn man davon absieht, dass ich einige Stunden in die Auswahl der Komponenten gesteckt habe.

Die Komponenten

Mainboard & Prozessor

Ich hatte mir im Vorfeld überlegt, welche Anforderungen ich an mein Mainboard stelle. Ich wusste bereits, dass ich mindestens vier SATA III Anschlüsse für die Festplatten und mindestens einen USB 3.0 Anschluss für den USB-Stick mit dem Betriebssystem brauchen würde. Die Netzwerkanbindung sollte über Gigabit Ethernet passieren. Außerdem sollte sich natürlich der Stromverbrauch in Grenzen halten. Ursprünglich wollte ich noch einen Prozessor, der das AES-Instructionset (AES-NI) unterstützt, das bei Verschlüsselungsoperationen einen deutlichen Performancevorteil bringt. Diese letzte Anforderung habe ich aber wieder verworfen, weil AES-NI nur von einigen wenigen Intel Atom Prozessoren unterstützt wird. Offenbar ist es aber unmöglich, ein Board mit Atom-Prozessor zu finden, das mindestens vier SATA III Geräte ansprechen kann. Dazu müsste man in höhere Prozessorklassen wie Pentiums, Celerons oder Intel i3 gehen, die dann aber schnell mehr kosten, als ich eigentlich ausgeben wollte. Ich habe deshalb stattdessen ASUS E2KM1I-Deluxe Board im Mini-ITX Formfaktor gekauft, das mit einer AMD APU E2-2000 ausgestattet ist und bis zu 16 GB RAM unterstützt. Die thermische Verlustleistung des Prozessors liegt zwar mit 18 Watt etwas höher, als ich eigentlich gehen wollte, aber dafür werden alle wichtigen Features unterstützt und das System bekommt ordentlich Leistung. Der angenehme Nebeneffekt dieser Wahl ist, dass der Prozessor mit dem Prozessor in meinem derzeitigen Netbook verwandt ist und ich so die Leitung recht gut abschätzen kann.

Diese Slideshow erfordert aktiviertes JavaScript.

Der Faustregel folgend, dass man für jedes Terabyte an Festplattenspeicher mindestens ein Gigabyte an RAM verbauen sollte, habe ich 8 GB DDR3-1333 RAM DIMMs gekauft. An dieser Stelle möchte ich darauf hinweisen, dass Asus eine Liste mit unterstützten RAM-Typen veröffentlicht hat, nach der man sich richten sollte, wenn man später keine Probleme mit dem Gerät haben möchte. Wer mehr Performance haben möchte, sollte in erster Linie den RAM erweitern. ZFS ist überaus speicherhungrig und meine 8 GB stellen gerade eben die Untergrenze dessen dar, was man dem System zur Verfügung stellen sollte.

Festplatten

Bei den Festplatten habe ich mich für Western Digital Red 3TB, 3.5", SATA 6Gb/s (WD30EFRX) entschieden. Diese Platten sind für den Dauereinsatz in NAS-Systemen ausgelegt und mit maximal 4,4 Watt Verlustleistung unter Volllast besonders energiesparend. Sie drehen mit 5.400 U/min, haben große 64 MB Cache und sind mit einer MTBF (mittlere Betriebsdauer zwischen Ausfällen) von einer Million Stunden angegeben. Zum Vergleich: normale Desktopfestplatten halten höchstens halb so lange, Western Digital Green Festplatten sogar nur ein Drittel so lange. Damit werden die WD Red den besonderen Anforderungen an die Zuverlässigkeit in einem NAS-System gerecht.

Die vier NAS-Festplatten
Die vier NAS-Festplatten

Ein kleiner Tipp noch: um dem gleichzeitigen Ausfall zu vieler Platten vorzubeugen, sollte man möglichst Festplatten aus unterschiedlichen Produktionschargen verwenden. Das schafft man z. B., indem man einen Teil der Platten bei einem anderen Händler bestellt.

Gehäuse

Bereits vor einigen Monaten habe ich mir ein neues Gehäuse für meinen Desktop-PC gekauft. Der schwedische Hersteller Fractal Design bietet wunderschöne, minimalistische Gehäuse mit Kabelmanagement und effektiver Geräuschdämmung mittels Bitumenplatten an. Begeistert von diesem Gehäuse habe ich auch bei meinem NAS wieder zu Fractal Design gegriffen. Diesmal fiel meine Wahl auf das Fractal Design Node 304 in schwarz im Mini-DTX/Mini-ITX-Formfaktor. Es bietet genügend Platz für mein Board, verfügt über drei Gehäuselüfter und kann bis zu sechs Festplatten aufnehmen - genug Raum für Erweiterungen also.

Es gibt für NAS-Systeme zwar auch eigene spezialisierte Gehäuse mit sogenannten Backplanes, die bereits die Festplattencontroller und die komplette Rechentechnik enthalten und einen Festplattentausch im laufenden Betrieb ermöglichen, aber diese Gehäuse sind in meine Größenvorstellungen schon so teuer, dass ich mich dagegen entschieden habe.

Diese Slideshow erfordert aktiviertes JavaScript.

Netzteil

80+ Bronze zertifiziert

Die Wahl eines passenden Netzteils war eine besondere Hürde. Einerseits wird mein System auch unter Last wenig Strom verbrauchen, andererseits sind die meisten Netzteile für ausgewachsene Desktop-PCs dimensioniert.

Der Markt für Netzteile um die 200 Watt oder weniger ist also eher überschaubar. Dazu kommt, dass ich aus Effizienzgründen ein Netzteil einbauen wollte, das eine möglichst hohe 80+ Spezifizierung hat. Solche Netzteile bieten auch bei niedrigerem Stromverbrauch gute Effizienzwerte. Leider bietet das Gehäuse nur maximal 160mm Platz für ein Netzteil, so dass einige in Frage kommende 80+ Gold zertifizierte Netzteile schlicht wegen ihrer Größe aussortiert werden mussten.

Netzteil
Netzteil

 

Ich habe letztlich eine Kompromisslösung gewählt und das be quiet! Pure Power L8 350W ATX 2.4 (BN221) gekauft, das zumindest eine 80+ Bronze Zertifizierung hat.

Betriebssystem

Bei der Betriebssystemwahl stand für mich recht früh fest, dass ich das auf FreeBSD basierende FreeNAS verwenden würde. Der Hauptgrund dafür ist, dass FreeNAS von sich aus das Dateisystem ZFS unterstützt. ZFS arbeitet so ähnlich wie RAID, unterstützt und überprüft aber regelmäßig die Checksummen, die es zu den Dateien ablegt, so dass Fehler im Dateisystem behoben werden können. Außerdem ist FreeNAS eine Software, die sich bereits viele Jahre im harten Alltagseinsatz bewährt hat und mir daher ausreichend zuverlässig erscheint. FreeNAS ist zudem offene Software, bei der der Quellcode für jeden frei einsehbar und veränderbar ist. Dadurch bindet man sich nicht an einen Hersteller.

Den mitgelieferten Funktionsumfang kann man mit Plugins erweitern. So lassen sich Streaming Server, BitTorrent-Clients, Newsreader und viele andere nützliche Dinge sehr einfach anbinden.

In meinem speziellen Setup wird FreeNAS von einem USB3.0-Stick laufen, so dass keine Festplatte für das kleine Betriebssystem "verschwendet" wird. Standardmäßig ist die USB3.0-Unterstützung in FreeNAS zwar ausgeschaltet, lässt sich aber mit einem einfachen Schalter auch einschalten. Da auch das Mainboard USB3.0 unterstützt, wird hier die optimale Performance für das Betriebssystem erzielt.

Fazit

Zugegebenermaßen ist der Aufwand für ein Selbstbau-NAS deutlich höher als für eine Fertiglösung. Dafür erhält man aber auch ein System, das man frei nach den eigenen Wünschen gestalten, konfigurieren und ausstatten kann - für mich auf jeden Fall ein lohnenswerter Kompromiss.

Komponentenliste

Hier nochmal alle Komponenten, die man braucht, um das Ganze selbst nachzubauen:

Datensicherung für Fotografen

Die traurige Wahrheit gleich vorweg: Datenträger sind nicht unfehlbar. Festplatten sind nicht unfehlbar, SD-Karten sind nicht unfehlbar, optische Datenträger wie CDs, DVDs, BluRays etc. sowieso nicht und selbst Magnetbandspeicher wie LTO-Tapes halten nicht ewig. Headcrashes, ausgefallene Controller, beschädigte Dateisysteme, langsam verrottende Metalloxidschichten und Entmagnetisierung machen den Speichern zu schaffen und verursachen den sogenannten "bit rot", also willkürlich "verrottende" Bits, die irgendwann dazu führen, dass eine Datei nicht mehr lesbar ist. Wer digital fotografiert, für den sind seine Fotos aber nicht nur schöne Erinnerungen, sondern oft genug auch ihr Kapital. Grund genug, sich einmal genauer über Datensicherung Gedanken zu machen. Ich werde wieder versuchen, alles so zu erklären, dass auch Nicht-Techniker mitkommen und so die Möglichkeit bekommen, eine eigene Datensicherung umzusetzen. Für Fragen stehe ich aber gerne in den Kommentaren oder auf Twitter zur Verfügung.

 

Hard disk head crash
Headcrash bei einer Festplatte (Foto: Heinrich Pniok alias Alchemist-hp (www.pse-mendelejew.de) (Own work) [CC-BY-SA-3.0], via Wikimedia Commons)

Hardware

Zuerst wollen wir uns die Möglichkeiten der Hardware einmal ansehen. Je nach Größe des Geldbeutels, Backup-Strategie und persönlicher Vorliebe hat man hier mehrere Möglichkeiten:

Interne Festplatten

Wenn im heimischen PC noch Einschübe frei sind und das Mainboard des Computers noch über entsprechende Steckplätze verfügt, kann man sich einfach beim Elektronikhändlers seines Vertrauens eine neue Festplatte kaufen. Diese schraubt man sich in das PC-Gehäuse, schließt Daten- und Stromkabel an, erstellt eine neue Partition (für die Linux-User: mountet die Festplatte an einen beliebigen Mountpunkt), formatiert sie und schon kann es los gehen. Wer sich nicht scheut, die Seitenverkleidung seines Computers zu öffnen und ein paar Schrauben einzuschrauben, für den ist eine neue interne Festplatte eine preisgünstige Möglichkeit, freien Speicherplatz für die Datensicherung zur Verfügung zu stellen.

Externe Festplatten

Sollte das PC-Gehäuse schon voll sein, alle Anschlüsse schon belegt sind oder man ganz einfach ein Notebook benutzen, dann sind interne Festplatten keine Option. Stattdessen kann man sich die entsprechende Technik im eigenen Gehäuse auch als externe Lösung kaufen und per USB, eSATA, Firewire, Thunderbolt etc. an den Rechner anschließen. Der PC wird die Festplatte dann in den meisten Fällen automatisch als Laufwerk zur Verfügung stellen, so dass man bequem darauf zugreifen kann.

Externe Festplatten sind in allen möglichen Größen, Speichervolumina und Schnittstellen erhältlich, so dass jeder das richtige Modell für sich finden kann. Sie haben jedoch den Nachteil, dass sie meist mehr bewegt werden oder auch zu selten verwendet werden und deshalb meist eher ausfallen als eine interne Festplatte. Außerdem gehen die Kabelanschlüsse oft schnell kaputt, so dass eine externe Festplatte schnell mehr Kummer verursachen kann, als sie Vorteile bringt. Dazu kommt, dass durch ihre einfache Ausführung die mögliche Speichergröße auf das Volumen einer einzigen Festplatte (derzeit bis zu 4TB) begrenzt ist.

NAS-Systeme

Wer gehobene Ansprüche an seine Datensicherung stellt, sollte die Anschaffung eines Network Attached Storage (NAS, engl. für "Speicherlösung mit Netzwerkanschluss") erwägen. Darunter versteht man im Heimbereich Geräte mit zwei bis fünf Festplatten, die in einem eigenen Gehäuse verbaut sind und als separates Gerät an den heimischen Internetrouter angeschlossen werden. Dadurch kann jeder Computer, jedes Notebook und jedes Mobilgerät im Netzwerk auf die Daten in diesem Gerät zugreifen. Die Festplatten sichern sich dabei wahlweise gegenseitig gegen Ausfälle ab, so dass auch bei einem Defekt einer einzelnen Festplatte im Gerät keine unmittelbare Gefahr für die Daten besteht. Diese Geräte sind jedoch durch die Mehrfachausführung ("Redundanz") und die zusätzliche Technik auch teurer als einzelne Festplatten. Dafür bieten sie gesteigerte Sicherheit, hohe Zugriffsgeschwindigkeiten auch für mehrere Teilnehmer und große Speichergrößen bis zu derzeit ca. 16TB. Außerdem sind die Daten immer zugreifbar, unabhängig davon, ob gerade ein bestimmter PC läuft.

 

IMG_7663
Festplatten in einem professionellen Speichersystem

 

Webspace / Cloud / ownCloud / ...

Sofern man ein paar Gigabyte Webspace sein Eigen nennt, kann man natürlich immer auch seine Daten außerhalb lagern. Entweder lädt man dafür die Daten klassisch per FTP-Client (File Transfer Protocol, engl. für "Dateiübertragungsprotokoll") hoch oder nutzt einen der zahlreichen Clouddienste wie Tresorit oder Dropbox (bitte unbedingt verschlüsseln!). Meist ist hier zwar der Speicherplatz ziemlich eingeschränkt, kann jedoch für ein paar Euros im Monat erweitert werden.

IT-affinere Menschen können auf ihrem Webspace auch ownCloud installieren. Das ist eine freie Software ("frei" sowohl wie in "freie Rede" als auch wie in "Freibier"), die wie andere kommerzielle Anbieter Clouddienste zur Verfügung stellt. So kann man in erster Linie seine eigenen Dateien hochladen, aber auch Kontakte, Kalendereinträge, Memos und Anderes in der Cloud speichern, ohne den Nachrichtendiensten den Zugriff darauf zu einfach zu machen.

Bei allen Cloudlösungen gilt, dass man einen Highspeed-Internetanschluss sein Eigen nennen sollte, damit die Dateiübertragungen einigermaßen schnell vor sich gehen.

 

Software

Für diejenigen, die Adobe Photoshop Lightroom einsetzen, gibt es immerhin eine gute Nachricht: Lightroom sichert wöchentlich den Bilderkatalog und schreibt eine komplette Kopie auf die Festplatte. Sollte der aktuelle Katalog also einen Defekt erleiden, kann man immerhin den Stand von vor einer Woche wiederherstellen. Damit ist immerhin ein Schritt in die richtige Richtung getan. Die gesicherten Kataloge kann man dann auf einem separaten Speichermedium sichern.

NAS-Systeme bringen oft eigene Softwarelösungen zum Erstellen von Sicherungen mit. Diese haben den Vorteil, dass sie bereits auf die Hardware zugeschnitten sind und oft Zusatzfunktionen mitbringen.

Auch die Hersteller der meisten aktuellen Betriebssysteme bringen von Haus aus Werkzeuge zur Datensicherung mit. Ab Windows 7 gibt es das Werkzeug "Sichern und Wiederherstellen" in der Systemsteuerung, mit dem man regelmäßige Sicherungen auf separate Medien planen kann, Mac OS X bietet Sicherungen per Time Machine und unter Linux kann man einfache Sicherungen schon mit rsync und Cron planen.

Wem diese Optionen nicht zusagen, für den gibt es im Internet zahlreiche freie und kommerzielle Backuplösungen.

Sicherungskonzepte

Egal für welche Backup-Strateegie man sich jedoch entscheidet, es müssen letztendlich immer mindestens zwei Kopien der zu sichernden Daten entstehen. Es reicht also nicht, die Daten zu sichern und dann vom Originaldatenträger zu löschen.

Full Backup

Bei einem Full Backup (engl. für "Vollsicherung") wird per se alles gesichert, was sich in einem bestimmten Speicherbereich (z. B. ein Laufwerk, eine Partition, ein Ordner, ...) befindet. Dabei wird nicht berücksichtigt, wie alt eine bestimmte Datei in diesem Speicherbereich ist oder wie oft sie schon gesichert wurde. Entsprechend groß ist auch der Speicherbedarf für solche Sicherungen. Dafür kann man aber sicher sein, dass alle Daten in Sicherheit sind.

FullBackupSchema

Incremental Backup

Incremental Backups (engl. für "inkrementelle Sicherung") können nicht für sich allein funktionieren. Um ein inkrementelles Backup durchzuführen, muss es bereits ein Full Backup geben. Von diesem Full Backup aus prüft man, welche der gesicherten Dateien sich seit der Sicherung geändert haben, und sichert nur diese Dateien (oder sogar nur Dateiteile). Die folgenden inkrementellen Backups sichern dann jeweils nur die Änderungen seit dem vorhergehenden inkrementellen Backup. Mittels geeigneter Software kann man später das Full Backup und die inkrementellen Backups wieder zusammensetzen, um Dateien oder ganze Ordner wieder herzustellen oder einfach Platz zu sparen. Dazu braucht man aber zwingend ALLE inkrementellen Backups, weil nur alle zusammen wieder einen konsistenten Zustand ergeben.

InkBackupSchema

Differential Backup

Differential Backups (engl. für "differenzielle Sicherung") funktionieren so ähnlich wie inkrementelle Backups. Man sichert zuerst ein Full Backup und macht nach einiger Zeit ein differenzielles Backup. Dieses Backup enthält wieder nur die Änderungen seit dem Full Backup. Alle folgenden differenziellen Backups bilden jedoch nicht die Änderungen seit dem vorhergehenden differenziellen Backup ab, sondern alle Änderungen seit dem letzten Full Backup. Dadurch vergrößert sich zwar der Speicherbedarf, weil mit jedem differenziellen Backup alle Änderungen seit dem letzten Full Backup gespeichert werden müssen, dafür sind aber für eine Wiederherstellung nur das Full Backup und genau ein differenzielles Backup nötig.

DiffBackupSchema

Wie hält man die Datenmenge klein?

Je nach verfolgter Backup-Strategie kann das Datenvolumen schnell bedrohlich anwachsen und das Sicherungslaufwerk füllen. Außerdem dauert die Sicherung natürlich auch länger, je mehr Daten gesichert werden müssen. Daher sollte man sich ggf. darüber Gedanken machen, wie man die zu sichernde Datenmenge möglichst klein hält.

So könnte man beispielsweise nur bestimmte Dateitypen in die Sicherung einschließen. Dafür bieten sich die digitalen Negative an. Außerdem ist es unter Umständen ratsam, nur die Dateien zu sichern, die man auch bearbeitet hat, und alle aussortierten Dateien nicht mit zu sichern. Das DNG-Format, das ich bereits in Kleine Formatlehre und  in RAW – oder “Warum sich der zusätzliche Aufwand digitaler Negative lohnt” beschrieben hatte, bringt von sich aus bereits ZIP-Kompression mit, so dass die Dateigrößen sich im Rahmen halten, und auch PNG- oder TIFF-Dateien kann man mit verlustfreier Kompression abspeichern. Einen zusätzlichen Vorteil bieten die in DNG eingebauten Prüfsummen, mit denen man jederzeit prüfen kann, ob die Datei vielleicht beschädigt wurde.Einige Backup-Programme bieten zusätzlich auch an, das komplette Backup zu komprimieren. Kompression spart zwar einerseits einigen Speicherplatz, macht aber die Daten immer auch anfälliger für Beschädigungen, weil dann ganze Blöcke von Bytes von der Beschädigung betroffen sind.

Was ist KEIN Backup?

Es gibt einige Technologien, die landläufig oft als Backup-Möglichkeiten aufgeführt werden, aber eigentlich kein Backup darstellen. Auch wenn sie durchaus die Sicherheit erhöhen können und daher ihre Berechtigung haben, können sie ein echtes Backup NICHT ersetzen.

Die bekannteste dieser Technologien ist sicherlich RAID (Redundant Array of Independent Disks, engl. für "Redundante Anordnung unabhängiger Festplatten"). Dabei werden mehrere Festplatten zu einem Verbund zusammengeschlossen und die Daten zusammen mit künstlicher Redundanz über alle beteiligten Festplatten verteilt. Damit können zwar wirkungsvoll Hardwareausfälle abgefangen werden, weil aus den verbleibenden Festplatten die Daten rekonstruiert werden können; Schäden am Dateisystem oder die versehentliche Löschung einer Datei kann aber auch RAID nicht verhindern.

Ähnlich verhält es sich mit synchronisierten Ordnern: die Dateien in diesen Ordnern liegen zwar mehrfach vor, Beschädigungen oder Löschungen werden aber gnadenlos über alle Kopien repliziert.

Digitale Negative sichern für Paranoide

Die oben beschriebenen Methoden mögen für die üblichen Sicherheitsbedürfnisse von Privatpersonen oder auch Kleinunternehmern ausreichen. Anwender mit einem höheren Sicherheitsbedürfnis können aber noch weiter gehenden Aufwand treiben, um die Sicherheit der eigenen Daten zu erhöhen.

Zuerst einmal reichen zwei Kopien nicht aus, um im Fehlerfall automatisiert festzustellen, welche Datei beschädigt und welche intakt ist. Dazu benötigt man immer mindestens drei Kopien, so dass es immer eine Mehrheit an korrekten Dateien gibt. Wenn man will, kann man sich dafür zwei NAS-Systeme anschaffen, von denen man z. B. eines im Ladengeschäft neben den Router und eines zu Hause aufstellt und, eine schnelle Internetverbindung vorausgesetzt, die Daten "off-site", also geographisch von den Produktivdaten getrennt, aufbewahrt.

Auch die Auswahl der Dateiformate hat Einfluss auf die Datensicherheit. DNGs, die digitalen Negative nach Adobe-Spezifikation, besitzen interne Speicherfelder ("Attribute") für Prüfsummen, mit denen man die Unversehrtheit der Rohdaten überprüfen kann. Diese Attribute heißen "RawImageDigest" und "OriginalRawFileDigest" und enthalten MD5-Prüfsummen zu den DNG-Rohbilddaten bzw. den Rohbilddaten aus der proprietären RAW-Datei (Näheres in der Spezifikation auf Seite 62ff.). Sollte entweder die Prüfsumme oder aber der Datenteil (oder auch beide) beschädigt werden, dann passt die gespeicherte Prüfsumme nicht mehr zur frisch Berechneten und man sieht sofort, dass etwas nicht stimmt. Dann sollte die Datei aus einer Sicherung wiederhergestellt werden. Software wie Lightroom würde die Prüfsummen beim Öffnen der Dateien überprüfen, aber mit dem Perl-Modul Image::ExifTool kann man, Programmierkenntnisse vorausgesetzt, direkt auf die Prüfsummen zugreifen und sich so automatisierte und maßgeschneiderte Lösungen selbst bauen.

Die internen DNG-Prüfsummen decken ausschließlich den Rohdatenteil der Datei ab. Was aber, wenn man die Integrität der ganzen Datei überprüfen oder Dateien ablegen will, die keine Prüfsummen unterstützen? In diesem Fall hat man zwei Möglichkeiten. Bevorzugt sollte man ein Dateisystem einsetzen, das regelmäßig Prüfsummen mitführt und überprüft, wenn die Systemlast es zulässt. Hier empfiehlt sich ZFS, das unter anderem vom BSD-basierten Betriebssystem FreeNAS unterstützt wird. Steht einem diese Option nicht zur Verfügung kann man sich, auch hier Programmierkenntnisse vorausgesetzt, mit ein wenig Mühe auch selbst behelfen. Dazu schreibt man ein Perl-Script, das über alle zu sichernden Dateien ordnerweise die Prüfsummen berechnet und diese zeilenweise nach dem Muster "Dateiname.ext md5summe" in eine separate Datei schreibt. Diese Prüfsummendatei wird zusammen mit den eigentlichen Nutzdaten gesichert. Will man die Dateiintegrität prüfen, liest man einfach die Prüfsummendatei zeilenweise wieder aus und überprüft für jede Datei die Prüfsummen.

Die errechneten Prüfsummen sollten in jedem Fall regelmäßig geprüft werden, um Ausfälle frühzeitig zu erkennen. Prüft man zu selten, bemerkt man womöglich den drohenden Datenverlust nicht, bis es zu spät ist. Prüft man jedoch zu häufig, belastet man die Speichermedien unnötig und treibt die Systemlast in die Höhe. Hier muss jeder für sich eine geeignete Balance finden. Langzeitarchivierungsprojekte gehen derzeit von Prüfintervallen zwischen einem und sechs Monaten aus.

 

IMG_7668
LTO-Magnetbänder und Bandroboter in einer professionellen Tape Library

 

Komplettkonzept

Zum Abschluss möchte ich ein kleines Backupkonzept vorstellen, wie ich es in meiner eigenen Umgebung demnächst umsetzen möchte. Ich arbeite hier mit einem Desktop-PC und einem Netbook in einem 100MBit-Ethernet-Netzwerk. Der Desktop-PC hält derzeit alle Fotos gemeinsam auf der gleichen Partition in einem Ordner mit Unterordnern, die über ihren Dateinamen nach dem Datum sortiert sind. Die darunter liegende Festplatte ist 3TB groß und momentan noch relativ neu, so dass sich die Angst vor Datenverlusten momentan fahrlässigerweise noch in Grenzen hält. Ich habe außerdem noch eine zweite Festplatte mit einer Partition, die alle meine Fotos fassen könnte. Über das Netzwerk könnte ich die Daten außerdem auch auf einem NAS-Gerät speichern, das ich aber noch nicht besitze.

Der erste Schritt wäre also, die geplante Backup-Partition frei zu räumen und über das Windows-Sicherungswerkzeug ein monatliches Vollbackup (im Sinne von "immer nach 30 Tagen") meines Fotoverzeichnisses auf diese Partition einzurichten. Bei meinem Datenaufkommen sollte ein häufigeres Vollbackup nicht nötig sein.

Im zweiten Schritt würde ich, um Speicherplatz zu sparen, ein inkrementelles Backup einrichten, das beispielsweise alle 3 Tage läuft.

BackupKonzept

Außerdem wäre im dritten Schritt natürlich noch der Lightroom-Katalog zu sichern, der auf einer dritten Partition liegt und von Lightroom selbst schon regelmäßig gesichert wird. Da dieser Katalog relativ klein ist, würde ich hier ein wöchentliches Vollbackup der aktuellen Katalogdatei und der von Lightroom gesicherten Vorgängerversion einrichten.

Wenn man ein NAS oder einen zweiten PC mit ausreichend Speicher zur Verfügung hat, kann man jetzt noch für mehr Sicherheit das Backup auf das NAS kopieren.

Der letzte Schritt ist, sein Backup auch zu testen. Unter IT-Fachleuten kursiert der Spruch: "Ein Backup nützt dir gar nichts, wenn der Restore nicht klappt.". Das heißt, dass man natürlich sichergehen sollte, dass die Datenwiederherstellung so funktioniert, wie man sie ursprünglich geplant hat. Dazu kann man einfach einen kleinen Teil der Daten aus dem Backup in einen temporären Ordner wiederherstellen und überprüfen, ob alles gut gegangen ist.

Fazit

Sicher gibt es einiges, das man beim Thema Datensicherung falsch machen kann. Der größte Fehler wäre jedoch, gar nicht erst anzufangen.