Meine Backup-Strategie auf dem PC

Nach meinem Festplattencrash haben sich einige User einen Artikel über meine Backup Strategie gewünscht. Da ich das Thema sehr wichtig empfinde, möchte ich hier mal meine Überlegungen dazu mal erläutern:

Vorüberlegungen:

Ich war, was Backups anbelangt meistens ziemlich faul, und dachte mir: „wird schon gut gehen“. Allerdings mit zunehmender Technisierung meines Haushalts stieg auch immer mehr die digitale Datenflut an. Vor allem die Digitalfotografie führte dazu, dass einige Gigabytes an Fotos auf meiner Festplatte „herumlungerten“. Unregelmäßig habe ich diese dann mehr oder weniger wahllos mal immer wieder auf DVD gebrannt. Ein Hardwarefehler vor einigen Jahren führte allerdings zu einem Totalausfall einer Festplatte, was dann dazu führte, dass Digitalfotos einiger Monate im Nirwana verschwunden sind und ich schmerzhaft lernen musste, dass Bits und Bytes doch ziemlich flüchtig sind und ich mir eine Strategie zur vernünftigen Sicherung überlegen musste:

Grundregeln:

  1. Man ist selten diszipliniert, was nicht automatisch läuft wird irgendwann vergessen oder gar gar nicht getan
  2. Man kann gar nicht genug Backups haben
  3. ganz wichtige Daten müssen zudem an einen anderen Ort gelagert werden

Dazu habe ich meine Daten in 3 Kategorien geteilt:

1. Unersetzbar:

Dies sind alle Daten, die bei Verlust nicht irgendwie ersetzbar sind, z.B. Fotos, Emails etc.

2. Ärgerlich wenn weg, aber ersetzbar

Das sind alle Daten, deren Wiederbeschaffung Arbeit macht, also z.B. Mp3-Dateien, da man dann wieder die CDs konvertieren muss, oder Programme, die man installieren muss usw.

3. Ersetzbare Daten

Das sind alle eher unwichtigen Daten, z.B. gespeicherte Webseiten, Programmdownloads etc. also alles, was mit wenigen Mausklicks wieder da ist, oder keinen Verlust darstellt wenn es weg ist (man hat ja auch viele Datenleichen rumliegen, die man dann doch nie wieder nutzt 😉

Mein Konzept:

Ich habe in meinem Rechner 3 Festplatten verbaut. Zweil mal 1 Terabyte und einmal 2 Terabyte. Die ersten beiden sind Festplatten, die für den Dauerbetrieb ausgelegt sind. Mein Arbeitsrechner fungiert als Server für das Heimnetzwerk und wird faktisch nie ausgeschaltet. Dementsprechend müssen die Festplatten für den Dauerbetrieb ausgelegt sein.Ich habe mich dabei für die Hitachi Deskstar Platten entschieden, da diese für 24/7 -Belastung ausgelegt sind.

Als Software setze ich Acronis True Image 2011 ein, bisher hat diese Software allen meinen Ansprüchen genüge getan und bisher Ihren Dienst klaglos verrichtet. Mit Acronis habe ich die dritte Festplatte als „Secure Zone“ eingerichtet und benutze sie nur als Backupplatte. Die Secure Zone ist ganz nützlich, da somit die Platte unter Windows nicht sichtbar ist und ich nicht aus Versehen irgendwelche anderen Daten drauf spiele.

Im Backup-Programm habe ich nun jede Nacht, wenn ich nicht am Rechner sitze einen Backup-Job eingerichtet. Der sichert beim ersten mal alle Daten komplett und danach nur noch die geänderten Daten. Sollte die Festplatte langsam voll werden, wird automatisch das Backup konsolidiert, das heißt es werden alle Folgebackups (also die Änderungen) in das Gesamtbackup aufgenommen. Diese dritte Festplatte ist eine Western Digital Caviar Green, die auf STromsparen getrimmt ist und es auf Geschwindigkeit nicht ankommt. Tagsüber befindet sich die Platte im Energiesparmodus und ist faktisch deaktiviert, Nur für den Backup-Job wird sie geweckt.

So lässt sich der Zustand des Rechners binnen einer halben Stunde wieder herstellen, sollte irgend etwas passieren. Mit Acronis TrueImage kann man auch aus dem Backup ganz leicht einzelne Dateien wieder herstellen.

Meine Fotos sichere ich auf eine externe Platte. Mit einem Sharkoon Quickport Duo kann ich ganz leicht jede beliebige Sata-Platte als USB-Platte betreiben. Zudem ist man auch flexibel, wenn mal jemand eine Festplatte mit Daten mitbringt oder man große Datenmengen von A nach B transportieren will.

Unersetzliche Daten synchronisiere ich mit einem entfernt stehenden Rechner via Dropbox in einem verschlüsselten Truecrypt-Container. Zudem werden einige Daten, wie z.B. Fotos automatisch auf mehrere Rechner hier im Haushalt verteilt, sobald diese im Netzwerk sind.

Ich weiß, es gibt sicherere und umfangreichere Lösungen, aber für mich stellt mein Konzept das Optimum an Aufwand und Sicherheit dar.

Vorteile meines Konzepts:

  • weitestgehend automatisiert
  • geringer Aufwand/Kosten

Nachteile:

  • Bei schweren Katastrophen (Blitzschlag o.ä., wenn die Backupplatte mit zerstört wird) Datenverlust bzw. viel Arbeit
  • kein Schutz bei Virenbefall (ich setze einen Virenscanner ein, aber ein unbekanntes Virus käme auch mit in das Backup)
  • Der Rechner muss permanent laufen

Demnächst werde ich sicherlich auf eine bessere Variante Umsteigen. Dann werde ich mein Backup zeitgesteuert auf einem separaten NAS sichern, in dem mehrere Festplatten in gesicherter Umgebung und einem Raidverbund Ihren Dienst tun. Das dürfte die deutlich sicherere Lösung sein. Zudem kann man dieses NAS auch an einem entfernten Ort ein zweites mal installieren und dort eine Fernduplizierung durchführen, so dass man auch vor größeren „Katastrophen“ geschützt ist. Aber die Technik dafür ist im Heimbereich noch nicht soweit, bzw. mir persönlich noch viel zu teuer.

Über Brain McFly

Rooter aus Leidenschaft, Nerd, Erklärbär ;o)

15 Kommentare zu “Meine Backup-Strategie auf dem PC”

  1. Chris sagt:

    Bei mir sorgt ein Raidcontroller (Perc) für eine Hochverfügbarkeit und auch die gewissen Datensicherheit.
    Ein Backup von den Daten kann ich leider nicht anlegen, da ich nicht weiß wo man 4TB speichern soll…

    Zumindest ist den Datenverlust bei 5 Festplatten unwahrscheinlicher als mit einer 🙂

    Mit Arconis habe ich auch schon gute Erfahrungen gemacht. Würde ich jederzeit weiterempfehlen.

  2. rainer_zufall sagt:

    deine backupstrategie klingt durchaus gut, jedoch für meine begriffe etwas zu aufwendig. alleine die kategorisierung der daten. dein vorhaben via NAS empfinde ich als absolut richtig! ich weiß zwar nicht wo deine schmerzgrenze für eine backupstrategie liegt aber ich kann wirklich die qnap 219p+ und 419p+ empfehlen. bieten dir auch deine gewünschte fernreplizierung.
    ich habe mich zwar gerade erst gegen qnap und für einen neuen selbst zusammengebastelten homeserver entschieden aber das hat auch hintergründe (vmware, rdp, mediaportal). die qnaps sind aber für das was sie bieten einfach top. auch wenn man den strombedarf sieht 😉

  3. Ritzinger sagt:

    Ohne klugscheissen zu wollen, aber Raid ist kein Backup sondern erhöht lediglich die Ausfallsicherheit. Egal ob Raid 5 oder nur mirror – Wenn du Daten überschreibst, änderst oder löschst, wird das auch gespiegelt und deine Daten sind weg. Überspannung oder Wasser kann dir im ungünstigsten Fall die Hardware zerstören – FIN. Wenns natürlich um Datenbestände im TB-Bereich geht wirds für den Privatanwender schwierig ein günstiges Konzept umzusetzen, so dass er u.U. notgedrungen eine Priorisierung in kauf nehmen muss. Nach meiner Erkenntnis ist Backup nach wie vor eines der am meisst vernachlässigten Themen, nicht nur im Privaten, sondern auch bei den Selbständigen. I.d.R. erkennt man die Tragweite erst, wenns zu spät ist.
    Meine wichtigen Daten (keine Unterhaltung, also nur ein paar hundert MB) liegen lokal und werden auf ein NAS gesynct auf dem zusätzlich Medien wie MP3, Video, Foto, iso-Files etc zentral allen Rechnern im Netz zur Verfügung gestellt werden. In regelmäßigen Abständen ziehe ich davon eine 1:1 Kopie auf eine externe HDD, die für nix anderes Benutzt wird und fast ordentlich (hab mir ernsthaft überlegt eine Feuerfeste Kassette zu kaufen) verstaut im Schrank liegt.
    Klar ist das ganze eine individuelle Angelegenheit und jeder muss das für sich selbst entscheiden, aber mit einem vergleichbar geringem (finanziellen) Aufwand kann man heut schon ohne Probleme ein mehrstufiges Backup realisieren…

    1. rainer_zufall sagt:

      da hast du völlig recht. mein vorschlag galt nicht einer backupstrategie sondern sollte eher die wahl der hardware dafür erleichtern. die qnaps bieten einem eben auch sehr gute backup möglichkeiten neben der ausfallsicherheit raid. allerdings muss man das auch von anwendungsfall zu anwendungsfall unterscheiden. wir reden hier immerhin auch von soho-anwendern wo man ein k-fall nicht immer mit einplanen kann 😉

  4. quacklength sagt:

    Gudn Brain,
    ich handhabe das ähnlich wie du, nur dass ich schon den Schritt zum „NAS“ gemacht habe und speziell dazu wollte ich hier mal den Link zu einem wirklich guten Tutorial abladen: http://www.planet3dnow.de/vbulletin/showthread.php?t=370637#content_start

    Warum nur ein NAS, wenn man für weniger Geld schon einen Homeserver bekommt? Ich hab das ganze nur mit Ubuntu, ext4, und nem 10GB RAID1 über alle verbauten HDDs als OS Partition aufgezogen.

    viel Spass beim basteln!

    1. Brain McFly sagt:

      ziemlich coole bastelanleitung, meine ersten serverversuche unter linux sind mangels gewünschter funktionalitäten gerade im Raid-Bereich im Sande verlaufen….

  5. Kriz Miller sagt:

    ich benutze auch Acronis, mache dort aber nur alle 1-2 Monate mal ein Backup, da ich sehr viel Musik mache und extrem viele Samples habe, Speicher ich diese ohne Backup einfach doppelt, ist zwar blöd. Aber etwas sicheres gibt es einfach nicht.

    Frag mich nur Brain wenn du nur Daten und Fotos Speicherst also ein Backup von machen willst, warum Spiegelst Du die Platten dann !?
    Also ist doch eigentlich Platzverschwendung, denn nen gutes Backup über Acronis True Image 11 ist nur einen bruchteil so groß wie das Orginal.
    Und wenn du es zurückspielst, hast du dann trotzdem alle daten wieder da. Zudem gibt es eine funktion um ein vorhandenes Backup zu aktualisieren, somit werden sämtliche Ändernungen in das Vorhandene Backup eingespielt. Dafür würde es auch reichen wenn man das ganze Wöchentlich macht, das kannst du sogar Automatisch erstellen lassen. Dadurch sparst du enorm Arbeit, Strom lol und vor allem mindert das nicht die Laufleistung Deiner Platten, da du deinen Rechner auch mal in den ruhe Modus versetzen kannst, oder liege ich da falsch ???

    1. Brain McFly sagt:

      ein und ausschalten ist für festplatten stress, dauerlaufen ist kein problem 😉

      ich habe mich vielleicht nicht genau ausgedrückt, ich habe 2×1 Terabyte als Nutzfestplatten, kein Raid oder so, Der Backupjob läuft über nacht und sichert alle Änderungen. Ich habe Quasi ein komplettes Backup meiner zwei 1TB Platten auf der 2TB-Platte. Das Backup sichert nur Änderungen. Nur wenn die 2TB Platte langsam voll wird, wird das Backup konsolidiert, so dass es wieder nur noch ein Image in kleinstmöglicher Größe gibt. Ist für mich das Optimum, da voll automatisiert, ich bin was manuelle Backups betrifft, nicht sehr diszipliniert 😉
      Wie gesagt, keine perfekte Methode, aber eine, die für mich gut funktioniert.
      Fotos werden nur nochmal extra auf einen zweiten Rechner gesichert, sobald dieser eingeschaltet wird, einfach aus redundanzgründen, die Fotos sind auch im gesamtbackup schon mit dabei, aber da greifen bei mir meine „Grundregeln“ 😉

  6. roloff sagt:

    Hier kommt der WHS „Acer Aspire easyStore H340 8TB“ seit einiger Zeit zum Einsatz. Da alle Clients unter WIN xy laufen, werden diese täglich automatisch gesichert. Restores bisher 2 x nötig gewesen und erfolgreich.

    Nebenbei ackert der Würfel als Medienserver für Filme, Fotos und Musik. Mit einem U*enet-Server spricht er auch zeitweise. Und wenn ich wollte, wäre er auch von außen erreichbar -> brauch ich aber nicht.

    1. rainer_zufall sagt:

      auf basis von WHS 2011 will ich nächste woche mein neuen server auch installieren. bin mal sehr gespannt auf die WHS funktionen. wie läuft dort die integration von windows clients in den whs ab? und der restore?

      1. roloff sagt:

        Den WHS 2011 habe ich mir noch nicht angesehen. Unter WHS v1 installierst Du auf jedem Windows Client die „Windows Home Server-Konsole“. CD ist beiliegend und kann in aktueller Version von MS geladen werden. Dort stellt Du die Sicherungsregeln ein und gut ist. Sollte ein Restore nötig sein bootest Du von einer Restore CD, wählst die Sicherung aus und das wars…

        Habe so einen Laptop mit Plattenschaden und einen Desktop binnen kurzer Zeit wiederherstellen können.

        Gruß, roloff

  7. Phoenyx sagt:

    Kurz zu meiner Backupstrategie:

    1. RaidVerbund im Rechner Raid 5 3 Platten a 1 GB
    2. 2NAS am Router jeweils mit 1Gbit angeschlossen NAS1 Tägliche Sicherung des Raids (vom Arbeitsrechner und Multimedia Station) NAS2 Wöchentliche Sicherung aller Rechner (insgesamt habe ich 4 im Haus)
    3. 1 NAS Direkte Duplicate aller wichtigen Daten (Bilder, TXT, DOC etccccc.) Sync mit Server im Hochleistungsrechenzentrum Truecrypt verschlüsselt

    Die einzige Fehlerquelle ist bei dieser Art sind vergessene Passwörter 😉

    G Phoenyx

    1. Brain McFly sagt:

      Das klingt schon fast nach einer Profi-Lösung 😉

      1. Phoenyx sagt:

        Professionell nein aber ich bin Techjunkie das geb ich offen zu und da muss sowas sein. 😉

        nächster Schritt wird der Umbau von Lan auf LWL sein nur sind die Wandler sehr teuer und deswegen kauf ich mir die erstmal zusammen.

        Wenn ich alle Platten einzeln rechne sind es 15.5 TB die hier rumstehen und der Server hat auch nochmal 500GB.

        Und das Automatisieren war das einfachste an der ganzen Geschichte

    2. splitti sagt:

      Das ist in etwa wie bei mir. Ich habe eine QNAP 209 mit RAID 1 und zwei 1TB Platten. Dort landen alle Daten aus meinem LAN. Video bearbeite ich natürlich lokal und sicher sie dann dahin.
      Ich habe dann ein Script, welches die wichtigen Daten auf ein WebDav-Laufwerk synct. Passwörter habe ich in meiner Passwort-Datenbank keePass. Diese synche ich mit meinem Android-Phone, WebDav und NAS. Ich hoffe nicht, dass ich noch mal einen Brand erleben muss, aber ich bin vorbereitet 😉

Comments are closed.