Backup-Strategien

Systematische Backup-Strategien für Self-Hosting. 3-2-1-Regel, Speichermedien-Auswahl, Automatisierung und Verifikation - unabhängig von der Distribution.

Backup-Strategien für digitale Souveränität

Festplatten-Defekte vernichten Datenbanken in Sekunden. Ransomware verschlüsselt komplette Server inklusive lokaler Sicherungen. Feuer oder Wasserschäden zerstören Hardware und alle angeschlossenen Speichermedien gleichzeitig. Digitale Souveränität ohne funktionierende Backup-Strategie endet beim ersten Hardware-Ausfall.

Manuelle Sicherungen scheitern an menschlicher Unzuverlässigkeit - vergessene Backups vor kritischen Updates, übersprungene wöchentliche Routinen bei Urlaub. Automatisierte Backup-Systeme mit systematischer Verifikation eliminieren diese Fehlerquellen. Die 3-2-1-Regel definiert minimale Anforderungen: Drei Kopien auf zwei Medien-Typen, eine Kopie geografisch getrennt.

Diese Artikelserie erklärt distributions-übergreifende Backup-Prinzipien ohne Tool-spezifische Details. Speichermedien-Charakteristika gelten für Debian genauso wie für OpenBSD - nur die Automatisierungs-Werkzeuge unterscheiden sich. Verschlüsselungs-Konzepte bleiben identisch, ob gpg oder age zum Einsatz kommt. Verifikations-Mechanismen funktionieren mit Bordmitteln auf allen Unix-artigen Systemen.

Was macht robuste Backup-Systeme aus?

Drei Sicherungskopien bedeuten Primärdaten plus zwei unabhängige Backups. Eine Produktions-Datenbank auf Server-SSD bildet die erste Kopie. Lokale Sicherung auf derselben Maschine schützt vor Software-Korruption. NAS-Backup überlebt SSD-Ausfall. Externe Sicherung auf entferntem Server oder Cloud-Speicher überdauert Standort-Zerstörung durch Feuer oder Diebstahl.

Zwei verschiedene Medien-Typen verhindern zusammenhängende Ausfälle. SSDs erschöpfen sich nach Schreibzyklen - vorhersagbarer Ausfall nach 3-5 Jahren intensiver Nutzung. HDDs erleiden mechanische Defekte durch Kopf-Crashes - unvorhersagbarer Ausfall unabhängig von Nutzung. Ein SSD-Ausfall korreliert nicht mit HDD-Gesundheit. NAS-Systeme mit RAID eliminieren einzelne Festplatten-Ausfälle, schützen aber nicht vor Ransomware-Verschlüsselung.

Geografische Trennung garantiert Daten-Überleben auch bei komplettem Standort-Verlust. Mindest-Distanz für effektive externe Sicherungen: Unterschiedliche Gebäude, idealerweise verschiedene Städte. Home-Server-Backups auf Büro-Server erfüllen diese Anforderung. VPS-Anbieter in anderen Rechenzentren oder Cloud-Speicher in anderen Regionen bieten maximale physische Trennung.

Der systematische Aufbau

Aufbewahrungsrichtlinien balancieren Speicherplatz-Verbrauch gegen Wiederherstellungs-Flexibilität. Tägliche Sicherungen für 7 Tage ermöglichen Wiederherstellung kürzlich entdeckter Probleme. Wöchentliche Backups für 4 Wochen fangen monatliche Datenbank-Korruptionen ab. Monatliche Sicherungen für 12 Monate erlauben Jahres-Vergleiche und Compliance-Anforderungen. Eine 100-GB-Datenbank benötigt 2,3 TB Gesamtspeicher für komplette Jahres-Historie mit diesem Schema.

Verschlüsselte Backups bleiben unlesbar ohne Entschlüsselungsschlüssel - auch bei komplettem Speicherzugriff durch Server-Betreiber oder Angreifer. Kompression reduziert Text-basierte Backups um 80-95%. Eine 10-GB-PostgreSQL-Datenbank wird zu 500-2000 MB .gz-Datei. Diese Speicher-Einsparungen multiplizieren Backup-Kapazität ohne Hardware-Investment.

Zeitbasierte Automatisierung führt Backup-Scripts zu definierten Zeitpunkten aus ohne menschliches Erinnern. Sequenzielle Backup-Ausführung vermeidet Ressourcen-Konflikte: Lokales Backup 03:00 Uhr, NAS-Transfer 04:00 Uhr, externes Upload 05:00 Uhr. Jeder Job erhält dediziertes Zeitfenster ohne Überschneidung. Fehler in frühen Backup-Stufen propagieren nicht zu späteren Stufen.

Prüfsummen-basierte Verifikation erkennt Korruption durch Netzwerk-Transfer oder Hardware-Fehler. sha256sum berechnet 256-Bit-Hashwerte - identische Prüfsummen garantieren bit-identische Dateien. Test-Wiederherstellungen validieren komplette Recovery-Workflows vom Backup-Abruf bis zur funktionierenden Datenbank. Minimum-Test-Frequenz: Quartalsweise vollständige Katastrophen-Wiederherstellungs-Simulation.

Für wen ist diese Serie?

Die Artikel richten sich an technisch interessierte Anwender mit Linux-Erfahrung, die systematische Backup-Strategien verstehen möchten:

Docker-Anwender, die persistente Daten sichern wollen. Warum verschwinden Container-Volumes nach Updates? Wie sichert man Datenbank-Container systematisch? Welche Backup-Strategien funktionieren mit Docker-Setups ohne Vendor-Lock-in?

Systemadministratoren, die zuverlässige Backup-Infrastrukturen aufbauen möchten. Welche Speichermedien-Kombinationen bieten optimale Balance zwischen Kosten und Zuverlässigkeit? Wie automatisiert man Rotations-Mechanismen? Was unterscheidet Vollsicherungen von inkrementellen Backups?

Unternehmer, die Business-Continuity sicherstellen wollen. Wie definiert man realistische Recovery-Time-Objectives? Welche rechtlichen Aufbewahrungsfristen gelten? Wie testet man Katastrophen-Szenarien ohne Produktions-Beeinträchtigung?

Sicherheitsbewusste Anwender, die Backup-Verschlüsselung verstehen möchten. Symmetrische Passphrasen vs Public-Key-Kryptographie - welcher Ansatz für welches Szenario? Wie verwaltet man Entschlüsselungsschlüssel sicher über Jahre?

Die 2 Artikel im Überblick

3-2-1-Regel und Speichermedien: Backup-Grundlagen

3-2-1-Regel und Speichermedien: Backup-Grundlagen

3-2-1-Backup-Regel konkret umgesetzt. Speichermedien-Charakteristika, Aufbewahrungsrichtlinien und Verschlüsselungskonzepte für Self-Hosting-Infrastrukturen.
Automatisierung und Verifikation: Zuverlässige Backup-Workflows

Automatisierung und Verifikation: Zuverlässige Backup-Workflows

Zeitbasierte Ausführung, Rotations-Mechanismen, Prüfsummen-Verifikation und Fehlerbehandlung für Self-Hosting-Infrastrukturen mit Bordmitteln.

Technischer Fokus und Abgrenzung

Die Serie konzentriert sich auf distributions-übergreifende Backup-Konzepte und universelle Prinzipien. Diese Grundlagen gelten für Debian, OpenBSD, Arch Linux und andere Unix-artige Systeme gleichermaßen.

Behandelte Kernthemen:

  • 3-2-1-Backup-Regel und praktische Umsetzung
  • Speichermedien-Charakteristika (SSD, HDD, NAS, Cloud)
  • Aufbewahrungsrichtlinien und Generations-Management
  • Verschlüsselungs-Konzepte und Schlüsselverwaltung
  • Automatisierungs-Prinzipien und Zeitsteuerung
  • Verifikations-Mechanismen und Test-Wiederherstellungen

Verwandte Grundlagen-Serien:

Diese Backup-Grundlagen bilden das Fundament für spezialisierte Themen:

  • Datenbank-Backups: PostgreSQL-spezifische Strategien, MariaDB-Backup-Formate, SQLite-Sicherungen
  • Container-Backups: Docker-Volume-Management, Image-Backups, State-Persistierung (geplant)
  • Monitoring-Strategien: Backup-Überwachung, Alerting bei Fehlern, Metriken-Erfassung (geplant)

Distributions-spezifische Implementierungen:

  • Debian: Cron-Integration, systemd-Timer, APT-Snapshot-Management (geplant)
  • OpenBSD: rcctl-gesteuerte Backups, rdist-Mechanismen, pf-geschützte Backup-Transfers (geplant)
  • Arch: systemd-Timer-Konfiguration, Pacman-Hooks, btrfs-Snapshot-Integration (geplant)

Typische Backup-Szenarien

Systematische Backup-Strategien ermöglichen gestufte Wiederherstellung je nach Szenario:

Entwicklungs-Setup (Single-Server):

  • Lokal: Tägliche Datenbank-Dumps auf Server-SSD (schnelle Wiederherstellung)
  • NAS: Wöchentliche Vollsicherungen auf externe HDD (Hardware-Ausfall-Schutz)
  • Extern: Monatliche verschlüsselte Backups auf VPS (Standort-Katastrophen)

Produktions-Umgebung (Multi-Server):

  • Lokal: Stündliche inkrementelle Backups auf separater SSD pro Server
  • NAS: Täglich konsolidierte Backups auf RAID6-System (mehrfache Redundanz)
  • Extern: Täglich verschlüsselte Transfers zu geografisch getrenntem Rechenzentrum
  • Cloud: Wöchentliche Archive auf S3-kompatibler Speicher (langfristige Aufbewahrung)

Compliance-Anforderungen:

  • Jahres-Archive für rechtliche Aufbewahrungsfristen (7-10 Jahre je nach Branche)
  • Unveränderliche Backups (WORM-Prinzip) für Manipulations-Nachweis
  • Verschlüsselte Archive mit Schlüssel-Escrow für Nachvollziehbarkeit
  • Dokumentierte Wiederherstellungs-Tests für Audit-Compliance

Aufbau-Kontinuität und Referenz-Funktion

Die beiden Artikel bauen systematisch aufeinander auf:

Artikel 1 erklärt WAS und WARUM (3-2-1-Regel, Speichermedien, Konzepte), Artikel 2 erklärt WIE (Automatisierung, Verifikation, Fehlerbehandlung). Jeder Artikel funktioniert aber auch als eigenständige Referenz.

Spätere datenbank-spezifische Backup-Anleitungen verweisen gezielt auf diese Grundlagen:

“Die 3-2-1-Regel aus den Backup-Grundlagen definiert minimale Anforderungen für PostgreSQL-Sicherungen.”

“Zeitbasierte Ausführungs-Konzepte aus Artikel 2 - Scheduler-Prinzipien, Koordination, Nachhol-Mechanismen - gelten für automatisierte pg_dump-Workflows.”

“Verifikations-Prinzipien aus den Backup-Grundlagen - Prüfsummen und Test-Wiederherstellungen - validieren Datenbank-Dump-Integrität.”

Diese Struktur vermeidet Redundanz zwischen Grundlagen und datenbank-spezifischen Anleitungen. Die Backup-Konzepte bilden eine solide Basis für eigene Backup-Architekturen unabhängig von konkreten Tools oder Datenbank-Systemen.

Wiederherstellungs-Priorität: Ein systematisch getestetes Backup-System bedeutet digitale Souveränität auch nach katastrophalen Ausfällen. Datenverlust durch fehlende Backups ist permanenter Souveränitätsverlust.