Backup-Strategien
Backup-Strategien für digitale Souveränität
Festplatten-Defekte vernichten Datenbanken in Sekunden. Ransomware verschlüsselt komplette Server inklusive lokaler Sicherungen. Feuer oder Wasserschäden zerstören Hardware und alle angeschlossenen Speichermedien gleichzeitig. Digitale Souveränität ohne funktionierende Backup-Strategie endet beim ersten Hardware-Ausfall.
Manuelle Sicherungen scheitern an menschlicher Unzuverlässigkeit - vergessene Backups vor kritischen Updates, übersprungene wöchentliche Routinen bei Urlaub. Automatisierte Backup-Systeme mit systematischer Verifikation eliminieren diese Fehlerquellen. Die 3-2-1-Regel definiert minimale Anforderungen: Drei Kopien auf zwei Medien-Typen, eine Kopie geografisch getrennt.
Diese Artikelserie erklärt distributions-übergreifende Backup-Prinzipien ohne Tool-spezifische Details. Speichermedien-Charakteristika gelten für Debian genauso wie für OpenBSD - nur die Automatisierungs-Werkzeuge unterscheiden sich. Verschlüsselungs-Konzepte bleiben identisch, ob gpg oder age zum Einsatz kommt. Verifikations-Mechanismen funktionieren mit Bordmitteln auf allen Unix-artigen Systemen.
Was macht robuste Backup-Systeme aus?
Drei Sicherungskopien bedeuten Primärdaten plus zwei unabhängige Backups. Eine Produktions-Datenbank auf Server-SSD bildet die erste Kopie. Lokale Sicherung auf derselben Maschine schützt vor Software-Korruption. NAS-Backup überlebt SSD-Ausfall. Externe Sicherung auf entferntem Server oder Cloud-Speicher überdauert Standort-Zerstörung durch Feuer oder Diebstahl.
Zwei verschiedene Medien-Typen verhindern zusammenhängende Ausfälle. SSDs erschöpfen sich nach Schreibzyklen - vorhersagbarer Ausfall nach 3-5 Jahren intensiver Nutzung. HDDs erleiden mechanische Defekte durch Kopf-Crashes - unvorhersagbarer Ausfall unabhängig von Nutzung. Ein SSD-Ausfall korreliert nicht mit HDD-Gesundheit. NAS-Systeme mit RAID eliminieren einzelne Festplatten-Ausfälle, schützen aber nicht vor Ransomware-Verschlüsselung.
Geografische Trennung garantiert Daten-Überleben auch bei komplettem Standort-Verlust. Mindest-Distanz für effektive externe Sicherungen: Unterschiedliche Gebäude, idealerweise verschiedene Städte. Home-Server-Backups auf Büro-Server erfüllen diese Anforderung. VPS-Anbieter in anderen Rechenzentren oder Cloud-Speicher in anderen Regionen bieten maximale physische Trennung.
Der systematische Aufbau
Aufbewahrungsrichtlinien balancieren Speicherplatz-Verbrauch gegen Wiederherstellungs-Flexibilität. Tägliche Sicherungen für 7 Tage ermöglichen Wiederherstellung kürzlich entdeckter Probleme. Wöchentliche Backups für 4 Wochen fangen monatliche Datenbank-Korruptionen ab. Monatliche Sicherungen für 12 Monate erlauben Jahres-Vergleiche und Compliance-Anforderungen. Eine 100-GB-Datenbank benötigt 2,3 TB Gesamtspeicher für komplette Jahres-Historie mit diesem Schema.
Verschlüsselte Backups bleiben unlesbar ohne Entschlüsselungsschlüssel - auch bei komplettem Speicherzugriff durch Server-Betreiber oder Angreifer. Kompression reduziert Text-basierte Backups um 80-95%. Eine 10-GB-PostgreSQL-Datenbank wird zu 500-2000 MB .gz-Datei. Diese Speicher-Einsparungen multiplizieren Backup-Kapazität ohne Hardware-Investment.
Zeitbasierte Automatisierung führt Backup-Scripts zu definierten Zeitpunkten aus ohne menschliches Erinnern. Sequenzielle Backup-Ausführung vermeidet Ressourcen-Konflikte: Lokales Backup 03:00 Uhr, NAS-Transfer 04:00 Uhr, externes Upload 05:00 Uhr. Jeder Job erhält dediziertes Zeitfenster ohne Überschneidung. Fehler in frühen Backup-Stufen propagieren nicht zu späteren Stufen.
Prüfsummen-basierte Verifikation erkennt Korruption durch Netzwerk-Transfer oder Hardware-Fehler. sha256sum berechnet 256-Bit-Hashwerte - identische Prüfsummen garantieren bit-identische Dateien. Test-Wiederherstellungen validieren komplette Recovery-Workflows vom Backup-Abruf bis zur funktionierenden Datenbank. Minimum-Test-Frequenz: Quartalsweise vollständige Katastrophen-Wiederherstellungs-Simulation.
Für wen ist diese Serie?
Die Artikel richten sich an technisch interessierte Anwender mit Linux-Erfahrung, die systematische Backup-Strategien verstehen möchten:
Docker-Anwender, die persistente Daten sichern wollen. Warum verschwinden Container-Volumes nach Updates? Wie sichert man Datenbank-Container systematisch? Welche Backup-Strategien funktionieren mit Docker-Setups ohne Vendor-Lock-in?
Systemadministratoren, die zuverlässige Backup-Infrastrukturen aufbauen möchten. Welche Speichermedien-Kombinationen bieten optimale Balance zwischen Kosten und Zuverlässigkeit? Wie automatisiert man Rotations-Mechanismen? Was unterscheidet Vollsicherungen von inkrementellen Backups?
Unternehmer, die Business-Continuity sicherstellen wollen. Wie definiert man realistische Recovery-Time-Objectives? Welche rechtlichen Aufbewahrungsfristen gelten? Wie testet man Katastrophen-Szenarien ohne Produktions-Beeinträchtigung?
Sicherheitsbewusste Anwender, die Backup-Verschlüsselung verstehen möchten. Symmetrische Passphrasen vs Public-Key-Kryptographie - welcher Ansatz für welches Szenario? Wie verwaltet man Entschlüsselungsschlüssel sicher über Jahre?
Die 2 Artikel im Überblick
3-2-1-Regel und Speichermedien: Backup-Grundlagen
Automatisierung und Verifikation: Zuverlässige Backup-Workflows
Technischer Fokus und Abgrenzung
Die Serie konzentriert sich auf distributions-übergreifende Backup-Konzepte und universelle Prinzipien. Diese Grundlagen gelten für Debian, OpenBSD, Arch Linux und andere Unix-artige Systeme gleichermaßen.
Behandelte Kernthemen:
- 3-2-1-Backup-Regel und praktische Umsetzung
- Speichermedien-Charakteristika (SSD, HDD, NAS, Cloud)
- Aufbewahrungsrichtlinien und Generations-Management
- Verschlüsselungs-Konzepte und Schlüsselverwaltung
- Automatisierungs-Prinzipien und Zeitsteuerung
- Verifikations-Mechanismen und Test-Wiederherstellungen
Verwandte Grundlagen-Serien:
Diese Backup-Grundlagen bilden das Fundament für spezialisierte Themen:
- Datenbank-Backups: PostgreSQL-spezifische Strategien, MariaDB-Backup-Formate, SQLite-Sicherungen
- Container-Backups: Docker-Volume-Management, Image-Backups, State-Persistierung (geplant)
- Monitoring-Strategien: Backup-Überwachung, Alerting bei Fehlern, Metriken-Erfassung (geplant)
Distributions-spezifische Implementierungen:
- Debian: Cron-Integration, systemd-Timer, APT-Snapshot-Management (geplant)
- OpenBSD: rcctl-gesteuerte Backups, rdist-Mechanismen, pf-geschützte Backup-Transfers (geplant)
- Arch: systemd-Timer-Konfiguration, Pacman-Hooks, btrfs-Snapshot-Integration (geplant)
Typische Backup-Szenarien
Systematische Backup-Strategien ermöglichen gestufte Wiederherstellung je nach Szenario:
Entwicklungs-Setup (Single-Server):
- Lokal: Tägliche Datenbank-Dumps auf Server-SSD (schnelle Wiederherstellung)
- NAS: Wöchentliche Vollsicherungen auf externe HDD (Hardware-Ausfall-Schutz)
- Extern: Monatliche verschlüsselte Backups auf VPS (Standort-Katastrophen)
Produktions-Umgebung (Multi-Server):
- Lokal: Stündliche inkrementelle Backups auf separater SSD pro Server
- NAS: Täglich konsolidierte Backups auf RAID6-System (mehrfache Redundanz)
- Extern: Täglich verschlüsselte Transfers zu geografisch getrenntem Rechenzentrum
- Cloud: Wöchentliche Archive auf S3-kompatibler Speicher (langfristige Aufbewahrung)
Compliance-Anforderungen:
- Jahres-Archive für rechtliche Aufbewahrungsfristen (7-10 Jahre je nach Branche)
- Unveränderliche Backups (WORM-Prinzip) für Manipulations-Nachweis
- Verschlüsselte Archive mit Schlüssel-Escrow für Nachvollziehbarkeit
- Dokumentierte Wiederherstellungs-Tests für Audit-Compliance
Aufbau-Kontinuität und Referenz-Funktion
Die beiden Artikel bauen systematisch aufeinander auf:
Artikel 1 erklärt WAS und WARUM (3-2-1-Regel, Speichermedien, Konzepte), Artikel 2 erklärt WIE (Automatisierung, Verifikation, Fehlerbehandlung). Jeder Artikel funktioniert aber auch als eigenständige Referenz.
Spätere datenbank-spezifische Backup-Anleitungen verweisen gezielt auf diese Grundlagen:
“Die 3-2-1-Regel aus den Backup-Grundlagen definiert minimale Anforderungen für PostgreSQL-Sicherungen.”
“Zeitbasierte Ausführungs-Konzepte aus Artikel 2 - Scheduler-Prinzipien, Koordination, Nachhol-Mechanismen - gelten für automatisierte pg_dump-Workflows.”
“Verifikations-Prinzipien aus den Backup-Grundlagen - Prüfsummen und Test-Wiederherstellungen - validieren Datenbank-Dump-Integrität.”
Diese Struktur vermeidet Redundanz zwischen Grundlagen und datenbank-spezifischen Anleitungen. Die Backup-Konzepte bilden eine solide Basis für eigene Backup-Architekturen unabhängig von konkreten Tools oder Datenbank-Systemen.
Wiederherstellungs-Priorität: Ein systematisch getestetes Backup-System bedeutet digitale Souveränität auch nach katastrophalen Ausfällen. Datenverlust durch fehlende Backups ist permanenter Souveränitätsverlust.