• Aktualisierte Forenregeln

    Eine kleine Änderung hat es im Bereich Forenregeln unter Abschnitt 2 gegeben, wo wir nun explizit darauf verweisen, dass Forenkommentare in unserer Heftrubrik Leserbriefe landen können.

    Forenregeln


    Vielen Dank

Vergissmeinnicht - NAS-System und Langzeitarchivierung

Loosa

Senior Community Officer
Teammitglied
Mitglied seit
12.03.2003
Beiträge
10.352
Reaktionspunkte
4.472
So langsam kommen meine Daten(träger) in die Jahre und es wird mehr als Zeit über eine ernsthafte Verwaltung und Sicherung nachzudenken. Ignoriert sich so leicht, solange alles läuft. Und die letzte Komplettsicherung auf externe HDs ist doch schon lange her, weil irgendwann nicht mehr alles drauf passte. Und irgendwann macht irgendwas *puff*
Es wäre jetzt kein Desaster wenn was verlorengeht, aber immer mehr Erinnerungen sammeln sich digital. Da wäre ein Verlust mehr als Schade - und vermeidbar.


Als erstes wollte ich mir ein NAS einrichten und ich liebäugle mit dem Synology DS918+.
5-bay wäre mir lieber, weil man bei RAID-6 mehr Kapazität bekommt. Aber Preis, Stromverbrauch und Hardware-Transcoding klingen überzeugend (bzw. noch vernünftig). Synology ist zwar hochpreisig aber System, Bedienkomfort und Support scheint mir das wert zu sein. In OpenNAS oder sowas will ich mich nicht einarbeiten; und dann ist mir das Risiko eines offenen Scheunentors auch zu groß.
Hat jemand Erfahrung mit NAS oder Synology? Tipps?

Was für Platten würden sich anbieten? Bisher war ich immer Fan von WD (in dem Fall Red), aber für Seagate IronWolf spricht der etwas günstigere Preis (4x 10TB summiert sich), und dass deren Health Monitoring mit dem NAS zusammenarbeitet.


Ok, damit hätte ich NAS für den täglichen Gebrauch und ist mit RAID-6 ja auch recht ausfallsicher. Aber es ist keine Langzeitarchivierung. Was benutzt ihr dafür?
Auf Arbeit haben wir LTOs. Die Kapazität ist super, aber der Preis für Laufwerk und Bänder ist mir privat zu heftig. Und ohne entsprechender Lagerung kann man sich eine Bandsicherung auch leicht ruinieren. Wie sieht es mit M-Disc aus? Die Preise für Brenner und Medien sind überschaubar, und bei 100GB Discs sollte man zumindest die wichtigeren Daten gut unterbringen.

Langer Rede kurzer Sinn, wie haltet ihr es mit der Datenpflege? =)
 
Für Langzeit nutze ich ne Cloud, denn wirklich lange braucht man ja ehrlich gesagt nicht viele Daten. Ansonsten einfach neben der HDD im PC immer die "wichtigen" Dinge auf einer zweiten HDD.

Wegen der Wahl einer HDD: bei so viel Sicherheitsmechanismen brauchst du echt nicht auch noch extra eine spezielle "gute" HDD, denn auch die KÖNNTE mal ausfallen. Sicher vor einem Ausfall ist man nie.

Man muss halt wegen eines NAS schauen, was genau man braucht - viele NAS können ja VIEL viel mehr als "nur" Daten sichern und im Netzwerk bereitstellen - nicht dass du was kaufst, was du dann gar nicht nutzt ;) wichtig wäre vlt auch eine DLNA-Fähigkeit, wenn du Mediendaten vom TV oder so abrufen lassen willst. Ansonsten kann ich aber nix zu genauen Empfehlungen sagen.
 
Bisher hatte ich mein Zeug auch einfach auf externe Platten gespiegelt. Aber der lokale Speicher überstieg irgendwann den externen. Nichts weltbewegendes, aber als Hobbyfotograf und Medienschaffender riskiere ich so langsam eine Menge Arbeit zu verlieren.

Das wegen Medien wäre der Vorteil von dem Teil oben. Je nach Gerät, das die Daten anfordert, werden die Filme in Echtzeit gewandelt und passend zugespielt.

Von wegen Funktionsvielfalt hatte ich auch erst einfach ein externes RAID im Sinn. Aber die Gehäuse allein kosten schon gut Kohle, und so hatte ich mich langsam hochgeschaukelt. Von einem kaum teureren NAS zu dem oben. :-D

Was mir auch zusagt ist, einen FTP-Server laufen lassen zu können. Beziehungsweise für meine Unreal Projekte ein Versionsprotokoll wie Github oder Subversion. Da kann ich also, egal von wo, an Projekten arbeiten und das NAS übernimmt die Verwaltung automatisch. Und bei Synology wohl mit einfach zu nutzendem Einbruchschutz. Will es halt auch beruflich nutzen.

Viele andere Funktionen brauche ich nicht, im Endeffekt ist das aber ein kompletter Linux Server. Den Preisaufschlag gegenüber einem „dummen“ Raid fände ich da ok. Bei Bedarf leicht erweiterbar.


Und für Dinge die ich definitiv nicht verlieren will eben vielleicht M-Disc. Aber da bin ich erst drübergestolpert und weiß noch nicht viel darüber. Ein €140 Brenner klingt aber auf jeden Fall besser als ein LTO-Laufwerk für €1400. ;)
 
Ich hab schon immer "NAS" Systeme verwendet, erst einen alten Core2Duo mit Ubuntu 16.x und später dann ein dediziertes NAS, bei mir ist im Moment folgendes Gerät im Einsatz: https://www.qnap.com/de-de/product/ts-453mini ... in der 8GB RAM Ausführung.

Die Software von QNAP ist wirklich gut, gefühlt erscheint alle zwei Wochen ein Firmware Update welche Verbesserungen mitbringt, Sicherheitslücken etc. patcht und und und.

Der Grund warum ich mich für das QNAP entschieden habe: sie waren mit die ersten, die ein natives Docker-System mitbringen. Auf meinem NAS laufen vier Docker-Images gleichzeitig und die Performance ist wirklich grandios, beim Kopieren / Sichern von Dateien nutzt das NAS und auch mein PC die Gbit Anbindung vollends aus, es gibt natürlich auch schnellere Systeme, allerdings kenne ich so gut wie kein "normales" Mainboard, welches 5Gbit oder gar 10Gbit nativ, d.h. ohne separate Karte, mitbringt.

github wird mMn sogar nativ als QNAP App angeboten, ansonsten eben der von mir favorisierte Einsatz von Docker-Images! :top:

Mein Lightroom Katalog inkl. Sicherung liegt auf dem NAS, ich hab es seit Januar 2016 im Einsatz mit vier Platten, irgendwas RAID, d.h. eine Platte ist nicht nutzbar. Bislang gab es noch kein Ausfall, d.h. ich kann dir nicht sagen wie sich das System im Ernstfall verhält, aber da QNAP auch professionellen Einsatz bietet, denke ich, die wissen was sie tun.

Wenn du ganz viel Langeweile hast: das NAS hat einen direkten HDMI Ausgang und bietet u.a. PLEX, Kodi etc. ... d.h. auch als natives Mediencenter wäre es nutzbar, allerdings weiß ich nicht ob 4K unterstützt wird, ich denke eher nicht. Mein NAS ist u.a. Zuspieler für mein Shield im Wohnzimmer, UHD Images, sprich 60-80GB pro Film, werden ohne Probleme und Aussetzer gestreamt.

Übrigens spiegelt das NAS auch meine Dropbox und wenn ich wollte Google Drive Account, d.h. der Datenbestand ist immer und überall gleich.

Ach ja, ich nutze zwar "nur" Docker-Images, das NAS kann aber mehr als das: es bietet native Virtualisierung von div. Betriebssystemen, d.h. du könntest Monitor, Maus & Tastatur anschließen und das NAS verhält sich wie ein PC. ;)
 
Oh, ein System von QNAP hört sich nach einer guten Alternative an.
Die Hersteller geben sich anscheinend nicht viel und sind beide sehr gut. QNAP bietet bessere Hardware, Synology dafür die bessere Software. Für QNAP spricht der Silent Bau, aber dafür ist es etwas teurer. Ok, das muss ich mir nochmal überlegen. Mal gucken was es da an aktuellen Systemen gibt. =)

Mein Lightroom Katalog inkl. Sicherung liegt auf dem NAS, ich hab es seit Januar 2016 im Einsatz mit vier Platten, irgendwas RAID, d.h. eine Platte ist nicht nutzbar. Bislang gab es noch kein Ausfall, d.h. ich kann dir nicht sagen wie sich das System im Ernstfall verhält, aber da QNAP auch professionellen Einsatz bietet, denke ich, die wissen was sie tun.

Wenn bei dir eine Platte als Sicherung dient ist das ein RAID 5. Das hatte ich auch erst geplant, aber wenn eine Platte ausfällt dauert die Wiederherstellung recht lang und rödelt die verbliebenen Platten einmal komplett durch. Da besteht die Gefahr, dass dabei gleich die nächste Platte abraucht und das war's dann. :B
RAID 6 schützt vor zwei Ausfällen, aber bei 4 Einschüben verliert man die Hälfte vom Platz; das ist erst mit mehr Platten effizienter.

Hmm, von Docker-Images las ich jetzt das erste Mal. So ganz erklärt sich mir der Sinn nicht (mit VMachines hab ich aber auch noch keine Ahnung). Wofür nutzt du die? Abgetrennte Umgebungen wo nur eine bestimmte Software läuft?

Aber gib's doch zu... NAS hast du doch nur um deinen Untertanen damit per Sicherheitskamera auf die "Finger" zu schauen. :P


Naja, einen internen BD-Brenner hab ich schon, aber der ist zu alt für M-Disc. Ich würde mir dann gleich ein externes UHD-Laufwerk holen, scheint mir am flexibelsten.
techPulse kenne ich nicht, aber ne deutsche Firma und wohl gute Qualität und Support. Klingt überzeugend.
 
Oh, ein System von QNAP hört sich nach einer guten Alternative an.
Die Hersteller geben sich anscheinend nicht viel und sind beide sehr gut. QNAP bietet bessere Hardware, Synology dafür die bessere Software. Für QNAP spricht der Silent Bau, aber dafür ist es etwas teurer. Ok, das muss ich mir nochmal überlegen. Mal gucken was es da an aktuellen Systemen gibt. =)
Mein bester Freund hat ein Syn NAS und ist davon auch begeistert, also ja, ich denke mit beiden Systemen kann man wenig bis gar nichts falsch machen.

Wenn bei dir eine Platte als Sicherung dient ist das ein RAID 5. Das hatte ich auch erst geplant, aber wenn eine Platte ausfällt dauert die Wiederherstellung recht lang und rödelt die verbliebenen Platten einmal komplett durch. Da besteht die Gefahr, dass dabei gleich die nächste Platte abraucht und das war's dann. :B RAID 6 schützt vor zwei Ausfällen, aber bei 4 Einschüben verliert man die Hälfte vom Platz; das ist erst mit mehr Platten effizienter.
Richtig, aber mehr Platten heißt auch mehr Kosten, höherer Stromverbrauch [...].

Also, ich mach halt eine "duale" Sicherung, NAS ist Speicher ... wirklich wichtige Dinge wie Dokumente etc. sind in der Dropbox, die ich mal auf 1TB upgraden müsste weil längst übervoll, und einer externen 2,5" 1TB Festplatte.

Hmm, von Docker-Images las ich jetzt das erste Mal. So ganz erklärt sich mir der Sinn nicht (mit VMachines hab ich aber auch noch keine Ahnung). Wofür nutzt du die? Abgetrennte Umgebungen wo nur eine bestimmte Software läuft?
So ungefähr. Es wird ein Minimalst-Linux-Image gestartet mit Software deiner Wahl bzw. gibt es ja mittlerweile für fast jeden Einsatzzweck fertige Images. Jedes Image ist für sich selbst verantwortlich, trägt keinen Ballast, kann beliebig repliziert werden und und und ... allerdings kann man die Images auch zu konfigurieren das diese gemeinsamen Zugriff haben, man kann nur LAN freigeben, mit Internetzugriff und und und ... klar könnte man das mit beliebigen Linux-Distros und VMs auch realisieren, aber hier muss viel mehr nebenbei emuliert und verwaltet werden, das bläht die Systeme auf, mehr Rechenzeit, gerade bei "schwachbrünstigen" NAS eher fatal, geht drauf und und und ...

Relativ neu, nämlich 2013, aber echt ein tolles System: https://de.wikipedia.org/wiki/Docker_(Software)

Einfach mal durchlesen ... ich finds toll und wie ich meinte, die CPU Auslastung bei meinen NAS liegt bei unter 5% bei gleichzeitiger Nutzung meiner vier Docker-Images. :top:

Aber gib's doch zu... NAS hast du doch nur um deinen Untertanen damit per Sicherheitskamera auf die "Finger" zu schauen. :P
Aber ... aber ... das wäre doch illegal! :B ;)

Nein, in der Kanzlei haben wir wirklich native Fileserver die wir nutzen, das NAS ist privat. ;)
 
Also das mit den Dockers liest sich interessant. Für bestimte Anwendungen oder Abläufe lassen sich Images anlegen, und die können bei Bedarf einmal oder hundertmal für sich ablaufen. Mir erschließt sich der Nutzen als Privatanwender aber nicht ganz. In den Erklärungen wird nur beschrieben wie es funktioniert. Aber nicht für was (außer vielleicht ein Docker für Webhosting und ein weiterer für die Datenbank). Hmm.

Aber vielleicht beruhen die Apps, die Synology anbietet auf so etwas? Es gibt eigene Apps für Chat, Mail-Server, FTP, ...


Naja, mit dem RAID hast du aber Recht. Das NAS soll ja für den laufenden Betrieb herhalten. Da wäre es schade die Hälfte des Speicherplatzes der Sicherheit zu opfern. Und bei 5 Einschüben verdoppelt sich der Stromverbrauch schon beinahe.
Für Langzeitsicherung hab ich eh M-Disc im Auge. Und für einigermaßen zuverlässige Langzeit müssen die Daten am besten auf unterschiedliche Speicher an verschiedenen Orten. Eine große, externe SSD klingt auch gut.
 
Das Problem war halt, dass ich bei meinem Ubuntu System immer Updates machen musste, was wiederum negative Auswirkungen auf die verwendeten Programme hatte, z.B. wenn eine python Version nicht unterstützt wurde und das Programm desshalb gemeckert hat ... die meisten von mir verwendeten Programme basieren größtenteils auf php & python, ich weiß gar nicht wie häufig ich mir durch Updates mein System 'zerschossen' hab. :S

Die Docker-Images kümmern sich eben komplett selbst um ihre jeweiligen Abhängigkeiten etc., d.h. du kannst ein Image beendet für Wartung- & Updates, die anderen laufen aber ohne Beeinträchtigung weiter. Ergänzend hierzu ist natürlich auch der Sicherheitsaspekt nicht ohne, die Images können sich zwar in ihrem Container "austoben", auch ggf. Schreiben auf Verzeichnisse, je nach Berechtigungen, aber man kann die auch völlig isoliert laufen lassen, egal ob Schreib- oder Netzwerkrechte.

Das alles mit einer ganzen Linux Distro unter Kontrolle zu halten ist ... sportlich bzw. mit einem deutlich höherem Aufwand verbunden. Es gibt eigentlich nichts, was es mittlerweile nicht als Docker-Image gibt. Suchen, runterladen, starten. Läuft. Jedes Docker-Image läuft eben mit einer minimal Linux Distro und beinhaltet, wenn dieses gut und sinnvoll erstellt wurde, wirklich nur die benötigten Abhängigkeiten, um die Images nicht aufzublähen.

D.h. alles, was es irgendwie für Linux gibt, gibt es eben auch in komprimierter und für sich selbst lauffähig als Docker-Image, hier kannst du einfach mal suchen und stöbern: https://hub.docker.com/explore/ und jetzt neu: https://store.docker.com/

Was die eigenen Apps von Syn & QNAP betrifft: neeee. Bei jedem NAS läuft ja quasi ein Linux, das sind ordinäre und mehr oder minder gut gepflegte Pakete, definitiv keine Docker-Images. ;)
 
Dumme Frage, aber:
Reicht für Privat-Vorhaben nicht einfach eine regelmäßige doppelte Datensicherung auf externe Platten?

Sprich:
Arbeitsdaten auf C: , eine Backup Kopie auf Ext HD X und dasselbe nochmal auf Ext HD Y kopiert.
Dann jeden Monat abwechselnd eine der Ext HDs mit einer aktuellen Kopie überschreiben.
(Idealerweise dann noch eine der Ext HDs in einem anderen Gebäude auslagern)
 
Nachdem ich schmerzlich erfahren durfte wie z.B. gesammelte seltene Artworks aus Amigazeiten das zeitliche segneten und ich und ich zwischendurch eine komische "hab ich verdrängt, aber kein Ärger gehabt" Lösung hatte,
hab seid Juni 2015 ein Synology 415 Plus und bin so gummigut zufrieden damit, dass ich dem letzten Monat ein Update von 4*3TB auf 4*8TB spendiert habe.

Eine Linux Software Lösung mit sehr gutem Controller hatte ich vor dem Crash, aber die war trotz alles andere als performant, kann ich nicht ansatzweise empfehlen.
Allerdings ist das auch schon 10+ Jahre her, kA was sich da mittlerweile getan hat.
 
Dumme Frage, aber:
Reicht für Privat-Vorhaben nicht einfach eine regelmäßige doppelte Datensicherung auf externe Platten?

So hatte ich das früher gemacht, bis meine externen Platten zu klein wurden um auch nur ein Time Machine Backup unterzubringen. Eigentlich war der Plan, nur für größeren Ersatz zu sorgen. Aber ein dummes RAID Gehäuse kostet locker schonmal €200 aufwärts. Und da dachte ich mir, dann kann ich auch gleich ein NAS hinstellen. Und von einem billigen NAS schraubte sich das dann hoch zu einem guten. :-D
Wenn schon Geld in die Hand nehmen, dann kann man es auch gleich richtig machen. ;)

Außerdem nimmt einem ein NAS eben auch viel Arbeit ab (soweit ich das recherchiert habe). Einen Rechner auf externe Platten sichern geht ja noch leicht von der Hand. Aber meine Daten liegen auf meinem alten Mac. Mein neuer Laptop ist zu klein um alles zu übernehmen. Dann hab ich noch einen PC zum zocken und arbeiten, Smartphone und Tablet. Einmal eingerichtet kümmert sich ein NAS darum das alle Geräte gesichert werden. Und ich von allen Zugriff auf die Daten habe.
Und ich kann Tools laufen lassen um aus der Ferne zuzugreifen; ohne dass gleich ein ganzer Server laufen muss.


Das alles mit einer ganzen Linux Distro unter Kontrolle zu halten ist ... sportlich bzw. mit einem deutlich höherem Aufwand verbunden. Es gibt eigentlich nichts, was es mittlerweile nicht als Docker-Image gibt. Suchen, runterladen, starten. Läuft. Jedes Docker-Image läuft eben mit einer minimal Linux Distro und beinhaltet, wenn dieses gut und sinnvoll erstellt wurde, wirklich nur die benötigten Abhängigkeiten, um die Images nicht aufzublähen.

D.h. alles, was es irgendwie für Linux gibt, gibt es eben auch in komprimierter und für sich selbst lauffähig als Docker-Image, hier kannst du einfach mal suchen und stöbern: https://hub.docker.com/explore/ und jetzt neu: https://store.docker.com/

Danke dir, für die Infos und Erklärungen. So langsam ergibt das für mich Sinn; auch für kleinere (private) Skalierungen.
Solange Docker auf dem System läuft kann ich damit jedes Image nutzen, ohne mich darum kümmern zu müssen welches OS genau als Unterbau dient. Zum Beispiel hatte ich mir schon den Kopf zerbrochen, wie ich Perforce für die Projekt-Versionierung laufen lassen könnte. Für deren Server gibt es zig Linux Versionen - und (über deinen Link) ein Docker Image. Sehr cool! =)

Ich hab mir jetzt ein Syn bestellt. Software und Medienfunktionen gaben den Ausschlag. Und ein bisschen der Preis. ;)
 
Zurück