Unraid – Licht und Schatten
Bevor die Aufschreie kommen -ja natürlich – ganz viel Licht :))
Ein cooles System – läuft echt gut.
Coole Integration von Docker…
Etwas gewöhnungsbedürftig mit dem USB-Stick – aber funzt…
Die Vorteile gibt´s ja zu Hauf im Netz….
Kommen wir mal lieber zu dem Eingemachten/zu den Besonderheiten:
- Festplatten entfernen…
- Festplatten hinzufügen ist ganz einfach….
- Aber das entfernen….joa, da war ich schon überrascht – das wird gar nicht so richtig unterstützt.
- Noch schlimmer… entfernt man die Festplatte über die Oberfläche – sind auch deren Daten weg (also zumindest werden die nicht wo anders hin kopiert…)
- Man muss also, möchte man eine Festplatte entfernen, die enthaltenen Daten manuell auf eine andere Festplatte packen und kann anschließend diese entfernen….
- Hier stellen sich mir schon wieder 1000 Fragen – wie soll das funktionieren, wenn Teile von Unterordnern hier hin verschoben wurden….kommt gleich weiter unten noch…
- Irgendwie hatte ich hier einen „entfernen“-Button erwartet – wie beim USB-Stick – „Festplatte aus Array entfernen“ – die Daten werden dann (über den mover) auf eine oder auf andere Festplatte verschoben und anschließend wird diese autom. aus dem Array entfernt und ich kann die raus nehmen…
- So geht es jetzt nur manuell:
- Docker stoppen (bei mir war es auch noch meine Dockerpartition…)
- Array stoppen
- Daten von 1 auf 2 kopieren
- 1 aus dem Array entfernen
- 2 im Array auf Position 1 verschieben….
- Array und Docker wieder starten
- Super – soweit die Theorie – bis ich gerade den Mover hab durchlaufen lassen und er einen Teil der Daten auch auf Disk2 gepackt hat….
- Dann muss man halt mit Disk 3 oder Disk 4 tauschen, aber das war eigentlich nicht mein Plan… find ich jetzt nicht ganz so cool…. nun gut.
- Okay, vielleicht noch einen Satz wie es zu dem Anwendungsfall mit dem „Festplatte entfernen“ kam. Ich hab meine erste Unraid-Instanz auf einem kleinen Rechner aufgebaut – mit einer externen HD – was hier gerade noch so rum lag.
Auf der sind jetzt aber alle meine Dockerdaten, welche ich nicht verlieren möchte. Aber die kleiner 1TB externe HDD gehört auch nicht als bevorzugte Backupfestplatte, erst recht nicht als Erste im Verbund….
- Array oder nicht Array
- Insgesamt ist das Zugriffs aufs „Array/Nicht Array“ für mich überraschend
- Man kann Ordner-Anlegen und entscheiden, wie die Daten sich über das Array verteilen, oder wie die Festplatten aufgefüllt werden – soweit, so gut und soweit auch irgendwie schon ganz cool – auch wenn mich die Interna gar nicht so interessieren – reicht ja wenn es gut funktioniert 😉
- Aber die Daten sind von der Struktur dann doch einer Platte zugewiesen
- Da ergeben sich für einen Informatiker zahlreiche Detailfragen
- Die bestimmt auch irgendwie, irgendwo dokumentiert sind
- Will ich mich aber auch gar nicht im Detail mit beschäftigen – soll ja nur funktionieren – okay, aber dann muss das Array nach außen auch als ein Array agieren….
- Irgendwie hatte ich erwartet – ein Array – eine „Festplatte“ nach außen…
- Man bekommt „schön“ die einzelnen Festplatten aufgelistet
- Oder auch nicht? Jetzt mag man sagen, was wie wo…. ?
- okay, dass hab ich auch gelernt, es hängt anscheinend vom Zugriffsweg ab!
- Intern gibt es also die virtuelle zusammengeführte Arraysicht und die physikalische Sicht
- Ja okay, nur interessant:
- Zugriff über SMB und FTP ggf. unterschiedlich ?!
- per SMB bekommt man die „virtuelle zusammengeführte Arraysicht“
- das ist schon mal super und löst viele Probleme
- per FTP – ÜBERRASCHUNG
- hier gibt es die „physikalische Sicht“
- Dachte ich zumindest zuerst – weil einem die Disk1, Disk2, Disk3 …. bei vielen Festplatten direkt entgegen springen.
- Anscheinend gibt es hier aber auch die „virtuelle zusammengeführte Arraysicht“ unter „user“
- gut zu wissen…(fürs BackUp)
- Aber überraschend, dass hier überhaupt die „physikalische Sicht“ nach außen propagiert wird !? – unerwartet
- aber wenn man es weiß, wohl eher kein Problem
- per SMB bekommt man die „virtuelle zusammengeführte Arraysicht“
- Preis – Die Preise sind gestiegen
- Der Preis war mal gut.
Für gute Leistung darf man auch bissel Geld verlangen – dass finde ich schon fair. - Ich weiß gar nicht mehr, was ich genau bezahlt hab … 69€ für die 6 Bay Variante – aber mit unendlich Support… ein guter Deal
- Kurz danach ist das Preismodell geändert worden… puhh.. 49€ für ein Jahr…. oder halt keine Updates mehr…
- Pro Jahr 49€ deutlich zu viel….
- für den privatbereich ggf. okay, aber eigentlich schon uncool…
- Und mit Updates 250€
- …ui – das überlegt man sich aber schon länger
Muss jeder selbst entscheiden.
Ich kann als Programmierer natürlich gut verstehen, dass es anders nicht geht, aber das schreckt halt auch schon ab… - Das „normale“ Model wäre doch bitte die geschäftlichen User zur Kasse zu bitten und die privaten als Werbemaßnahme mit zu schleppen…. meine Wunschvorstellung 😉
- Fair wiederum, die Besitzer einen alten Lizenz, können noch upgraden im alten Lizenzmodel – danke für die Sonderschleife – das ist deutlich fair!!
- Der Preis war mal gut.
so zum Abschluß wieder bissel Licht.
In Summe läuft es wirklich zuverlässig bei mir.
Hab es aber auch nur 6 Monate z.Z. für Docker am laufen.
Werde jetzt mal intensiver in das Festplatten Array und Dateigeschäft einsteigen 🙂
Für BackUps ist ein einfacher Weg, den FTP-User zu aktivieren.
Und dann z.B. auf dem Syno-Nas unter Aufgaben einen Cronjob einstellen.
mit folgendem Inhalt:
wget -m ftp://name:Password@IP/user/appdata/* -P /volume1/backupOrdner
tar -zcvf /volume1/backupOrdner/backup-$(date +%Y-%m).tar.gz /volume1/backupOrdner/ip/
rm -rf /volume1/backupPaperless/ip
Das Skript lädt alle Daten von z.B. bei mir Appdata packt diese in den BackupOrdner.
Anschließend werden diese gezippt – nach Jahr und Monat (dadurch wird der vorangegangen Lauf überschrieben – aber monatlich existieren noch ältere Versionen
und der Ordner wird wieder gelöscht…
Einziger Nachteil, falls z.B. der FTP-Down ist etc. gibt es keine Benachrichtigung per Mail oder so….