eigener Homeserver/NAS

pillow

Well-Known Member
Hallo

hat jemand einen Intel Nuc als Homeserver/NAS am laufen? ich würde gerne was Stromsparendes leises kleines 24/7 laufen lassen.

minidlna
Didiwiki
vllt noch Jails und oder Virtualbox

danke
ciao
 
Ich habe hier gerade einen Odroid H2 (gibt es bei pollin.de; einfach nach odroid h2 suchen). Kostet ca. 130€. Plus ein Notebook Netzteil 15-19V, 4A. Ein oder zwei SO-DDR4 Speicher. Da ist das Board ziemlich wählerisch. Ich kann nur einen und nicht zwei Crucial Streifen einbauen. Allerdings habe ich 16GB und die reichen für die meisten Anwendungen. Die Graphik unter NomadBSD ist laaangsam... Unter Win10 gibt es das Problem nicht. Linux habe ich nicht ausprobiert. NomadBSD läuft auf einer M.2-SSD. Damit sind noch 2 SATA Ports frei. Es gibt ein spezielles SATA-Strom-Kabel, das aber zur Zeit nicht bei Pollin erhältlich ist. Ich werde mir einfach JST-Stecker besorgen und das Kabel selbst zusammenlöten. (EDIT: hab gerade noch mal nachgeschaut, jetzt gibt es das Set wieder)
FreeNAS soll, laut Google, auch drauf laufen. Werde ich am Wochenende ausprobieren.

Ach ja, 5-7 Watt und ohne Lüfter maximal handwarm (der bei Pollin angebotene Odroid H2 Lüfter ist nicht für das Board, sondern für die ebenfalls angebotenen Plexi-Gehäuse) und die Crucial CT16G4SFD8266 C16FD1 mag das Board nicht im Doppelpack. Im Odroid Wiki gibt es eine Liste von getesteten RAMs (ich musste natürlich beim BlackFriday preiswert, ne billig, einkeufen...)

Das ganze mit 2 x 1TB HDD soll dann in ein altes Cobalt Cube-Gehäuse und unter FreeNAS ein kleiner SMB-Server sein.

/gT/
 
Zuletzt bearbeitet:
Aktuell habe ich bei mir noch eine APU2 von PC Engines [1] am laufen. Ich hatte das Board mit FreeBSD als Router/FW am laufen, bis mein Internetanschluss zu schnell wurde. Aktuell läuft ein Linux drauf mit folgenden Komponenten:
  • Docker
  • Gitea
  • Drone.io
  • Grafana
  • InfluxDB
  • MariaDB
  • Nginx
  • Telegraf
  • Sensu Go
  • Unifi Controller
Die grösste Auslastung hat dieses System beim Backup in der Nacht, wenn ich einen Dump von MariaDB mache und diesen auf einen NFS Share kopiere. Grundsätzlich ist das vollkommen OK. Da ich aber noch mehr mit KVM machen will, wird dieses System bald mit einem NUC (NUC8i7BEH) ersetzt. Diesen habe ich aktuell auch schon hier, habe aber noch nicht die Zeit gefunden.

Zusätzlich habe ich noch ein NAS mit FreeBSD (A1SRi-2358F) am laufen und ein zweites APU2 Board mit Home-Assistant.

[1] https://pcengines.ch/apu2.htm
[2] https://www.home-assistant.io
 
@pillow: wieviel Plattenplatz und Watt hast du im Sinn?
Die NUCs sind im Gehäuseplatz limitiert, was Plattenanzahl angeht; die Netzteile sind die externen "schwarzen Blöcke", können ggf nach 2-3 Jahren Dauerbetrieb hin sein;
Je nach Lastsituation kann man die NUCs auch gut hören, für absoulte Stille reichts auch bei denen nicht.


ein altes Cobalt Cube-Gehäuse und unter FreeNAS ein kleiner SMB-Server sein.
/gT/
oh, wie cool - ein Qube Gehäuse, das ist mal ein stilvoller Server;
Wie sind deine Durchsatzraten mit dem Odroid?
 
hat jemand einen Intel Nuc als Homeserver/NAS am laufen?
Nicht. Auch nicht nachgelesen. Nur das Bild betrachtet und dann die Frage: wie viele Platten kann der denn?

Durch Erfahrung habe ich gelernt, dass zwei Platten Redundanz ein Muss für jeden NAS sind, den man ernsthaft auch für Backups benutzen möchte. Das bedeutet: wenigstens drei Platten müssen verbaut werden, um meinen (heutigen) Ansprüchen gerecht zu werden. Besser sind vier, fünf oder sechs, was natürlich jeweils auch wieder Strom kostet.
Ich habe so meine Zweifel, dass in das gezeigte Gehäuse überhaupt zwei Platten oder mehr passen.
Deshalb würde ich darüber lieber nochmal nachdenken.

Kurz gesagt: was spricht gegen ein altes PC-Gehäuse mit ausreichend Platz und leisen Lüftern? HW für darin gibt es doch vom Schrott (wenn man nicht gerade was in der eigenen Bastelstube findet). Ja, meine gekauften NAS (zwei) waren wegen kleiner Lüfter in den kleinen Netzteilen sehr viel lauter und auffälliger, als mein Uralt-PC vom Schrott mit neuen Lüftern nun ist.
Braucht natürlich mehr Strom! Das sollte man sich bewusst machen. Heizt dadurch meinen Keller auch immer angenehm auf Mindest-Temperatur, was wiederum Heizöl spart.

Zwei Platten sind nicht genug!
Da fehlt es an Redundanz.
 
hat jemand einen Intel Nuc als Homeserver/NAS am laufen? ich würde gerne was Stromsparendes leises kleines 24/7 laufen lassen.
Hab aktuell 2 hier am laufen - im Leerlauf grob bei ca 5W pro NUC.
Für reines NAS find ich die allerdings zu performant. Hab 2x die i3 Variante und ESXi als Hypervisor laufen mit insg. ca 30 VMs.

Konnektivität ist gut, über ein Thunderbolt Port kannst Du ja alles dranstecken was fehlen sollte.

Zur Lautstärke: Die NUC7ix werden weniger laut als die NUC8ix die neuen NUC10ix hab ich noch nicht getestet, die haben beim i3 25W TDP anstatt 28W wie die 8er, glaub die 7er hatten 15W) - den 7i3 hat vor sich hingesäuselt wenn ein paar VMs Last produziert haben, die 8i3 hat man schon etwas mehr und schneller gehört (wobei wir hier von "hörst Du in 1-2m überhaupt nicht mehr reden")

In die großen Modelle bekommst Du 2 SSDs rein, wenn Du mehr Storage willst oder 10GbE dann Thunderbolt.

Kurz gesagt: was spricht gegen ein altes PC-Gehäuse mit ausreichend Platz und leisen Lüftern?
Stom. Eindeutig Strom. Ein NUC mit 32GB Ram und SSD mit i3 Prozessor braucht im Leerlauf kaum mehr als ein Pi.

Zwei Platten sind nicht genug!
Da fehlt es an Redundanz.
Wenn Du ein entsprechendes Backup-Konzept hast brauchst Du nicht mal 2 Platten - gerade die heutigen (guten) SSDs gehen doch eh nicht mehr kaputt. Bei 2 SSD Möglichkeiten in den NUCs kannst Du sogar was RAID-1 mäßiges bauen aber wozu?
 
Hallo, ich habe leider keine Antwort auf die ursprüngliche Frage nach dem NUC. Aber weil es hier so schön passt: iX Systems hat vorgestern einen FreeNAS Hardware Guide veröffentlicht:
In celebration of the upcoming FreeNAS 11.3 release, we have brought together the wisdom of our engineering staff and top blog posts to produce the first comprehensive FreeNAS Hardware Guide to complement the official hardware requirements and the community’s highly-detailed Hardware Recommendations Guide.
Vielleicht findet die eine oder der andere interessante Infos für den Aufbau seines zukünftigen NAS.
 
Nicht. Auch nicht nachgelesen. Nur das Bild betrachtet und dann die Frage: wie viele Platten kann der denn?

Durch Erfahrung habe ich gelernt, dass zwei Platten Redundanz ein Muss für jeden NAS sind, den man ernsthaft auch für Backups benutzen möchte. Das bedeutet: wenigstens drei Platten müssen verbaut werden, um meinen (heutigen) Ansprüchen gerecht zu werden. Besser sind vier, fünf oder sechs, was natürlich jeweils auch wieder Strom kostet.
Ich habe so meine Zweifel, dass in das gezeigte Gehäuse überhaupt zwei Platten oder mehr passen.
Deshalb würde ich darüber lieber nochmal nachdenken.

Kurz gesagt: was spricht gegen ein altes PC-Gehäuse mit ausreichend Platz und leisen Lüftern? HW für darin gibt es doch vom Schrott (wenn man nicht gerade was in der eigenen Bastelstube findet). Ja, meine gekauften NAS (zwei) waren wegen kleiner Lüfter in den kleinen Netzteilen sehr viel lauter und auffälliger, als mein Uralt-PC vom Schrott mit neuen Lüftern nun ist.
Braucht natürlich mehr Strom! Das sollte man sich bewusst machen. Heizt dadurch meinen Keller auch immer angenehm auf Mindest-Temperatur, was wiederum Heizöl spart.

Zwei Platten sind nicht genug!
Da fehlt es an Redundanz.

Also ich bin auch eher ein Freund von herkömmlichem PC Form Factor. Da kann man letztendlich alles einbauen, was man will. Ich hätte aber dann gerne an dieser Stelle gefragt, was für Hardware man hier generell empfehlen kann (Mainboard, Prozessor, RAM, Netzteil), wenn man vorhat, einen Server 24/7 zu betreiben, insbesondere unter den Aspekten Zuverlässigkeit/Stabilität und Stromverbrauch.
 
Moin,
seit ungefähr zwei Jahren betreibe ich jeweils einen Fujitsu Futro S-900 als WebServer und NAS (momentan als Backup). Ich habe mich für dieses Gerätchen entschieden, weil es wenig Strom verbraucht, eine 64Bit-AMD-CPU, ein SATA-2-Anschluß, ein mSata-Anschluß und einPCI-Low-Profile Steckplatz vorhanden ist. Abgesehen vom Sensationspreis von 25,- inkl. Netzteil.
Sicherlich darf man über den maximalen Speicherausbau von 4GB streiten, aber für meine Anwendungen reichen 2GB vollkommen.

Der Stromverbrauch des Webserver-Futros liegt bei 9W unter normaler Last (10 User) und 11,5W alle 10 Minuten, wenn zusätzlich Daten aus dem Netz geholt, geparst und in die PostgreSQL-Datentabellen geschrieben werden. Das NAS verbraucht etwa 13W, wenn Backups geschrieben werden, ansonsten 0,8W im ACPI-Mode S5.

Die Stromverbräuche werden mit einem ELV Energie-Monitor EM94 ständig gemessen.
 
Also ich verwende ein Asrock Q1900M + SATA-Karte. Damit habe ich dann insgesamt 6 SATA Anschlüsse. Das Ganze befindet sich in einem normalen PC-Gehäuse (Fractal Design Define). Hauptausschlaggebend für diese Konfiguration war, dass ich keinen CPU-Lüfter brauche und man sich keinen Kopf um Stromstparfunktionen in der Software machen muss. Einen Unterschied zwischen niedriger CPU-Frequenz und hoher konnte ich nicht feststellen.
 
Ich hab seit 2015 das ASRock N3150DC-ITX mit 8GB Ram und inzwischen einer SSD fürs OS und nen bisschen Spielkram sowie einer 4TB WD Red als NAS-Speicher unter OpenBSD.

Das Ding läuft seit dem eigentlich völlig unauffällig, als ich letztes Jahr nen bisschen mit VMs gebastelt habe, hab ich zu den ursprünglichen 4GB Ram nochmal 4 weitere gesteckt.

Im endeffekt ist es für das was ich damit mache (Vor allem NFS & Samba, nen bisschen Rsync und meine Webserver -Testinstallation u.a. mit Nextcloud als VM) ausreichend schnell und der Energieverbrauch recht niedrig.

Praktisch finde ich, das an das Board direkt nen 19V "Brick" (ala Notebook) Netzteil angeschlossen wird und es dann auf dem Bord Konnektoren für den SATA Strom gibt, das Board also auch gleich die Spannung für die max. 4 SATA Laufwerke bereitstellt so das man da nicht groß basteln muss.

Früher hatte ich noch nen externes LTO-SCSI-Bandlaufwerk über ne PCIe SCSI-Karte zur Sicherung drann, das habe ich inzwischen gegen zwei externe USB-Festplatten im wechsel getauscht (eine ist immer extern eingelagert). Das finde ich auch generell ganz praktisch das man über die PCIe noch etwas flexibel ist.

Verbaut ist das alles in irgend sonnem Beige-Vorkriegs-ATX-Gehäuse ohne zusätzliche Lüfter, ich habe aber dadrauf geachtet das nichts zu eng verbaut wird so das die temperaturen sich auch im Sommer in grenzen halten.

/edit: Kleines PS: Das Board hat damals mit den 4GB Ram und inkl. Netzteil so ca. 150 EUR gekostet, das finde ich preislich auch recht attraktiv, inzwischen gibts glaub ich ein Nachfolgeboard.

/edit2: @jmt: Deins ist ja ganz grob der Vorgänger von meinem, ich hab allerdings apmd aktiviert, momentan ist er auf 480 MHz wohl lt. apm runtergetacktet, den Stromverbrauch hab ich da aber noch nie gemessen, denke aber das das nicht schaden kann.
 
Vielen Dank für Eure Beiträge. Was ich noch gerne grundsätzlich gefragt hätte: Ab welcher Größenordnung eines Netzwerks braucht man eigentlich spezielle Server-Hardware, wie Xeon- oder Opteron-Prozessoren und dafür spezielle Mainboards? Oder anders gefragt: Mit einem Heimrouter und einer Klasse C IP (192.168.1.1) könnte man theoretisch 254 Geräte (inkl. Server) betreiben. Würde dafür Standard-PC Hardware noch ausreichen oder nicht? Und was kann man über einen Webserver sagen? Bis zu wie vielen Zugriffen aus dem Internet täglich würde normale PC-Hardware ausreichen? Gibt es da irgendwelche Regeln oder Konventionen, ab wann man spezielle Hardware braucht?
 
Vielen Dank für Eure Beiträge. Was ich noch gerne grundsätzlich gefragt hätte: Ab welcher Größenordnung eines Netzwerks braucht man eigentlich spezielle Server-Hardware, wie Xeon- oder Opteron-Prozessoren und dafür spezielle Mainboards? Oder anders gefragt: Mit einem Heimrouter und einer Klasse C IP (192.168.1.1) könnte man theoretisch 254 Geräte (inkl. Server) betreiben. Würde dafür Standard-PC Hardware noch ausreichen oder nicht? Und was kann man über einen Webserver sagen? Bis zu wie vielen Zugriffen aus dem Internet täglich würde normale PC-Hardware ausreichen? Gibt es da irgendwelche Regeln oder Konventionen, ab wann man spezielle Hardware braucht?
Na, die Frage ist so ja falsch.
Zum Einen kannst du auch zu Hause Adressen vergeben, die weit über den Rahmen des alten Class "C" hinausgehen und sodann ist ja nicht gesagt, dass jeder Besitzer eine gültigen IP auch auf den Server zugreift.
Außerdem gibt es ja vollkommen unterschiedliche Services mit unterschiedlichen Anforderungen. Als einfacher Dateiserver begrenzt ja die Festplatten- und Netzwerk-Performance viel eher, als die Leistung der CPU und des RAM.
Als schneller Webserver, auf dem dann auch noch einige Datenbankanwendungen laufen sollen, sieht das nochmal anders aus.

Das kann man also nicht so pauschal beantworten.
 
Na, die Frage ist so ja falsch.
Das kann man also nicht so pauschal beantworten.
Nein finde ich nicht. Man kann sehr wohl Richtlinien geben.
Würde dafür Standard-PC Hardware noch ausreichen oder nicht?
Natürlich reicht so ein PC für diese Sachen aus. Ich betreibe etliche Server und ich kann dir sagen, in der meisten Zeit drehen sie Däumchen. Ich würde mal folgendes sagen: Eine Nextcloud Instanz (DB, Web, PHP etc. auf einer SSD) kannst du locker für 50 Leute betreiben. Aus Erfahrung wird wohl eher dein Internet-Upload das Limit sein.
 
Vielen Dank für Eure Beiträge. Was ich noch gerne grundsätzlich gefragt hätte: Ab welcher Größenordnung eines Netzwerks braucht man eigentlich spezielle Server-Hardware, wie Xeon- oder Opteron-Prozessoren und dafür spezielle Mainboards? Oder anders gefragt: Mit einem Heimrouter und einer Klasse C IP (192.168.1.1) könnte man theoretisch 254 Geräte (inkl. Server) betreiben. Würde dafür Standard-PC Hardware noch ausreichen oder nicht? Und was kann man über einen Webserver sagen? Bis zu wie vielen Zugriffen aus dem Internet täglich würde normale PC-Hardware ausreichen? Gibt es da irgendwelche Regeln oder Konventionen, ab wann man spezielle Hardware braucht?

Naja, man kann den meisten soho-routern auch größere Netze beibringen, statt nen /24 nen 23 und du hast die doppelte menge an Addressen.

Bei Routern ist eher die frage der pps (PacketsPerSecond) die er mit dem gerade aktiven Regelwerk schaft.
Es gibt da auch kein "pi x daumen" festen wert, da es ja sehr unterschiedlich sein kann was 200 Rechner im Netz so machen, wenn die alle nur alle 10 Minuten mal Mails abrufen und ansonsten "lokal" bleiben kann das evtl. sogar noch ne Fritzbox schaffen ...

Für Server gilt das gleiche: Die Frage ist was denn genau gemacht wird und halt auch wie intensiv. Son Xeon E3 ist ja auch nicht so Hyper-Schnell, aber für nen einfachen Fileserver auch für 200 Rechner u.U. völlig ausreichend, und wie pit richtig sagt kommts da dann ja auch auf ein paar andere Eckdaten an.

Generell bedeutet "Serverhardware" ja meist auch was anderes als einfach nur schnell, das können sein:
  • Hardwaredesign auf 24/7 ausgelegt
  • ECC Ram um sicherzustellen das die Daten ohne Fehler verarbeitet werden
  • Ausfallsicherheit z.B. durch redundante Netzteile, RAID e.t.c.
  • Leicht Tauschbare Hardware wie z.B. Lüfter, teilweise "HotSwap"
  • Managementfähigkeit, also irgend ne Lösung um den Remote an/auszuschalten.
  • Evtl. 19" Bauform um mehre strukturiert in nen Rack bauen zu können (Es gibt aber auch sinnvolle Towergeräte für KMU dann meist)
Und auch da kann ich pit nur zu 100% zustimmen, der rest ist eine Frage was genau gemacht wird und vor allem auch wie stark das dann belastet wird. Wir haben nen Webserver inkl. php / mysql für ne kleine interne anwendung die läuft problemlos für ca. 800 Nutzer mit nem dualcore und 8 gig ram, die wird aber von jedem nutzer nur "nen paar mal in der Woche" so wirklich genutzt und ist auch nicht so umfanreich.

Andere intensiv genutzte webanwendungen brauchen für 800 Nutzer aber schnell mal nen dickes separates datenbanksystem und nen loadbalancer.

Kurzum: Das hängt extrem stark davon ab was man machen möchte. Und selbst die gleiche Anwendung bei gleicher Nutzerzahl braucht u.U. unterschiedliche Leistung je nach nutzungsgrad der nutzer e.t.c.
 
Natürlich haben alle meine Vorschreiber recht. Über den Daumen gepeilt sollte aber ein einfacher PC für ein Heimnetzwerk völlig ausreichen. Wenn das Netzwerk 1GBit hat, wovon ich mal ausgehe, dann gehen da eh nur 100MB/s durch. Das schafft heutzutage jede Consumer-Platte. Und auch Webanwendungen für die Familie stellen kein Problem mehr da. Für den Zugriff von außen begrenzt einen hier in Deutschland dann sowieso der Uplink.
Ich würde als an Deiner stelle mit einfacher Hardware starten und zusätzliches Geld lieber in ein RAID und/oder Backup investieren.
 
Vielen Dank für Eure Beiträge. Was ich noch gerne grundsätzlich gefragt hätte: Ab welcher Größenordnung eines Netzwerks braucht man eigentlich spezielle Server-Hardware, wie Xeon- oder Opteron-Prozessoren und dafür spezielle Mainboards? Oder anders gefragt: Mit einem Heimrouter und einer Klasse C IP (192.168.1.1) könnte man theoretisch 254 Geräte (inkl. Server) betreiben. Würde dafür Standard-PC Hardware noch ausreichen oder nicht? Und was kann man über einen Webserver sagen? Bis zu wie vielen Zugriffen aus dem Internet täglich würde normale PC-Hardware ausreichen? Gibt es da irgendwelche Regeln oder Konventionen, ab wann man spezielle Hardware braucht?

Wie schon erwähnt ist Server-HW idr nicht "schneller". Es ist eher eine Sache der Qualität. Es gibt auch IT, bzw. Rechenzentren Konzepte, die auf Consumer HW setzen. Dafür ist auf einem anderen Level dann Redundanz gegeben, so dass man jederzeit so eine Kiste tauschen kann. Auch Gaming HW ist oft sehr Performant für gewisse bereiche. Wir selbst haben im Betrieb Consumer HW in einigen Storageberreichen da wir ohnehin 2x Backups haben und 20+ SAS Platten viel viel Geld kosten im Vergleich zu Sata gedöns.

Wenns dir also nur um Leistung geht, kauf Gaming Zeug. Ist billiger. Bei Zuverlässigkeit, Datensicherheit, Verfügbarkeit - Nimm das Serverzeug :)
 
Man sollte dazu im Hinterkopf behalten, dass Server-Hardware in Sachen Kompatibilität oft wesentlich zickiger als normale PC-Hardware ist. Während z.B. PC-Hardware nahezu jeden RAM-Riegel, jede Karte und jede Festplatte akzeptiert, die die Spezifikation erfüllen, wird die Luft bei Server-Hardware außerhalb der offiziellen Kompatibilitätsliste des Herstellers oft sehr schnell sehr dünn. Und Hardware, die auf der Kompatibilitätsliste steht, ist meist deutlich teurer als alternative Angebote...
 
Hallo

Vorerst nutze ich einen Netbook mit Linux auf der SSD, minidlna läuft perfekt, mit Jails und oder Virtualbox ist mit der kleinen Kiste eher nix.


Code:
Intel(R) Atom(TM) CPU N270   @ 1.60GHz


Speicher:             Gesamt       verfügbar
                              1,4G             1,0G


Am ende würde ich schon gerne eine BSD Box haben, vorübergehend ist dies eine gute Lösung für mich.

Danke für die Anregungen und Tipps es würde mich freuen wenn weitere hinzukommen.

ciao
 
Ein NAS selber bauen würde ich lassen. Du bekommst das kaum effizient hin, von der Bastelarbeit mal abgesehen. Schau dir doch mal die Geräte von Synology an. Da findest du für fast jede Preisvorstellung etwas von Single Platten bis zu großen Systemen. Die Software ist auch von Haus aus sehr flexibel und bietet alles was das Herz begehrt (Samba, Nfs, Cloudbackup, Asterisk, Java, usw.). Nebenbei lassen sich auch leicht Linux Distributionen installieren die dann komplett nach Lust und Laune angepasst werden können. Der große Vorteil ist eben das diese fertigen Lösungen unschlagbar Energieeffizient sind.
 
Ein NAS selber bauen würde ich lassen. Du bekommst das kaum effizient hin, von der Bastelarbeit mal abgesehen. Schau dir doch mal die Geräte von Synology an. Da findest du für fast jede Preisvorstellung etwas von Single Platten bis zu großen Systemen. Die Software ist auch von Haus aus sehr flexibel und bietet alles was das Herz begehrt (Samba, Nfs, Cloudbackup, Asterisk, Java, usw.). Nebenbei lassen sich auch leicht Linux Distributionen installieren die dann komplett nach Lust und Laune angepasst werden können. Der große Vorteil ist eben das diese fertigen Lösungen unschlagbar Energieeffizient sind.

Wir haben hier jetzt verschiede, mal mehr mal weniger einfache und mal mehr mal weniger energieefiziente Lösungen vorgestellt.

Mein hier vorgestelltes ASROCK-Board ist ähnlich teuer wie ein Synology, genauso energieffizient da fast genau die gleiche Technik verwendet wird (Hell, einige haben sogar den gleichen Prozessor auf dem Board).

Ich habe null, nicht die geringste Idee wie man trotzdem so einen Schwachsinn hier schreiben kann. Arbeitest du für Synology oder bekommst von denen Provision oder so?
 
Mein hier vorgestelltes ASROCK-Board ist ähnlich teuer wie ein Synology, genauso energieffizient da fast genau die gleiche Technik verwendet wird (Hell, einige haben sogar den gleichen Prozessor auf dem Board).

Ich habe null, nicht die geringste Idee wie man trotzdem so einen Schwachsinn hier schreiben kann. Arbeitest du für Synology oder bekommst von denen Provision oder so?
Schön wäre es wenn ich eine Provision bekommen würde, nur dumm das ich einen Reflink oder Shop vergessen habe zu nennen ;)

Es war ja nur eine zusätzliche Idee da die Geräte recht einfach zu benutzen sind und man nicht erst seine Komponenten zusammensuchen muss. Ich selbst habe viele Jahre damit verbracht ein NAS selber zu bauen und optimal einzurichten das es zum einen flexibel, stabil und anpassbar ist. Aber je nach eigenen Anforderungen kann das leichter oder schwerer werden. Spätestens beim automatischen Abgleich zwischen Cloudspeicher in beide Richtungen wird es kompliziert und oft wenig zuverlässig wenn man da einen eigenen Skript zusammenbaut das mit rsync versucht zuverlässig beide Seiten abzugleichen. Fertige Software bietet da eine zwei Klick Möglichkeit. Man sollte zumindest die Vorteile und Nachteile beider Lösungen im Hinterkopf haben. Synology war nur genannt weil ich damit viele Jahre positive Erfahrungen gemacht habe, aber damit mir kein Mitarbeiterstatus unterstellt wird sei auch noch mal Dlink und co genannt die ähnliches anbieten.
 
Puhh keine Ahnung, ich hab ... zwei stunden oder so gebraucht für FDE, Samba und NFS und das Backup per LTO damals und villeicht ne Stunde für den Zusammenbau der Hardware inkl. demontage des alt-pcs.

Und ne Woche vorher halt noch etwas mehr Zeit um die Komponenten zu finden ... villeicht so weitere 2,3 Stunden?

Das definiert sicher jeder irgendwie anders für sich, kommt natürlich auch auf dem umfang an e.t.c.

Hatte gerade noch von jemanden auf twitter gelesen bei dem die Synology-Hardware (Mainboard) versagt hatte und bei dem die Daten dann "weg" waren da man die wohl nicht einfach in ein anderes NAS einbauen kann. Etwas google hat zu tage gefördert das die da offenbar X verschiedene Linux Dateisystem-Technologien (RAID, LVM e.t.c.) größtenteils undokumentiert übereinanderstülpen. Lässt sich sicher auch irgendwie dann wieder zusammenbasteln, aber meins wäre sowas nicht.

Gilt auch für die andere Software die da so geboten wird "Für den Laien ganz nett" - aber wenn ich irgendwo mit Daten hantiere die mir etwas Wert sind, ists mir schon wichtig zu wissen was die Scripte da jetzt so genau machen e.t.c. - ich trau dem was ich mir überlegt habe auf jedenfall deutlich mehr als irgendwelchen krams den irgendjemand bei synology mal geschrieben hat.

Ich weiß auch z.B. nicht welches Dateisystem das Synology da jetzt fürs verschlüsselte Backup z.B. auf nen USB-Medium nutzt. Kann ich das irgendwie mit nem anderen PC auslesen? Brauch ich da wieder irgend ne Zusatzsoftware? Allein das zu recherchieren daurt länger als https://www.openbsd.org/faq/faq14.html#softraid "Encrypting External Disks"

Also "zeitersparnis" - k.a. wenn ich mir das alles von grundauf aneignen muss, villeicht, aber ich glaube das ist hier für die wenigsten der fall.

Das ist auch sonne Sicherheitsfrage für mich - ich nutze extra OpenBSD um nen recht sicheren Webserver im internet zu betreiben, und dann gebe ich aber irgend nem zusammengefrickelten synology-os wieder per ssh-keys zugang zu diesem Webserver um die Sicherungen zu fahren? Das ist doch irgendwie dann wieder ne große Lücke in der kette, dann kann ich mir da auch gleich nen Ubuntu installieren und in ein anderes Forum schauen ;)

Letztendlich habe ich auch schon öfters mit der Oberfläche von som Ding rumhantiert, das ist auch einfach nicht meins, manche sachen die ich unter Linux oder OpenBSD kurz in die Kommandozeile haue, nen Nutzer anlegen oder ne Samba-Freigabe hinzufügen oder so, dauern dort über die Weboberfläche gefühlt ewig.

Bedenke auch, wir sind hier in einem BSD Forum, also einer Gruppe von menschen die grundsätzlich gerne Systeme selbstadministriert und viele auch die vorteile schätzen.
 
/*snip

Hatte gerade noch von jemanden auf twitter gelesen bei dem die Synology-Hardware (Mainboard) versagt hatte und bei dem die Daten dann "weg" waren da man die wohl nicht einfach in ein anderes NAS einbauen kann. Etwas google hat zu tage gefördert das die da offenbar X verschiedene Linux Dateisystem-Technologien (RAID, LVM e.t.c.) größtenteils undokumentiert übereinanderstülpen. Lässt sich sicher auch irgendwie dann wieder zusammenbasteln, aber meins wäre sowas nicht.

*/snip

Ich stimm dir mit der Grundaussage 100% zu, aber hier muss ich doch was loswerden:

Keine sorge ich arbeite nicht für Synology, ich hatte nur bei Kunden damit zu tun. Die Dinger nehmen ganz normale Linuxtechniken wie DM, LVM, MD.. (alles lässt sich bei Linux auf den Devicemapper zurückführen). Mit nem 0815 Linux Rescue System dass halbwegs aktuelle Versionen an Board hat lässt sich damit alles einfach mit Standardtools zusammenbasteln.
Das ist ähnlich als würde ich bei FreeBSD gmirror, geli und gjournal übereinander stapeln (von der Komplexität, nicht von der Funktion, da gibts halt kein Equivalent). Mit einem Dateisystem hat das noch nichts zu tun.
 
Zurück
Oben