NAS Assembly, welches Board, wie viel RAM?

Mein Vorschlag wäre dieser:

Case: Nanoxia Deep Silence 5 Rev.B
Mainboard: ASUS AM1M-A
CPU: AMD Athlon 5350
CPU Kühler: Arctic Alpine M1-Passiv
Memory: 2 × Crucial CT102472BD160B.18FED (1600MHz, 8GB, ECC) DDR3-RAM
USB: USB 3.0 onbord
Bootdisk/ZIL/ARC2(10/10/50/frei Over-Provisioning ): Samsung 850 Pro 2,5" 128 GB
Storage: 7 × Seagate ST3000DM001 3 TB (3,5 Zoll, 7200rpm, SATA III) RAIDZ2
Power supply: Listan BN220 Be Quiet Pure Power L8 PC-Netzteil (ATX 2.4, 300 Watt)
SAS/SATA Contoller IBM m1015 8 Port
NIC: 2 x Intel Gigabit CT
Cables: SAS zu SATA

Gruss

Jörg
 
Die C2x Avaton Prozessoren, wie sie auf dem C2550D4I sitzen, haben einen Hardware Bug, der sie nach einiger Zeit brickt.

Für das C2550D4I kam letztens ein Firmware Update, dass helfen sollte, so lange es noch nicht zu spät ist:
ftp://europe.asrock.com/BIOS/Server/C2550D4I(00.30.00)BMC.zip

Leider gibt ASRock keine Prüfsummen mit an, deshalb hier sind Meine:
Code:
SHA256 (C2550D4I(00.30.00)BMC.zip) = fac1ebc5d63d4128c90188354787a2d8b228c68ee3c46f750cf10154f0ded92b
SHA512 (C2550D4I(00.30.00)BMC.zip) = 5c216d679868bccf7ed4e57fa989b30b58305b40676c7b435997676ea9860f0b102a3115dd1bd8d668473a835217ce68f6613cb6eee92aa8c4e4b97740a16b0e
 
Ich hab ein "Supermicro A1SAi-2550F" und bin somit auch betroffen. Ich werde Supermicro mal per Mail kontaktieren und schauen, was sie dazu sagen.
 
Ich hab ein "Supermicro A1SAi-2550F" und bin somit auch betroffen. Ich werde Supermicro mal per Mail kontaktieren und schauen, was sie dazu sagen.
Das C2550D4I ist so einem Jahr nach dem Firmware Update verstorben. Den Verschleiß vergangener Tage kann man halt nicht wegpatchen.

Ich habe es dann mit einem Supermicro A1SAi-2550F ersetzt. Was übrigens immer noch verdammt Teuer ist, wenn man daran denkt wie alt die Technik inzwischen ist.
 
Die Atom C2xxx haben nen Hardwarefehler, der ihnen einen frühen Tod beschert. Der Clockausgang des LPC Buses ist nicht wirklich so belastbar, wie im Datenblatt steht. Manche Boards haben eine Revision, die diesen Fehler kompensiert indem sie mit dem Clocksignal nicht direkt den Bus treiben sondern noch einen Verstärker dazwischen klemmen. Leider das BIOS über den LPC Bus angeschlossen d.h. ohne bootet das System nicht mehr. Bei der Uptime solcher Systeme kann es also sein das man sein seit Wochen/Monaten untotes Board hat ohne es zu wissen, weil der LPC Bus im Normalbetrieb oft nicht gebraucht wird.

Ich habe mein schönes altes NAS mit 6 x SATA + 8 x SAS leider die Tage getötet *schnüff* (ESD?). Sein Nachfolger wird ein X470D4U mit 3rd Gen Ryzen und 32GB ECC RAM. Es ist das günstigere der beiden AM4 Mainboards mit IPMI die es bis jetzt gibt. Sollte Interesse bestehen melde ich mich noch mal sobald es läuft.
 
  • Like
Reaktionen: jmt
dass mein Budget das dieses Jahr nicht mehr her gibt
So langsam denke ich ZFS ist nicht das richtige für mich.
vielleicht kann ich dich doch ein wenig ermutigen, denn abseits aller Theorie läuft mein Fileserver mit für mich vollkommen ausreichender Performance vor sich hin und ich möchte nicht mehr ohne ZFS sein.
Code:
Extended brand string: "Intel(R) Xeon(R) CPU            5150  @ 2.66GHz"
CLFLUSH instruction cache line size: 8
Hyper threading siblings: 2

...
mem_total:   =   8589934592 (   8192MB) [100%] Logically total memory

Zur Erklärung: seit vielen Jahren lief mein Fileserver auf einer Core-Duo HW mit 4G RAM. Das System liegt auf USB-Stick, die Daten auf einem ZFS-Raid mit zwei Platten Redundanz. Einige Verzeichnisse, auf die das System schreiben will, liegen auf dem ZFS und per Link im System. Das System selbst ist in UFS auf dem Stick (ein Klon liegt parat), SWAP nutze ich nicht. Das Ding läuft mit einem FreeBSD 7 und weil es eben läuft, wird es nie angerührt und als die alte HW nun nicht mehr recht wollte, vor allem größere Platten gefragt waren, griff ich einen PC aus unserem "Schrott-Vorrat", testete und bastelte dort hinein, was ich wollte, möglichst ohne große Umbauten.
Das Gehäuse hatte keinen Platz für die vielen Platten und obwohl ich ja diese gute Erfahrung mit dem Fahrradschlauch gemacht hatte, war selbst das mir zu viel Mühe und ich packte die Platten einfach eine über die nächste und legte an den Rändern jeweils solche Gummi-Streifen unter, die man als Matten im Baumarkt kaufen kann und die gedacht sind, unter Waschmaschinen verbaut zu werden.
Außerdem kaufte ich leise Lüfter und setzte die anstelle der vorhandenen.
Mit zwei PCs greife ich per GB-Lan zu und nutze NFS, drei Sat-Receiver liefern ihre Aufnahmen ebenfalls über NFS ab, aber höchstens 100M-Lan. Einige Rechner hängen über 100M und WLan dran, schauen Filme oder speichern Daten. Das geht alles und zwar sehr stabil. Der alte Samba-Server versorgt zuverlässig gelegentliche Gäste und einige GNU/Linux-Rechner, der alte AFPD funktioniert noch mit unseren älteren Macs. Ich bin froh damit.

Denn: es war für mich wichtig, ausreichend Platten zu kaufen und das sprengte letztlich auch mein Budget, das ich bereit war, dafür auszugeben. Ich kaufte ja nicht nur die sechs WDC WD40EFRX-68N32N, die nun aktiv sind, sondern gleich noch zwei als Reserve, weil ich gelernt habe, dass das einfacher ist, wenn nach Jahren mal ein Ersatz gebraucht wird, plus, mehrere große externe Platten für zusätzliche Backups (die ich allerdings zugegebenermaßen nur schleppend durchführe).
Was soll ich sagen: der Gedanke war natürlich: Festplatten first, ZFS ganz wichtig mit zwei Platten Redundanz und den Rest, kann man dann immer noch neu machen, wenn Lust und Laune und Kohle stimmen. Weil bisher alle drei fehlen, läuft das Ding einfach immer noch weiter und reicht mir vollkommen aus.
Es macht ja quasi nichts. Die paar Dienste, ganz wenige, ganz kleine Scripts und eben die Daten bereit halten.
 
vielleicht kann ich dich doch ein wenig ermutigen, denn abseits aller Theorie läuft mein Fileserver mit für mich vollkommen ausreichender Performance vor sich hin und ich möchte nicht mehr ohne ZFS sein.
Ich glaube Du musst noch mal auf die Daten schauen. Das NAS läuft seit Jahren. Inzwischen mit dem 2. Mainboard. Gestern habe ich eine Festplatte nachbestellt, weil ich auch dort einen Ausfall habe. Das System läuft inzwischen von einer alten 840 Pro statt vom Stick.
 
hi

ich habe seit ein paar monaten das astrock h370m-itx / ac als nas board mit den gen8 i3 und 16 gb ram am laufen.

ich kann nur sagen geil.

6x sata on board ( 1x geshare mit ne nve slot ) 2x intel gbit on board + wifi

kann ich nur empfehlen . freebsd 11 und 12 rennen out of the box.

einzigst eine zusätzliche 10 gbit melanox karte habe ich noch , gebraucht , eingebaut fuer iscsi

holger
 
Wie ich das so lese, scheint sich jeder sein NAS selbst zusammenzubauen. Gibt es denn auch preiswerte fertige Server? Oder ist man beim Zusammenbauen soviel günstiger unterwegs?
 
Kleine Randnotiz ich war immer zu Faul das System auf die 840 Pro umzuziehen. Bis es nicht mehr bootete. Ich dachte schon der Stick sei verreckt aber nein, es sind die USB Ports vom Supermicro boards. Ich konnte ohne einen einzigen Lesefehler ein Image ziehen und das System auf die SSD transferieren.
 
Wie ich das so lese, scheint sich jeder sein NAS selbst zusammenzubauen. Gibt es denn auch preiswerte fertige Server? Oder ist man beim Zusammenbauen soviel günstiger unterwegs?
Naja, Du hast halt die Wahl:
Die den Linux-basierten QNAP Geräte sehen immer ganz passabel aus machen aber IMHO für mich die falschen Kompromisse. Mit einfacher Redundanz kann ich nicht so gut schlafen.

Von ix-Systems bekommst Du die TrueNAS Geräte, i.e. FreeNAS mit Extras. Damals war da nichts mit dabei. Die günstigen Lösungen haben nur 4 Platten, das ist mir eine zu wenig, das reicht nur für ein RaidZ1.
Heutzutage findest Du das FreeNAS Mini XL für bis zu 8 HD. Der Basispreis sieht vernünftig aus. Aber wenn man meine 5×3TB da drauf Konfiguriert ist man wieder bei USD 2000 ohne sonstige Extras.

Für selbständige und kleine Untenehmen, die auch die Arbeitszeit für den Eigenbau mit einrechnen sehen die FreeNAS Mini aber sehr attraktiv aus.
 
Wie ich das so lese, scheint sich jeder sein NAS selbst zusammenzubauen. Gibt es denn auch preiswerte fertige Server? Oder ist man beim Zusammenbauen soviel günstiger unterwegs?

Es gab immer mal wieder Angebote für den "Home" bereich aber AFAIR gab es immer ein paar Einschränkungen

  • Letztlich doch irgendwo zu teuer (Da man sich keine konkurenz zum echten Servergeschäft aufbauen möchte)
  • Zu hoher Stromverbrauch
  • Zu wenig gewünschte Features (Da man sich keine konkurenz zum echten Servergeschäft aufbauen möchte)
  • Zu unflexibel
Alternativ gibst natürlich noch diverse "NAS" Geräte im bezahlbaren bereich wie das erwähnte qnap bei denen man dann aber wieder auf ein stark eingeschränktes Betriebsystem reduziert ist.
 
Wie ich das so lese, scheint sich jeder sein NAS selbst zusammenzubauen. Gibt es denn auch preiswerte fertige Server? Oder ist man beim Zusammenbauen soviel günstiger unterwegs?
Bei mir werkelt ein HP Proliant Microserver Gen 8 als NAS. Die CPU habe ich gegen einen Intel Xeon 1220L V2 getauscht, 16 GB RAM und einen LSI 9211-4i als HBA verbaut. Den LSI habe ich natürlich mit der passenden IT-Firmware beglückt...
Das Ding läuft und läuft. Ach ja, aktuell ist auf nem USB-Stick FreeNAS installiert. Vier 4 GB Seagate Iron Wolf HDDs bilden z.Z. einen RAIDZ2-Pool.
Als Test-NAS werkelt bei mit ein HP Proliant Microserver Gen 7 befeuert mit FreeBSD 12, der hat zwar nur 8GB aber ebenfalls ein LSI 9211-4i.
Leider hat das Test-NAS kein MGMT verbaut, sodass man notfalls einen Monitor anschliessen muss. :-( Den Nachteil teilt er sich leider auch mit dem Gen 10... Sprich für mich ist der Gen 8 bisher der optimale kleine Server. Einzig die nur vier HDD-Slots und einsame PCIe-Slot trügen das Bild etwas. Ich würde schon ganz gerne auf 10GBit ümrüsten, die Karten und Kabel habe ich. Mir fehlt nur der blöde Slot. :-)
 
Wie ich das so lese, scheint sich jeder sein NAS selbst zusammenzubauen. Gibt es denn auch preiswerte fertige Server? Oder ist man beim Zusammenbauen soviel günstiger unterwegs?
Es war einmal, vor langer, langer Zeit, da hatte ich einen Thecus gekauft. Ich glaube, es war der hier: http://www.thecus.com/product.php?PROD_ID=5
Das Ding ist ein kleiner Kasten, der super laut ist.
Sodann hatte er ein GNU/Linux, das ziemlich verschlossen war. Die Platten lagen in einem RAID5 als ein md-Gerät und obwohl ich wirklich nur ganz wenige Sachen für mich anders haben wollte, musste ich da erhebliche Klimmzüge machen. Das ging mir tierisch auf den Geist, funktionierte aber wirklich gut. Vor einigen Monaten dachte ich daran, es mal mit FreeNAS darauf zu versuchen und entschied mich dann aber, es doch lieber zu verschenken.
Was nun für mich wirklich schlimm ist, ich kann gar nicht mehr sagen, was mich denn so gestört hat, dass ich schließlich ein eigenes NAS mit FreeBSD zusammenbaute. Es war aber wirklich so, dass es Dinge gab, die ich nicht mochte und nicht (einfach) ändern konnte. Der selbst gebaute NAS läuft ja nun mit inzwischen erneuerter HW quasi unverändert und nicht angetastet auch seit über zehn Jahren. Bei weitem nicht alles, was mir damals vorschwebte und was ich alles damit mal probieren wollte, habe ich tatsächlich gemacht.
Aber ja, ich bin glücklicher damit gewesen, als mit dem gekauften Thecus und seinem fix und fertig System.
 
eine zusätzliche 10 gbit melanox karte
Welches Modell genau und welche Firmware fährst du darauf? ...und läuft sie stabil bei dir?

scheint sich jeder sein NAS selbst zusammenzubauen
Da gehts nicht um günstig, sondern um die Extrawünsche bzw. Konfigurationsfreiheit, welche das Fertigzeug einschränkt. ;)

Mit einfacher Redundanz kann ich nicht so gut schlafen.
Sehe ich genauso.
 
Bei mir laufen die alten ConnectX-2 Karten gut. Ich habe auch ne QLogic 2 x 10Gb/s Karte, aber die läuft nur in PCIe 2.0 Slots und ist auch ansonsten zickig. Außerdem scheint der Treiber nur einen IRQ zu verwenden was du bei 10Gb/s NICs nun echt nicht willst.
 
cLOM8214 1/10GbE Controller hier. Hat von Anfang an nicht gezickt.

ConnectX-2 -> Die sind zickig bzw. eher manche Mainboards, mit denen ich testete.
 
Zurück
Oben