Beratung zu neuer Server Hardware

h^2

hat ne Keule +1
Hallo zusammen.

Mein momentaner FreeBSD Homeserver ist etwas in die Tage gekommen und soll demnächst ersetzt werden. Der Server dient vor allem als Storage für lokalen Zugriff (NFS). Außerdem hostet er eine Nextcloud und ein paar andere kleinere Dienste in jails.

Storage

Die größte Änderung soll sein den 3x4TB SATA raid durch einen 4x4TB NVME raid zu ersetzen. Außerdem soll eine 10Gbit (RJ45) Netzwerkkarte hinein. In der Kombination sollen die Zugriffe von meinem Desktop (der auch über 10Gbit angeschlossen wird) deutlich schneller werden, zB das Browsen großer Fotosammlungen (Generieren von thumbnails). Außerdem sollen die Zugriffe aus dem Netzwerk nicht so stark mit der Nextcloud konkurrieren etc.

Zum Anschluss der vier NVMEs würde ich eine Adapterkarte wie dir hier nehmen:

Dann habe ich noch einen NVME auf dem Mainboard frei, falls ich später das RAID um eine NVME erweitern möchte.

Q1: Hat jemand Erfahrungen mit diesen Adapterkarten und NVME-Raids im Allgemeinen? Muss ich was bei der ZFS-Konfig beachten? Ein extra Log- oder Cache-Device brauche ich ja wahrscheinlich nicht mehr.

Netzwerk

Da die Mainboards mit integrierter 10Gbit-karte unverschämt teuer sind, dachte ich daran, zwei von den Intelkarten hier zu bestellen (einmal Server, einmal Desktop):

Habe dazu diesen Fred gefunden: https://forums.freebsd.org/threads/intel-x540-10-gbe-no-carrier-detected.88578/
Fazit: scheint jetzt zu gehen.

Mainboard und CPU

Hier bin ich mir noch ziemlich unsicher. Ich hätte gerne etwas, das möglichst wenig Strom verbraucht, aber eben auch genung PCI Steckplätze für o.g. Karten hat. Vielleicht irgendein AM4-Board und so eine CPU dazu: https://geizhals.de/amd-ryzen-5-pro-3350ge-yd335bc6m4mfh-a2413581.html ?
Das ist aber noch Zen+, also eine sehr alte Architektur. Warum gibt's von den neueren keine CPUs mit niedriger TDP, bzw. warum finde ich die nirgendwo (ich weiß dass es die gibt)?

Wäre hier über Empfehlungen sehr dankbar!

Gehäuse

Irgendein Server-Gehäuse, das normale ATX board nimmt. Ich habe noch genug Höhenheiten im Rack frei. Nice wäre ein Netzteil, das auch im niedrigen Wattbereich noch effizient ist. Auch hier bin ich gespannt auf eure Erfahrungswerte!

Hört sich das alles stimmig an?

Vielen Dank schonmal!
 
Plan auf alle Fälle ein, dass der NVME auf dem Mainboard für das "Bootlaufwerk" gebraucht wird. Erfahrungsgemäß ist das booten von solchen Adapterkarten nicht unbedingt möglich, auch wenn in der Beschreibung steht, dass es geht. Mal abgesehen davon, dass die Angaben bei Amazon zu der Karte etwas wirr sind.
 
  • Like
Reaktionen: h^2
Q1: Hat jemand Erfahrungen mit diesen Adapterkarten und NVME-Raids im Allgemeinen?
Keine besondere Erfahrung, bei Karten mit nur einem Slot musst du nichts beachten. Bei mehreren Slots darauf willst du aber bifurcation kompatible Karten (https://www.amazon.de/ASUS-Hyper-Interface-Adapter-Internal/dp/B0863KK2BP) haben und keinesfalls switched oder HW-raid. Das setzt auch ein kompatibles Mainboard voraus, ermöglicht dir aber maximalen Durchsatz und den Zugang zu Riser- (https://riser.maxcloudon.com/de/10-bifurcated-risers) sowie Kombikarten (z.B. 10G NIC mit NVME-Slots) und bestmögliche Ausnutzung der PCI-E Slots und deren Lanes. In Asus-Sprech verbirgt sich bifurcation oft als pcie-raid/nvme-raid. Genau einlesen für den Überblick.
Aktive Kühlung sollte man in Betracht ziehen, andererseits rennen die Seagate FireCudas vom Hörensagen und entgegen des Namens recht kühl.

Muss ich was bei der ZFS-Konfig beachten?
autotrim sollte auf dem pool dann gesetzt werden.


Da die Mainboards mit integrierter 10Gbit-karte unverschämt teuer sind, dachte ich daran, zwei von den Intelkarten hier zu bestellen (einmal Server, einmal Desktop):

SFP+ braucht weniger Strom als -T. Ein Switch ist ratsam, wenn die Karten bei Direktverbindung mangels LLDP die Ports dichtmachen. Letzter Abschnitt -> https://calomel.org/freebsd_chelsio_toe_firewall.html
Kann bei Intel problemlos 'so' klappen, weiß ich aber nicht.

Vielleicht irgendein AM4-Board und so eine CPU dazu: https://geizhals.de/amd-ryzen-5-pro-3350ge-yd335bc6m4mfh-a2413581.html ?
Das ist aber noch Zen+, also eine sehr alte Architektur. Warum gibt's von den neueren keine CPUs mit niedriger TDP, bzw. warum finde ich die nirgendwo (ich weiß dass es die gibt)?
Wenn Geld keine Rolle spielt, nimm AM5 oder ab Epyc Rome Single Slot. AM4 ist immer noch ausreichend gut für builds. Halbwissen: Die findest du wahrscheinlich nicht, weil das Mobil/Embedded/fest verlöteter Kram ist. TDP heißt nur, was du unter Maximallast wegkühlen musst. Im Umkehrschluß heißt es, dass die CPUs sich im idle nicht groß unterscheiden und man eigentlich nur passend zur angeplanten workload möglichst viele Kerne raussucht und am festgelegten Budget die Klasse ryzen5,7,9...
Nice wäre ein Netzteil, das auch im niedrigen Wattbereich noch effizient ist.
Platin-Klasse, den Gesamtbedarf bei Vollast zusammenrechnen, ggf. gute 100W Luft nach oben dimensionieren und dann Testberichte lesen. Überlegen, ob man in Zukunft noch eine GPU reinpacken würde, weil das mit bifurcation ja doch ganz geil ist...und tzja...dann muss man höher dimensionieren. :)

Edit: das mit dem Booten von Karten kann ein Problem sein, man kann es aber auch billig umgehen, indem man einfach von kleinen SATA-SSDs bootet und die NVMes rein als storage nutzt. Ich bevorzuge so eine modulare Trennung generell und auf die paar Watt einer SSD kommts auch nicht an.
Edit2: Es kann sich zukunftsträchtiger lohnen, direkt ein Board mit 2 NVMe-Slots zu nehmen, weil man damit jede Länge stecken kann. Bei Karten ist meist bei 2280 zappe.
 
Zuletzt bearbeitet:
  • Like
Reaktionen: h^2
Plan auf alle Fälle ein, dass der NVME auf dem Mainboard für das "Bootlaufwerk" gebraucht wird. Erfahrungsgemäß ist das booten von solchen Adapterkarten nicht unbedingt möglich, auch wenn in der Beschreibung steht, dass es geht. Mal abgesehen davon, dass die Angaben bei Amazon zu der Karte etwas wirr sind.
Danke für den Tipp! Das sollte ja kein Problem sein. Dann kommt eine Karte aufs Mainboard und in der Adapterkarte bleibt erstmal ein Slot frei!
Keine besondere Erfahrung, bei Karten mit nur einem Slot musst du nichts beachten. Bei mehreren Slots darauf willst du aber bifurcation kompatible Karten (https://www.amazon.de/ASUS-Hyper-Interface-Adapter-Internal/dp/B0863KK2BP) haben und keinesfalls switched oder HW-raid.

Auf der Hersteller-Homepage heißt es zu der Karte:

Also support other vendors’ motherboards via PCIe bifurcation in BIOS setting

Jetzt muss ich nur gucken, dass das Board das kann. Habe so ein "feature" bis jetzt noch in keiner Vergleichstabelle gefunden. Gibt es bestimmte Marken, die das eher können als andere? Finde ich das in den Herstellerangaben?

Aktive Kühlung sollte man in Betracht ziehen,

Hat die Karte!

autotrim sollte auf dem pool dann gesetzt werden.
Stimmt, das sollte ich machen! Wäre vielleicht auch auf dem Desktop sinnvoll? Habe die Option noch nie benutzt.

SFP+ braucht weniger Strom als -T. Ein Switch ist ratsam,
Ich habe aber schon Cat7 in der Wohnung verlegt und der Switch hat auch extra zwei 10GBase-T ports :)

TDP heißt nur, was du unter Maximallast wegkühlen musst. Im Umkehrschluß heißt es, dass die CPUs sich im idle nicht groß unterscheiden und man eigentlich nur passend zur angeplanten workload möglichst viele Kerne raussucht

Ich höre das oft, aber so ganz erschließt sich mir das nicht. Ich dachte, für die Modelle mit niedrigerer TDP werden auch daraufhin ausgewählt, mit niedriger Voltage zu laufen. ZB hat diese CPU:
eine "cTDP" von 45W, damit kann man wohl einstellen, dass die CPU dauerhaft gedrosselt wird.

Ich kaufe mir inzwischen meine Server gebraucht bei https://www.servershop24.de/ Dann noch neue Platten rein und gut. Waere jedenfalls eine Alternative und man bekommt dort schon richtig gute Hardware zum guten Preis.


Danke für den Hinweis, allerdings sind das ganz andere configs, als die die ich hier beschrieben habe.
 
Zum Thema Gehäuse:

Das sind zwei die ich mir geholt hatte, lassen gut Luft durch.
Die Fertigungsqualität ist auch nicht all zu schlecht trotz des niedrigen Preises.

Nur bei den Schienen hab ich noch nichts brauchbares gefunden, da hab ich im Moment einfach die hier genommen (hatte die noch rumliegen):
 
Jetzt muss ich nur gucken, dass das Board das kann. Habe so ein "feature" bis jetzt noch in keiner Vergleichstabelle gefunden. Gibt es bestimmte Marken, die das eher können als andere? Finde ich das in den Herstellerangaben?
Serverboards unterstützen es öfter, 'consumer' sollte sich aber annähern. Bei Supermicro habe ich es im manual auch schon mit Tippfehler 'birfucation' auf nem älteren Board gesehen. ASUS und GigaByte sollte das mittlerweile auf allen Boards haben. Wenn du da was siehst mit 2x8 oder 4x4/PCI-Split/PCI-E-RAID/bifurcation, dann beschreibt es genau das.

Wäre vielleicht auch auf dem Desktop sinnvoll? Habe die Option noch nie benutzt.
Ja, sobald auch nur eine SSD in nem (Misch)pool ist, ist das sinnvoll.

Ich habe aber schon Cat7 in der Wohnung verlegt und der Switch hat auch extra zwei 10GBase-T ports
Ok, dann ist das der geringere Aufwand.

Ich höre das oft, aber so ganz erschließt sich mir das nicht.
Runtertakten, Kerne ausschalten, etc. man wird einen kleinen Unterschied sehen zwischen einem idle ryzen5 und ryzen9 im einstelligen Wattbereich. Signifikant anders ist es, wenn beide auf Vollgas laufen und das hat man beim Homeserver aber eher selten.
Detailwissen zu den Feinheiten habe ich nicht. Wer undervolten will, kauft sich eher keinen ryzen9, es sei denn es geht um custom-Kühlung und um den Boosttakt unter Vollgas länger halten zu können.
 
Vom Hörensagen liefert https://c-payne.com/ auch gute Ware. Ich selbst habe das X16 to 4X4 Set von maxcloudon schon länger auf einem Asus X570 Pro und bin super zufrieden, "just works".
Zum Überfliegen und passende mainboards rauspicken:
 
nachdem ich neue HW kaufen musste und diese nun für lange Zeit meine letzte sein soll (was ich allerdings jedes mal denke), habe ich mich für so etwas entschieden:
Weiß nun nicht, wie weit das hier überhaupt passt, weil ich so viele Dinge gar nicht verstehe. Aber bei diesem MB ist so ein nvme-PCI-Adapter dabei gewesen. Wenn er gleich mit geliefert wird, sollte er ja auch kompatibel sein. Laut Beschreibung bildet er aber die installierten nvme als RAID ab, was mir persönlich dann nicht so gut gefallen würde. Aber immerhin sagen die, dass man davon auch booten könne.

Mangels Masse (ich habe nicht so viele nvme, dass sich das lohnen würde), habe ich das Ding nicht in Gebrauch und auch nicht getestet.
 
Serverboards unterstützen es öfter, 'consumer' sollte sich aber annähern. Bei Supermicro habe ich es im manual auch schon mit Tippfehler 'birfucation' auf nem älteren Board gesehen. ASUS und GigaByte sollte das mittlerweile auf allen Boards haben. Wenn du da was siehst mit 2x8 oder 4x4/PCI-Split/PCI-E-RAID/bifurcation, dann beschreibt es genau das.

Leider habe ich ziemliche Probleme entsprechende Boards zu finden. Meistens gibt es garkeine Angaben in den Manuals. Manchmal steht dann da explizit, dass er 2x8 bifurcation kann aber nicht 4x4. Oder es geht dann 4x4 auf dem 16x slot, aber dann gibt es keinen weiteren Slot der mindestens 4x hat für die 10Gbit-Karte...

edit: Asus hat hier eine Übersicht, wow:

nachdem ich neue HW kaufen musste und diese nun für lange Zeit meine letzte sein soll (was ich allerdings jedes mal denke), habe ich mich für so etwas entschieden:
Weiß nun nicht, wie weit das hier überhaupt passt, weil ich so viele Dinge gar nicht verstehe. Aber bei diesem MB ist so ein nvme-PCI-Adapter dabei gewesen. Wenn er gleich mit geliefert wird, sollte er ja auch kompatibel sein. Laut Beschreibung bildet er aber die installierten nvme als RAID ab, was mir persönlich dann nicht so gut gefallen würde. Aber immerhin sagen die, dass man davon auch booten könne.

Mangels Masse (ich habe nicht so viele nvme, dass sich das lohnen würde), habe ich das Ding nicht in Gebrauch und auch nicht getestet.
Ja, in dem Segment findet man das öfter. Wobei es eben neben bifurcation (die JBOD erlaubt) auch herstellerspezifische extensions für CPU/Chipsatz-basiertes RAID gibt, was ich ja auf jeden Fall nicht will.


Ich habe jetzt mal geguckt, ob ich doch ein Board finde, wo ich entweder 4-5 NVMEs direkt draufpacken kann und/oder direkt eine 10GBit-Karte drauf habe.
Unter 500€ habe ich jetzt (nur) dieses Intel-Board gefunden:
Es hat 5 native 4xPCIe-NVME ports und eine onboard 10Gbit. Und außerdem noch einige PCIe lanes frei (nur einer der Stecker wird mit einem der NVME-Ports geteilt laut Handbuch). Leider steht in der Doku nur, dass es im BIOS eine bifurcation Option gibt, aber nicht welche Modi unterstützt werden. Brauche ich ja aber eigentlich auch nicht, wenn das Board das abdeckt.

ABER jetzt habe ich gesehen, dass die Netzwerkkarte eine Marvell AQtion AQC113CS ist, welche anscheinend nicht von FreeBSD unterstützt wird (obwohl die Generation davor schon unterstützt wird):
Auf Linux geht's und selbst NetBSD hat einen funktionierenden Treiber:

Es ist zum verrückt werden :(
 
Wie gesagt habe ich das X570: https://www.asus.com/de/motherboards-components/motherboards/prime/prime-x570-pro/
Zwei Slots NVMe onboard bestückt und den ersten PCI-E port auf 4x4 gesetzt, da die riser-Karten dran für 10G und HBAs. Randbemerkung: Unter PCI-E 4.0 sollte man eh nicht splitten, die Geschwindigkeit wird dann zu mickrig für die weiteren Karten.

Die Liste von ASUS hast du ja gefunden. Auf der Amazon-Seite sind viele Leute, die rummeckern, dass die Karte nicht funktioniert und sie nur slot1 sehen. Das ist exakt der Effekt, wenn das Board kein bifurcation kann oder es nicht eingestellt ist.

Etwas aktueller: https://www.asus.com/us/support/FAQ/1037507/


Supermicro sollte das in allen Boards der letzten 8,9,10(?) Jahre haben.
 
So. Das mit der Bifurcation ist mir zu unsicher habe ich entschieden, und werde lieber auf ein Board setzen, dass direkt genug NVME-Plätze mitbringt. Um Reserve zu haben mindestens 5. Leider gibt es das bei AMD so gut wie gar nicht, bei Intel aber häufig, weswegen ich wohl auch zu Intel wechseln werde. Momentan bin ich auf folgende Hardware konvergiert:


Das hat sogar 6 NVME Steckplätze, die gleichzeitig verwendet werden können.


4C+4T; 35W TDP wenn er nicht boostet


Keine Experimente mit AQtion Chipsätzen, sondern was altes von Intel.



Hier habe ich eigentlich nicht so viel Durchblick und favorisiere das Gehäuse vor allem weil es nicht so riesig ist. Werde ja keinerlei Laufwerke drin haben. Oder habt ihr dazu noch andere Empfehlungen?

Beim Netzteil habe ich noch ein großes Fragezeichen. Obiges Gehäuse nimmt normale Desktop-Netzteile, aber die sind meistens für viel höhere Wattbereiche ausgelegt. Außerdem kommen die mit viel Kabelsalat, und ich brauche ja nur Mainboard eigentlich... Kriege ich "Flex-ATX" dadrin montiert?
Sowas hier sieht ganz OK aus (leise, kleine, kein Kabelsalat, aber nur Gold zertifiziert):


Danke für eure Tipps!
 
Das Board finde ich ja mal krass, wußte gar nicht, dass es sowas gibt. :)

Ich bevorzuge große Gehäuse, gerade weil man normale Netzteile unterbringen kann und je gepresster alles ist, umso heißer/schwieriger lassen sich die Innereien kühlen. Das aber nur generell als Aussage, wenn es keine Hitze gibt, gibts auch nichts zu kühlen. Andererseits habe ich zwei Micron NVMEs, die heizen enorm. :) Ersatzteile für 2HE sind dann doch im Schnitt eher teurer und schwieriger zu bekommen, wenn dann mal der Tag kommt. Ebenfalls ist meine Erfahrung, dass man nie weiß, was man in Zukunft noch dazustecken will. Eine dicke GPU, eine weitere disk etc. da ärgert man sich dann umso mehr, wenn es ein Platzlimit gibt, anstatt ein Techlimit.
 
die letzten Netzteile, die ich verbaut habe, waren alle mit gesteckten Kabelsätzen geliefert. Also am Netzteil selbst kein einziges Kabel fest montiert. Somit kann man dann stecken, was man braucht und hat in der Bastelkiste die Kabel für zukünftige Erweiterungen oder auch mal Fehlersuchen.
Bei den kleineren Netzteilen kommen oft kleinere Lüfter zum Einsatz, die unverhältnismäßig laut sind (vielleicht nicht dem Schalldruck nach, aber in einem empfindlichen Frequenzbereich einfach störend empfunden werden).
Also meine Tendenz: auch lieber größer denken.

Zum Rest kann ich da nicht so viel sagen, nur fällt mir auf, dass das Gembrid mit USB2 angegeben wird. Das hat nicht viel zu sagen, weil die USB3-Anschlüsse auf dem MB liegen und sicher benutzt werden können. USB2 will man halt definitiv nicht mehr haben.
 
Somit kann man dann stecken, was man braucht und hat in der Bastelkiste die Kabel für zukünftige Erweiterungen oder auch mal Fehlersuchen.
Sei da bitte vorsichtig und mische die Kabel NICHT!
Die PIN-Outs zwischen verschiedenen Netzteilen (auch beim gleichen Hersteller) sind nicht immer identisch, auch wenn der Stecker passt kann Phase und Ground verdreht sein.
 
Ja, bei den Netzteilen niemals blind die Kabel von verschiedenen Modellen oder Herstellern mischen. Da kann man nicht genug warnen. Das grillt sonst gut durch.

Es sei denn, man weiß, was man tut:
Um diese Inhalte anzuzeigen, benötigen wir die Zustimmung zum Setzen von Drittanbieter-Cookies.
Für weitere Informationen siehe die Seite Verwendung von Cookies.
 
Es sei denn, man weiß, was man tut:
also, etwa bis zur Hälfte habe ich durchgehalten. Ich hoffe doch, dass dieses Ingenieurswissen sich unter deutschen Bastlern etabliert hat.

Nein, die Hinweise sind gerechtfertigt: ich sammele alle Kabel pro Netzteil in separaten "UnterBoxen" in meiner Bastelbox. Es gibt aber welche, die pro Netzteil mehrfach geliefert sind (hängt natürlich auch von der Kapazität ab).

Davon abgesehen und leicht OT: diese Kabel sind bisher bei meinen Netzteilen stets hervorragende Kabel gewesen, weitaus stabiler und besser, als man sie eigentlich bräuchte. Die sind ja immer im PC-Gehäuse verbaut und müssten sicher nicht von dieser guten Qualität sein.
Doch weil das nun mal so ist, die Isolierung lange hält und die Leiter verzinnt sind, eigenen sich diese Kabel sehr gut für alle möglichen Bastelprojekte und werden bei mir grundsätzlich nicht entsorgt. Sogar die flexiblen Mantel machen Spaß, um eigene Kabelbäume zusammen zu halten.

Wenn schon O&T, denn schon, noch ein Tip: Ich verwende nur noch Kabelbinder aus Klett. Das sind also breite streifen eines Klettbandes, womit ich die Überlängen zähme. Die üblichen Kunststoff-Kabelbinder sind mir zu brutal, zu scharf und sie verhärten mit der Zeit.
 
So, die meiste Hardware ist schon eingetrudelt, bzw. auf dem Weg!

Das Netzteil ist noch offen. Meine requirements sind eigentlich nur, dass es halbwegs effizient im Bereich 30-60W läuft, und (teil-)modulare Verkabelung mitbringt, damit nicht sinnlos viele Kabel im Gehäuse rumfliegen. Aber mit den beiden requirements finde ich schon fast nichts :(

Hier wie gesagt das FlexATX-Netzteil von oben:

Vorteile: niedrige Gesamtleistung, sodass sich die 20% Garantie des 80Plus-Siegels wenigstens auf 60W bezieht. Außerdem modular.
Nachteile: kriege ich das FlexATX-Netzteil in das ATX-Gehäuse montiert? Außerdem relativ kleine Lüfter, die wahrscheinlich dann mehr laufen.

Alternative:

Vorteile: 80Plus Platinum, fanless, reguläres ATX
Nachteile: ich hatte schon mal genau so eins im Servereinsatz, das hat kurz nach dem Garantieende schlapp gemacht (zufällige Power-offs, Gerät ließ sich erst nach Stecker-rein-raus wieder booten). Wahrscheinlich sind die als fanless-Geräte nicht für Dauereinsatz geeignet.

Habt ihr bessere Vorschläge?

edit: was ist mit PicoPSU und diverser "kleiner" Gerätschaften? Ich brauche außer dem Mainboard und CPU Stecker keine weiteren Kabel.
 
Was ich im Moment noch suche, sind Schienen für das 19" Gehäuse. Die bisherige Hardware im Schrank ist ohne ausgekommen, aber für das neue Gehäuse brauch es auf jeden Fall etwas. Irgendwie bin ich verwirrt darüber, was hier die normale Praxis ist. Mir fehlen auch die richtigen Begriffe, um danach zu suchen. Die Dinge, die ich finde, sind immer speziell für ein Gehäuse … ist das nicht standardisiert? Wie machen die Profis das?

Ich brauche keine herausziehbaren Teleskopschienen, mir reicht eine schmale durchgehende Leiste links und rechts, die vorne unten verschraubt wird.

Das hier ist das einzige halbwegs passende, was ich bis jetzt gefunden habe:

Ist das das richtige? Wenn ich woanders nach »19" Geräteträger« suche, finde ich nichts...
 
Die Schienen brauchst du immer passend vom Gehäusehersteller, es gibt keine Norm für die Schienen (zumindest mir keine bekannt)
Es gab früher so Universalwinkel, mit denen man das Gehäuse einfach ins Rack reinrutschen konnte, die bogen sich aber abhängig von der Blechdicke und vom Gewicht des Servers dann mit der Zeit gerne mal nach unten; die hatten auch noch meist das Problem der Racktiefe, meist waren die zu kurz.

Hier auf die Schnelle ne Universalschiene

Alternativ gäbe es auch Universalböden, auf welchen du den Server stellen kannst, die kosten gern aber mal gleich 70 Euro und mehr

Suchbegriff wäre Rackschiene, Rack/Server-Montageschiene, Universalboden, usw
 
Ich habe diese hier im Einsatz. Allerdings ist der Bereich, wo man sie ausziehen kann, begrenzt. Für mich reicht es.
Richtige Telekopschienen sind ansonsten immer passend zum Gehäuse, was sich der Hersteller entsprechend bezahlen lässt.
 
  • Like
Reaktionen: h^2
Die Schienen brauchst du immer passend vom Gehäusehersteller, es gibt keine Norm für die Schienen (zumindest mir keine bekannt)
Es gab früher so Universalwinkel, mit denen man das Gehäuse einfach ins Rack reinrutschen konnte, die bogen sich aber abhängig von der Blechdicke und vom Gewicht des Servers dann mit der Zeit gerne mal nach unten; die hatten auch noch meist das Problem der Racktiefe, meist waren die zu kurz.

Hier auf die Schnelle ne Universalschiene

Alternativ gäbe es auch Universalböden, auf welchen du den Server stellen kannst, die kosten gern aber mal gleich 70 Euro und mehr

Suchbegriff wäre Rackschiene, Rack/Server-Montageschiene, Universalboden, usw
Genau so sieht das aus, bei Dell war das oft irgendwie so 60,70 EUR mehrpreis bei nem System im oberen 4-stelligen anschaffungspreis z.B.
 
  • Like
Reaktionen: h^2
Jein, die Schienen werden vorne und hinten mit dem Blech für die Käfigmuttern verschraubt. Hinten ist es nicht das Problem, vorne wird der Server mit befestigt. Das ist beim Einbauen ein bisschen fummelig. Also wenn man vor dem Rack steht, führt man die Schiene von hinten an das Blech für die Käfigmuttern und den Server von vorne heran und verbindet alles mit einer Schraube zusammen. Bei meinem 1HE Server geht es, der ist nicht allzu schwer. Ist nicht ideal, aber mir reicht es.
 
Jein, die Schienen werden vorne und hinten mit dem Blech für die Käfigmuttern verschraubt. Hinten ist es nicht das Problem, vorne wird der Server mit befestigt. Das ist beim Einbauen ein bisschen fummelig. Also wenn man vor dem Rack steht, führt man die Schiene von hinten an das Blech für die Käfigmuttern und den Server von vorne heran und verbindet alles mit einer Schraube zusammen. Bei meinem 1HE Server geht es, der ist nicht allzu schwer. Ist nicht ideal, aber mir reicht es.
Ah, interessant, das bedeutet dann aber auch, dass die Schiene locker wird, sobald ich die Schrauben des Servers löse?

Ich hätte jetzt gedacht, man benutzt einfach die HE unter dem Server für die Schiene und montiert die so, dass die Auflagefläche nach oben zeigt :confused:
 
Zurück
Oben