• Diese Seite verwendet Cookies. Indem du diese Website weiterhin nutzt, erklärst du dich mit der Verwendung von Cookies einverstanden. Erfahre mehr

Allinone-Kiste / Beratung zur Software

mr44er

moderater Moderator
Mitarbeiter
Themenstarter #1
Da mich meine Stromnachzahlung etwas husten hat lassen, wollte ich mich verstärkt auf die Virtualisierung stürzen.

In meiner Laufbahn hab ich mal immer gern den ESXi benutzt, aber da man fürs Management Windows braucht und ich das verbannt habe, flog der gleich raus.

Ich bräuchte nun mal einen Denkanstoß für das, was ich gern hätte:

Ein Server für alles.
geli+ZFS als Unterbau
VMs nach Bedarf laufen lassen (insbesondere eine Firewalldistribution, das Sicherheitsrisiko ist mir bewusst)
An den Server soll auch mein USB-SAT-Receiver (der wurde schon mit webcamd getestet), mittels vdr oder tvheadend, damit Kodi verbinden kann
nfs+samba shares auf meine Datasets
USB-Drucker soll mit ran und freigegeben werden

Hochverfügbarkeit ist nicht wichtig

Meine erste Idee war, nas4free zu nutzen, da gibts mittlerweile virtualbox mit dabei.
Die Probleme hierbei, die mir sauer aufstoßen:
-es läuft entweder vom USB-Stick oder von ner Platte (SPOF)
-die VMs wollen booten, bevor die Platten entschlüsselt wurden
-virtualbox kann nur USB1.1, damit läuft der Receiver aber nicht

Meine eigene Idee war nun, FreeBSD mit RootOnZFS zu installieren:
-Das System läuft weiter bei ausgefallener Platte
-Durch die Eingabe vom PW beim Booten sind alle Devices schon entschlüsselt

Bisher hab ich meine Daten direkt auf dem Hostsystem in Datasets abgelegt und per nfs freigegeben.

Würdet ihr das eher in eine Jail packen?
Virtualbox headless soll auch nicht so der Kracher sein (xorg hat auf nem Server nichts zu suchen!) oder wie würdet ihr das mit den vms machen? virtualbox auch in in eine jail? Oder gar was anderes nehmen?
Was mach ich mit dem usb-receviver? webcamd in eine jail?

Oder gar eine andere Idee?
 

m4rkus

Well-Known Member
#4
Ich sag auch mal Proxmox.

Baue mir auch im Moment alles darauf um - allerdings etwas übertrieben...

1 Host der ebenfalls als NAS dient mit 2 LSI-Controllern, welche dann in ein FreeBSD durchgereicht werden
2 kleinere Hosts, die dann die Hochverfügbarkeit stellen für die übrigen VMs (DNS, Firewall usw.)

Gruß
Markus
 

mr44er

moderater Moderator
Mitarbeiter
Themenstarter #5
Klingt nicht schlecht.

Angenommen ich bügel das direkt auf meine Platten im RAIDZ, kopiere ich meine Daten direkt auf diese Pools oder muss ich erst ein FreeBSD als VM installieren und da dann nochmals einen Pool anlegen?

Eigentlich kommt mir noch die Idee, dass ich 3 USB Sticks als Pool für die Installation nehmen könnte, sofern proxmox mir die nicht totschreibt.
 

m4rkus

Well-Known Member
#6
Also ich bin ein Fan von direktem Plattenzugriff - daher habe ich die Controller per PCI-Passthrough an die VM durchgereicht und werde das NAS entsprechend unter FreeBSD einrichten.
Die VMs selbst sind auf lokalem bzw. gemeinsamem Speicher (DRBD9 geplant).

ZFS und USB-Sticks würde ich persönlich nicht einsetzen. Kann mir nicht vorstellen, dass das dauerhaft funktioniert.

Gruß
Markus
 

mr44er

moderater Moderator
Mitarbeiter
Themenstarter #7
Also ich bin ein Fan von direktem Plattenzugriff - daher habe ich die Controller per PCI-Passthrough an die VM durchgereicht und werde das NAS entsprechend unter FreeBSD einrichten.
Verstehe ich das richtig?: Physikalische Platten/Controller an FBSD reichen, darauf ZFS und den Platz dem Proxmox (per ISCSI) geben?

ZFS und USB-Sticks würde ich persönlich nicht einsetzen. Kann mir nicht vorstellen, dass das dauerhaft funktioniert.
Wenn nur gelesen und wenig geschrieben wird, sollte das kein Problem darstellen :)

Btw, wie ich zu ZFS kam:

Hab das gesehen und war verliebt! <3
 

m4rkus

Well-Known Member
#8
Ich reiche aktuell nichts an den Proxmox-Server zurück.

Aufbau ist:
- 2 x Samsung SSD (128 GB) für OS und lokaler Speicher, damit stationäre VMs laufen können (u.a. NAS-VM)
- 1 LSi-Controller onboard + 1 geflashter IBM 1015, welche per PCI-Passthrough an die NAS-VM weitergereicht werden (daher kann diese VM nicht hochverfügbar geschwenkt werden)
- an den Controllern sind aktuell 6x3TB HDD + 2 x 256 SSD und sobald ich das alte NAS umkopiert habe, kommen erstmal noch 4x2 TB HDD dran. Dies ist der Speicher fürs LAN
- Zusätzlich habe ich noch in jedem der insgesamt 3 Nodes eine 1TB Platte, über die ich mittels DRBD einen gemeinsamen Speicher einrichte für VMs die immer laufen müssen (Firewall, DNS, DHCP...)

Wenn mal ein Update kommt, welches einen Neustart benötigt, kann ich weiterhin einen funktionsfähigen Internetzugang + Netzwerk bereitstellen. Auf das NAS kann ich in der Regel auch mal ein paar Stunden verzichten - beim Rest hat meine Frau einen SLA unterschrieben (Hochzeitsurkunde), der mir höhere Ausfallzeiten nicht erlaubt :)

Gruß
Markus
 

minimike

Berufsrevolutionär
#10
Für Vsphere 6 gibt es als Beta Flings
https://labs.vmware.com/flings
Mit der kostenlosen Lizenz muss man den Würgaround nehmen.

Ansonsten eine N54L mit 16 GB RAM. Oder einen Boulionwürfel (HP Gen8 Microserver mit Xeon 1265L) Frisst ca 20 Watt mit 4 Sataplatten idle. Perfekt stapelbar auch mit passenden Switch.

Alternativ zu Vsphere geht auch CentOS mit RDO via Packstack. Da wird aber auch ein MySQL und Redis Server dann mit installiert...
 

mr44er

moderater Moderator
Mitarbeiter
Themenstarter #11
So, proxmox habe ich soweit ausgiebig getestet. Es tut was es soll, aber der brutzelt jetzt noch mehr Saft weg, weil die Platten nicht in den standby zu schicken sind. Auch mit reinen Datenplatten nicht, die ich per passthrough als virtio-device durchreichte.

Mit der kostenlosen Lizenz muss man den Würgaround nehmen.
So erzähle er mir mehr! :)
 

bsd4ever

Well-Known Member
#12
Wie ist eure Erfahrung mit dem proxmox und pass-through zu einer FreeBSD-ZFS-VM?
Hat mal jemand den speed vergleichen, bare metal vs. pass-through?