geeignete Distri/OS für VM

Ist komisch und ich habe Rolling Release früher wesentlich kritischer gesehen, aber ich habe für Leute, die NULL Ahnung von Rechnern haben Rolling Release Sachen aufgesetzt, weil Fedora Probleme machte und war dann relativ überrascht wie gut das lief.
Da spielt auch ganz stark die Gesamtqualität freier Software rein. Die in Teilen des Linuxlagers bis heute verbreitete Ansicht, dass Software erst über Monate "abhängen" muss, stammt aus der Zeit, in der viele freie Softwareprojekte einfach im Bereich Schrott oder sogar großer Schrott anzusiedeln waren. Es war ein sehr aufwändiger, langwieriger Prozess jedes einzelne Paket einer Distribution in brauchbaren Zustand zu patchen und die ganzen Paketen in einen miteinander kompatiblen, konsistenten Zustand zu bringen. Später wollte man möglichst nichts mehr ändern, um das Kartenhaus nicht zum Zusammenbruch zu bringen.
Inzwischen haben sich die Zeiten geändert. Die Qualität freier Software ist drastisch gestiegen, auch wenn man es oft sieht, spielt Rückkompatibilität eine große Rolle. Eine Distribution kann daher die Upstream-Releases oft 1:1 durchreichen, Anpassungen sind nicht mehr notwendig. Häufig ist es sogar so, dass die Distributoren durch ihre gut gemeinten Patches mehr Schaden anrichten, als dass sie eine höhere Stabilität oder Fehlerfreiheit erreichen. Dazu kommen die prinzipbedingten Probleme älterer Software, die mehrere Versionen zwischen dem Upstream hinterherhinkt und natürlich der große Bereich Sicherheit.
Ich würde daher noch einen Schritt weitergehen und sagen: Bis auf einige Randbereiche braucht heute kein Mensch mehr eine sogenannte stabile Distribution. Polemisch könnte ich fordern Debian Stable einzustellen und die unendlich vielen, darein fließenden Mannstunden lieber in die Upstreamprojekte zu investieren.
 
Also das mit dem Abhängen sehe ich grundsätzlich ja nicht so anders, aber mehr so in die Richtung Randfälle auszuschalten. Wenn was crashed, weil es einen Symlink gibt, ein Verschieben über einen mountpoint fehlschlägt, etc. ist das nicht schön, aber man bemerkt es schnell. Wenn es aber was komplexeres ist, dann sind das halt Bugs, auf die erst ein Entwickler oder Auditor stoßen muss.

Ich stimme dir aber zu, dass es an der Qualität hängt. Da zählt auch Release Engineering mit rein, wenn man größere Änderungen hat. Nur denke ich hier, dass es ein Fehler ist das auf OS-Ebene zu machen (ist einer der Hauptgründe, warum ich mit Debian und Debian-Derivaten nie warm geworden bin).

Heißt natürlich nicht, dass es nicht auch das andere Extrem immer noch gibt und viel schlechter Code produziert wird, selbst wenn die Idee vielleicht gut ist und auch zu einigem an Usern führt. Hab schon öfters, auch im professionellen Umfeld mitbekommen, dass man dann irgendwelche Hacks, die man auf GitHub gefunden hat in die Produktion wirft. Das ist quasi, das was man mit AUR unter Arch Linux haben kann. Persönlich finde ich da einen Filter gut, der ruhig auch einem Release-Prozess ähneln kann. pkgsrc-wip -> pkgsrc -> pkgsrc-quaterly hat ja einen ähnlichen Effekt. Den kann man auch mit Code Reviews und ähnlichem haben. Nur bleibt das bleibt teilweise auch auf der Strecke.

Insofern würde ich behaupten, dass es nicht generell besser geworden ist, sondern einfach daruch, dass es mehr Open Source Projekte und Entwickler gibt die Anzahl, sowohl an Software mit hoher, als auch die mit niedriger Qualität gestiegen ist.

Bei Arch Linux selbst ist glaube ich einfach das Team gewachsen. Ich kann mich an Zeiten erinnern, da wurde sowas wie veraltete viel genutzte Software mit Sicherheitslücken weniger kritisch gesehen, als dass irgendein Game zu updaten (die Änderung war in beiden Fällen ein Standardpatch: Versionsnummer erhöhen, Checksumme updaten). Sowas ist dann ziemlich lang unbeachtet rumgelegen, selbst wenn der Bugreport den Patch beinhaltet hat.

Klar, wird ja keiner bezahlt dafür, aber peinlich wäre das ja trotzdem.

Ich glaube, dass da mitunter auch hilft, dass Open Source Contributions interessant für potentielle Arbeitgeber geworden sind.

Da decken sich insgesamt (nicht-profesionelles) Open Source und komerzielle Projekte. Downtime will sich niemand mehr leisten, aber sowas wie DDOS von Kameras, 000 als Passwort, löschen von Daten ohne Backups oder unverschlüsselte Passwörter gibt's auch in relativ großen Unternehmen immer mal wieder.

Sehe das also mehr in Form einer Pyramide, wobei die höhe die Qualität angibt und die wächst halt gleichmäßig in alle Richtungen. Darum hat man halt in dem Bereich, wo die Core-Software ist, die man so verwendet mehr gutes und mehr schlechtes, wobei ich eben Finde, dass Package-Repos schon ein guter Filter find von generischen Indices, ala GitHub, Source Forge oder auch Indices von den einzelnen Installern (CPAN, PIP, Gem, npm, ...). Da sind dann eher Dinge von weiter oben in der Pyramide drin. Dafür wächst das eben ein kleinwenig langsamer.

Zumindest würde ich behaupten, dass es so ist, auch wenn sowas schwierig nachzuweisen ist, weil sich auch die tatsächliche Qualität von Software nicht gerade gut messen lässt bzw. die Kriterien dazu umstritten sind.
 
Als Beispiel möchte ich hier einfach mal libreoffice Einwerfen. Ihr erinnert Euch vielleicht als wir selber noch OpenOffice Pakete gebaut haben. Das war immer etwas hakelig, hat einen halben Tag gedauert und ist öfter mal undeterministisch gescheitert. Will heißen es ließ sich dann durch noch mal probieren "fixen".

Libreoffice hingegen baut inzwischen deutlich flotter (chrome hat es schon lange als längsten build abgelöst) und ich kann mich nicht erinnern wann der Build das letzte mal gescheitert ist. So weit ich weiß wurde da Upstream komplett das Buildsystem ausgetauscht um eben jene Probleme zu lösen. Das macht es den Distributoren dann auch deutlich einfacher aktuell zu bleiben.
 
Ich für meinen Teil habe die Erfahrung gemacht das VM's für Multimedia eher ungeeignet sind. Dazu kommt noch das meist bei DRM Schluss ist in einer VM. Als System würde ich dir aber etwas mit leichter Software ans Herz legen. Also ein Xfce, LMDE oder ähnliches macht sich besser als ein Gnome oder Kde. Wenn du bis jetzt Windows genutzt hast, dann spricht ja eigentlich nichts gegen eine solche VM. Microsoft bietet selbst Abbilder mit diversen Windowsversionen an. Schau dazu einfach mal unter https://developer.microsoft.com/en-us/microsoft-edge/tools/vms/

Wobei meiner Meinung nach eine zweite Partition mit einem System nach Wahl die beste Option ist. Bei Online Dingen einfach umbooten und machen. Das ganze richtest du einmal ein, machst mit z.B Conezilla ein Abbild und kannst so im Notfall innerhalb weniger Minuten dein System erneuern.

Thema Rolling kann ich noch anmerken das es abhängig vom Projekt und Nutzer ist. Ein Arch oder Manjaro kann durchaus gut laufen, vor einem Update sollte man sich aber etwas mit den Paketen beschäftigen da manchmal Handarbeit notwendig ist. Vor allem wenn man mal ein paar Wochen offline ist kann einem das System um die Ohren fliegen. Wenn du wenig Mühe haben willst, dann nimm ein CentOS und du hast Ruhe, musst aber mit geringer und alter Auswahl leben.
 
Meine Lösung:
Habe OpenBSD von meinem Laptop entfernt um QubeOS draufzuspielen (ist nicht mehr als ein Xen typ1-Hypervisor mit paar Grafiktools und Kommunikationsschnittstellen zwischen VMs)

Darauf laufen nun massig VMs die ich je nach belieben zuschalte:
Ziel für die Zukunft:
Offline-VM für Windows (Downloads erhält sie über andere VMs, einfach nur um darauf nichts falsch machen zu können)
3 Fedora/Debian VMs: 1. Download-VM, 2. Zwielichtiges surfen VM, 3. Online-Banking/Mails etc...
Und bald vermutlich noch eine für OpenBSD (Serverwartung, Routerwartung)

QubeOS braucht etwas über 4-5 GB Ram für die Verwaltung von XEN, routen, etc. (laut Ressourcenmanagement-Anzeige, habe mich damit wenig bis garnicht beschäftigt).

Zu empfehlen ab 8GB RAM, besser 16GB+

Grafische Anwendungen laufen spürbar schlechter, als ohne VM, jedoch ist ein Unterschied zu typ2-hypervisorn spürbar.

> QubeOS in einer VM zu testen wird vermutlich nicht wirklich gehen. <

tl.dr: Falls jemand eine Möglichkeit sucht auf seinem PC Spaß und Ernst voneinander zu trennen und nicht bei allem 2mal überlegen möchte ob diese Anwendung sinnvoll ist, geht nichts über diese Lösung.

Demo:
Um diese Inhalte anzuzeigen, benötigen wir die Zustimmung zum Setzen von Drittanbieter-Cookies.
Für weitere Informationen siehe die Seite Verwendung von Cookies.
 
hi

letzten endlich habe ich das gleiche Anforderungsprofil wie du @mogbo jedoch spiele ich auf meinem PC nicht , dafür habe ich extra eine console ( bei mir ne XBOX One )
von daher muss ich mir keine Krücke antun um zu spielen,.

Das mache Ich schon seit Jahren so und es hat mir viele Nerven gespart und jedemenge Hardware Kosten , bezüglich des Permaneten Wettrüsten Hardware Performance für Spiele.

Sicherheitstechnische habe ich meine Console noch via Privat VLAN Layer 2 technisch gekapselt , so das nur ein zugriff ins Internet von der Console Funktioniert.

Du solltest die überlegen ob der aufwand mit VMs zum Spielen nicht zu hoch ist und , wenn deine Normaler PC für die Normalen Aufgeben reicht, dir nicht lieber eine Spielconsole
zulegst.

Nur meine Meinung zu dem Thema

Holger
 
Du solltest die überlegen ob der aufwand mit VMs zum Spielen nicht zu hoch ist und , wenn deine Normaler PC für die Normalen Aufgeben reicht, dir nicht lieber eine Spielconsole
zulegst.
Habe 2 Sorten von Spielen:
RPG Maker games die von Privatleuten gebaut werden und frei über Forenlinks gedownloaded werden können. Kannst dir sicher vorstellen, dass da ab und zu Malware drauf ist. Ist mit QubeOS kaum Aufwand, da die Games praktisch keine Leistung brauchen und das Aufsetzen einer VM auf XEN ziemlich leicht ist.

Ressourcenunfreundlichere Games:
Hab ohnehin einen WinRechner, da ists mir grad recht wenn ich die Virengefahr minimieren kann.


Das Einsperren in eine Internetfreie Zone macht die VM für Windows sehr attraktiv, da mir somit fast egal ist ob ich mir doch mal einen Virus ziehe, werde ohnehin das Image regelmäßig vollständig verwerfen, mein "Masterimage" kopieren, updaten und mit neuer Wegwerfsoftware bestücken.

Übrigens, mein nächster Rechner wird vermutlich auch QubeOS als Hauptsystem am Laufen haben, wenn ich meine Graka durchreichen kann geht das umgangstechnisch weit über jede OS-Lösung die ich bisher hatte, macht wirklich Spaß damit zu arbeiten, da man gewisse Gedanken was Sicherheit angeht einfach ausschalten kann (mit XEN ein VM-image kopieren, fix den Müll installieren und bei Problemen verwerfen).
 
Bist Du noch zufrieden mit QubeOS? Nutzt Du es noch bzw. inzwischen auf deinem Hauptrechner? Falls Du es noch nutzt, was für Erfahrungen hast Du denn inzwischen damit gemacht?

Ich habe es zwischenzeitlich auch für ein paar Tage ausprobiert. Prinzipiell finde ich es gut, wenn auch etwas umständlich. Die Fedora-VM ist gut, wenn auch ziemlich veraltet, da es scheinbar Probleme mit der Wayland-Integration ab Fedora 25 gibt.

Das Kopieren von Daten zwischen den VMs funktioniert nur unter Fedora über den grafischen Filemanager. Unter Debian leider nicht. Ansonsten gibt es noch die Alternative, Daten per Terminal zu kopieren.

Nachdem ich die Debian-VM auf Stretch aktualisiert habe, funktioniert dort der Sound nicht mehr. Scheint ein Problem mit PulseAudio zu sein.

Habe mal spaßeshalber Windows 7 in einer VM installiert. Funktionierte soweit ganz gut. Nur leider auch kein Sound, was aber offiziell bekannt ist. Spielst Du deine RPG-Maker-Games dort ohne Sound oder wie machst Du das?

PCI Passthrough ist scheinbar nur mit einem nachträglich gepatchten XEN möglich. Habe es nicht zum Laufen bekommen. PCI Passthrough auf Notebooks mit hybriden Grafikkarten (z.B. Intel und Nvidia) funktioniert scheinbar nur auf gepatchten KVM (Stichwort: XenGT und KvmGT), da die Nvidia quasi als Gast der Intel GPU läuft, wobei die Grafikausgabe auch bei der Nvidia über die Intel läuft.

Soweit zu meinen Tests und Erfahrungen.
 
Bist Du noch zufrieden mit QubeOS? Nutzt Du es noch bzw. inzwischen auf deinem Hauptrechner? Falls Du es noch nutzt, was für Erfahrungen hast Du denn inzwischen damit gemacht?
Ist seit gut einem Monat auf keinem Rechner mehr ist mir teilweise zu komplex geworden. Hätte ich nur einen Rechner, wärs noch ne Option, aber solange ich den Luxus habe Windows seperat abzulegen, mach ich das auch.
Fands weiterhin ziemlich mühseelig Netzwerkprobleme zwischen den VMs zu debuggen und eine anständige Grundkonfiguration des Gesamtsystems ist viel zu aufwendig.
 
Hi Mogbo

Ich hab auch Windows installiert zum spielen und verwende zum surfen Firefox in einer Sandbox (sandboxie.com). Die Freie Version reicht dir locker zum testen. Unterschied zur Kaufversion ist, dass du mehr als eine Sandbox gleichzeitig laufen lassen kannst.
Ich bin sogar soweit gegangen, dass ich Steam, BattleNet und Origin ebenfalls in einer Sandbox laufen lasse. Macht das Leben leichter bei einem Rechnerumzug, oder wenn ich die ständigen Updates nicht auf meinem PC und Laptop saugen möchte. Einfach das Sandbox-Verzeichnis auf den anderen Rechner kopieren und gut ist es. Neue Software ausprobieren ist auch kein Problem mehr, in die Sandbox installieren und zum löschen einfach die Sandbox löschen.

FreeBSD, Linux und andere Windows Versionen hab ich im Hyper-V am laufen.

mfg
Hoschi
 

Anhänge

  • sandboxie.PNG
    sandboxie.PNG
    35,3 KB · Aufrufe: 237
Zuletzt bearbeitet:
Hallo,

nur am Rande, vielleicht ist es ja - bezogen auf den Titel des Threads - noch von Interesse:
Ist zwar bei mir keine VM, sondern ich haber ein schlankes Linux für meinen Printserver gesucht (wegen turboprint, was noch nicht für FreeBSD zu haben ist), und bin dann bei archbang mit openbox und dem Init-System openRC fündig geworden. Ich habe das heute mal auf meinem alten ThinkCentre installiert (schon eine 64bit Maschine).

Ist sehr schlank, läuft sehr flüssig und schon das Aufsetzen hat Spaß gemacht (die Gewöhnung an openRC verlief sehr schnell, dank der Doku bei Gentoo, Arch und vieler Pakete, die speziell an openRC angepasst wurden, so gibt es neben nfs-utils ein nfs-utils-openrc u.s.f.).

Viele Grüße,
Holger
 
Zurück
Oben