Also ich weiß nicht. Ich gehe in letzter Zeit ziemlich viel über systemd service files und ich verstehe nicht was da einfacher, besser oder sonst was dran ist. Ich finde das eher recht komplex, weil man halt noch einen neuen Weg hat, quasi wie eine neue Sprache. Und wenn es trivial ist, dann ist es auch mit einem RC-Script recht trivial. Es sind ein paar Zeilen weniger, aber den großen Vorteil sehe ich nicht.
Auch andere Dinge, wie Zeit/NTP/... sind zum Beispiel relativ komplex. Entweder man verwendet das systemd eigene System und es ist relativ schwer draufzukommen welche Peers funktionieren. Das Tool timedatectl mit dem man es aktiviert und das angeblich auch alles an Status ausgibt scheinbar nicht. Oder man nimmt das gute alte OpenNTPD (yay, ntpctl, kein SIGINFO mehr), schreibt das Unitfile um, damit es arbeitet wie (per default) gedacht, aber scheinbar mag es kein driftfile anlegen, wenn man systemd verwendet.
Und wenn man dann noch schaut, wie man die Hardwareclock auch anpasst findet man raus, das dann erst wieder mit einem Hack... quasi Shell-Hack geht Startkommando auf /bin/true und beim Exit eben dann das Syncen. Man verliert also Flexibilität, behält aber die Hacks, kombiniert also die Vorteile.
Bin aber auch kein Profi. Habe nur geschaut, was die Profis so vorschlagen.
Shell-Scripts kennt man doch als Admin, warum was neu erfinden, wo man dann erst wieder die alten Hacks verwenden muss? Habe ja nichts dagegen was neues zu lernen, aber ein Sinn dahinter hat sich mir noch nicht wirklich erschlossen.
Und überschreiben von Configs. Puh, das ist ein Grund für BSDs. Aber das macht Systemd zumindest von dem was ich so gesehen habe eher weniger. Nochmal Glück gehabt.
Sag ja nicht, dass alles an systemd schlecht ist und alles an RC-Scripts gut, aber zumindest dort wo ich die Wahl habe und vor allem dort wo ich verantwortlich bin wenn was nicht rund läuft schau ich zumindest, dass ich auch die Kontrolle darüber habe.
Oh und ich glaube mittlerweile mehr, als zu Beginn, dass man sowas wie systemd auch besser machen könnte, auch wenn ich denke, dass es da eigentlich Dinge gäbe, die wichtiger wären. Die init-Systeme, vor allem die auf BSDs oder auch OpenRC funktionieren. Auch die die extrem minimalen Inits funktionieren recht gut. Irgendwie werden Dinge, die vielleicht nicht absolut perfekt sind und mit denen es in Jahrzehnten kaum Probleme gab gesucht und relativ schnell kaputt gemacht.
Eine Theorie dazu wäre, dass die Linuxcommunity in letzter Zeit extrem konsolidiert wurde. Es gibt quasi nur noch Ubuntu, mit auf der einen Seite Debian und auf der anderen Seite Linux Mint. Daneben dann noch Fedora und RedHat und dann eben noch Arch Linux das eine mittlerweile recht beachtliche Userbase hat, während all die anderen ernsthafteren Distributionen irgendwie ziemlich an Usern verloren haben, was vielleicht daran liegt, dass es da viel Sourcebasiertes gab oder binären, wo trotzdem viel selbst kompiliert wurde und mittlerweile alle auf viel zu heißen Laptops arbeiten.
Vielleicht ist dieses Konsolidieren und Wachen der selbe Effekt wie bei IBM, Microsoft, Apple, Google, etc.?
Oder es ist eine Kommerzialisierung von Open Source, die da was ausmacht. Das würde vielleicht aber bedeuten, dass es nach der nächsten Blase in der wir jetzt sind es wieder bergauf geht. Das ist aber jetzt schon weit hergeholt. Das gebe ich zu.
PS: Das war wieder ein Posting mit vielen Gedanken, persönlichen Erfahrungen, Theorien und wenigen Überzeugungen. Aber wahrscheinlich wäre es wohl besser nicht so viel drüber zu philosophieren und die Zeit in eben die wichtigeren Dinge und Probleme zu investieren.