Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Vielleicht ist es ja gar nicht provokant gemeint, sondern Du empfindest es nur als provokant. Diese Möglichkeit sollte man auch in Betracht ziehen. Nicht nur immer beim Anderen gucken, was der falsch macht. Sondern auch bei sich selber.Ich habe wenig Toleranz gegenüber provokativer Stichelei.
Ich habe wenig Toleranz gegenüber provokativer Stichelei.
Ehrlich wäre, statt des Sarkasmus einfach zu schreiben "ja aber ich kann *das und das* nicht".
erhofft, du verrätst mir anhand meines 08/15-Docker-Workflows, wie ich das unter FreeBSD abbilden kann - so à la "unter FreeBSD geht das konzeptionell etwas anders; wir haben das in der Firma mittels BastilleBSD, ZFS send/recv plus X so und so gelöst - das Problem Y haben wir dabei durch Z umgangen".Wenn man mal den Aspekt weglässt, einen fertigen "Linux Container" direkt auf FreeBSD laufen lassen zu können, dann ist da nichts mehr dabei, was ein aktuelles FreeBSD nicht auch ohne Docker kann.
Denn nur so kann man sich weiter entwickeln und offen für neue Perspektiven bleiben.
Davon sehe ich aber nichts. Klar werden alte Zöpfe abgeschnitten. Du hast dafür aber größere neuere Zöpfe.
Worauf Du aber auchten kannst, ist die Komplexitätszuwach-Nutzenzuwachs-Quote. Und die ist heutzutage tendenziell eher schlecht.
Ja. Ich sag ja auch nicht generell, das diese Dinge schlecht sind. Aber sie sind mittlerweile halt recht komplex. Das heißt, solange es in Ordnung ist läuft es auch ganz anständig. Aber wehe Du hast mal ein Problem. Dann hast Du kaum noch eine Chance den Fehler zu finden.Bei anderen (vor allem kleineren) Kunden sind es vor allem die engagierten Entwickler, die jetzt die Chance nutzen, träge Entwicklungs- und Betriebsprozesse öffentlich zu hinterfragen. Dort werden oftmals durch eine Container-Live-Demo nicht nur überholte Verfahren, sondern gleichzeitig auch FreeBSD als Kollateralschaden in Frage gestellt - unabhängig vom tatsächlichen Mehrwert von Containern für den Kunden.
Man muss sich ja einfach nur angucken, wie sich so die Qualität der Software verändert hat.Das würde ich in der Allgemeinheit nicht unterschreiben
Nur CUPS, mdnsresponder, Objective C, Swift und ordentlich Arbeit an LLVM und KHTML (als Fork WebKit). Es hab sogar mal OpenDarwin mit dem man versucht hat ein Ökosystem neben macOS aus dem xnu (auch Open Source) zu schaffen. Klar da ginge mehr, aber es ist ja nicht so dass die gar nix zurück geben.Kam da je was seitens Apple?
CUPS: Ja. Stimmt. Besonders den Schritt Sachen zu entfernen, die Apple nicht brauchte (aber u.a.halt die Linux-Leute), da waren einige echt angepisst von. :-)CUPS, mdnsresponder, Objective C, Swift und ordentlich Arbeit an LLVM und KHTML (als Fork WebKit).
Früher (also jetzt wirklich früher und nicht irgendwie vor 10 oder 20 Jahren) da hat Software funktioniert.
Das ist inzwischen auch schon längst in Software gegossen. Da hast Du dann halt irgendein watchdog der guckt nach Prozessen und wenn die abschmieren startet der die einfach wieder neu.
Man macht sich oft deshalb also nicht mal mehr die Mühe Bugs auf den Grund zu gehen oder gar zu fixen, weil "läuft doch auch so".
Hier schlägt übrigens auch schön das Komplexitätsproblem zu. Weil jetzt hast Du halt nicht mehr nur Dein Service-Prozess, sondern einen weiteren Prozess der darauf aufpasst. Nur auch der kann ja kaputt gehen. Und was machste dann? Ein watchdog für den watchdog?
Containerlösungen gehen ja in eine ähnliche Richtung. Man macht sich gar nicht mehr die Mühe Software so zu schreiben, das sie sauber getrennt ist.
Man schludert irgendwas hin und packt das halt in einen Container (wo das Programm dann wüten kann als hätte es den Rechner für sich alleine). Jetzt hast Du aber nicht nur das Programm, was kaputt gehen kann, sondern auch noch den Container.
Und wenn Du viele Container hast ist sowieso umständlich also packen wir noch Kubernetes drauf (also noch mehr Komplexität).
Zum Schluss hast Du halt ein riesigen Berg an irgendwelchem Kram. Und der Anteil an diesem Berg der die eigentliche Aufgabe erledigt, die Du erledigt haben willst wird immer kleiner.
Aber Du brauchst eigentlich dafür gar nicht bei Containern gucken. Schon allein auf Programmlevel hast Du ja in Form von Frameworks und anderen Abstraktionslayern so viel Kram drin, das ist echt nicht mehr schön.
Ich will das nicht alles schlecht reden. Klar gibt es für solche Sachen auch vernünftige Gründe die einzusetzen.
Das Problem ist eher, das sie heute so inflationär eingesetzt werden. Und dann so, das Du auch gern und schnell den Überblick verlierst. Wie oft hatte man schon mit Sicherheitsproblemen in Programmen zu tun, weil die gegen irgendeine Uralt-Bibliothek gelinkt war und ähnliche Geschichten.
Im kommerziellen Sektor wird dies alles noch dadurch begünstigt, das kurzfristige Profite mehr zählen als Langfristigkeit.
Der Manager will halt gute Quartalszahlen haben. Also werden Schnussschusslösungen bevorzugt. Bugfixing wird auf später (in Klartext: nie) verschoben. Und wenn einem die Sachen irgendwann um die Ohren fliegen, wen juckts? Der zuständige Manager ist dann schon längst in der nächsten Firma. Und wenn nicht, tritt er halt zurück und nimmt noch ne Abfindung mit.
Du hast halt auch oft Bedingungen, die Pfuschlösungen bevorzugen. Und den Kunden hat man ja jahrelang erfolgreich eingeredet, das Fehler in Software unvermeidbar sind und dazu gehören.
Dazu müssten sie teilweise die gleiche Einstellung haben wie du!dass einige Maintainer mir möglichst lange die wichtigsten Ports erhalten.
Du meinst die gute alte Unix-Zeit von "he who does not check input before - dumps core", als Kommandozeilen-Utilities bei unbekannten Parametern gerne mal Coredumps geworfen haben?
Das ein Admin eingreifen und den Prozess manuell neu starten musste?
Container sind keine Raketenwissenschaft.
mit weniger Aufwand qualitativ höherwertige Software zu entwickeln, besser zu testen und zuverlässiger zu betreiben.
dem besseren Marketing rund um Linux
Die ganzen Bibliotheken, Frameworks und Abstraktionslayer ermöglichen natürlich aber auch eine enorme Produktivität.
Es ist immer eine Gratwanderung, das richtige Maß zwischen zuviel und zuwenig Abstraktion zu finden.
Man kann seine Software warten, man muss aber nicht.
Ja. Da ist es natürlich besonders deutlich. Zugegeben.In börsennotierten Aktiengesellschaften, ja.
In der Tat.Darüber kann man einen eigenen Thread starten.
Jetzt mal abseits von Lizen usw. Der große Vorteil bei ZFS und FreeBSD ist, das ZFS ins System integriert ist. Es ist also nicht nur einfach ein weiteres Dateisystem, was Du mounten kannst. Es ist mit anderen Funktionen in FreeBSD verzahnt und hat damit eine echte Integration ins System.Achso. ZFS, als großartiger Vorteil von FreeBSD hier mehrmals genannt, passt genau in die gleiche Schiene, wie oben kurz angesprochen cdrecord. ZFS ist eine super Sache, aber sie floss nur deshalb so problemlos in FreeBSD ein, weil die unterschiedlichen Lizenz-Modelle dies zuließen.
Eher weniger. Die Tendenz ist auch eher fallend, was den Anteil von GPL-Software an Open-Source angeht. Es ist auch längst nicht mehr die häufigste Open-Source-Lizenz.Es wird aber deutlich Linux-Zentrisch entwickelt und ich kann mir vorstellen, dass die Beliebtheit von Linux da nicht unbedingt an der GPL liegt, bin mir aber auch nicht sicher.
Ein Verhalten, was im akademischen Umfeld keineswegs ungewöhnlich, sondern sogar gewollt ist.Die reiben sich nicht an Bedürfnissen irgendwelcher Leute von außen, weder an den Ansprüchen eines Endverbrauchers, noch an denen von Unternehmen, weder Unternehmen der IT, noch der Industrie.
Nimm es, oder lass es.
Oder um es "etwas" kürzer zu fassen: "A fool with a tool is still a fool"Ich sag ja nicht, das es früher keine Probleme oder Fehler gab. Aber in der Tendenz war es besser. Darum hab ich ja auch die Verhaltensweisen von heute vs. früher beschrieben. Die kommen ja nicht von ungefähr.
Ist übrigens auch logisch, warum früher die Programme "besser" waren. Zum einen waren sie natürlich kleiner. Aber es gab noch nen anderen Grund. Es gab nämlich kein Internet. Das heißt, wenn Du irgendwie ein Programm ausgeliefert hast, dann war das durchaus eine Weile unterwegs und auch relativ lange unverändert in Gebrauch.
Heute ist es eher so, das man eine Software leichtfertiger raushaut. Weil "wenn was ist", kann man ja updaten. Das setzt halt den Anreiz eben nachlässiger bei Tests zu sein und erst dann zu reagieren, wenn sich jemand beschwert. Man wälzt damit quasi den Testaufwand an den Kunden ab.
Windows 10 ist ein schönes Beispiel dafür. :-)
Zwangsupdates für die Home-User. Das sind unsere Betatester. Die Business-Kunden kriegen dann den Kram, der sich beim einfachen Pöbel bewährt hat. Und die Betatester müssen die Bugs nicht mal aktiv melden (machen die eh nicht; jedenfalls nicht in der Masse). Dafür haben wir Spionage ähm ... meinte Telemetrie eingebaut.
Früher war der Leidensdruck da, das Problem zu fixen. Heute ist der nicht mehr da.
Das führt dazu, das Bugs länger bestehen bleiben.
Danke. Aber mir ist sehr bewusst was Container sind.
Nichtsdestotrotz führen sie mehr Komplexität ein.
Du darfst das auch nicht verwechseln mit Komplexität in der Bedienung. Die Bedienung wird zweifelsohne einfacher. Auch die Automatisierung von vormals maneullen Prozessen führt zur Verringerung an Fehlern, weil Du halt nicht mehr einfach mal ein Handgriff vergessen kannst.
Die Komplexität des Systems steigt aber.
Jaja. Genau. Du redest wie ein Vertreter. :-)
Gucken wir mal in die Realität. Da treten immer noch Sachen wie BufferOverflows, fehlende Längenprüfung etc. auf. Also eine Klasse von Bugs, wo Du eigentlich schon seit 20 Jahren nicht mehr wirklich rechtfertigen kannst, die drin zu haben.
Und die Leute, die halt beim Programmieren sonst immer geschlampt haben, denen unterstellst Du jetzt, das sie bei Ihrem Container alles richtig machen, richtig konfigurieren, richtig abdichten?
Merkst selbst, oder? :-)
Bei Open-Source-Projekten ist die Situation auch immer noch relativ gut, weil die Macher immer damit rechnen müssen, das doch mal jemand anderes in den Quelltext rein guckt. :-) Und dann will man sich natürlich nicht die Blöße geben da offensichtlich Pfusch gemacht zu haben.
Sobald Du Programme hast, wo keiner rein gucken kann schnellt der Pfuschlevel extrem in die Höhe.
Ironischerweise ist Microsoft da noch eine der Vorzeigefirmen die die Prozesse (inzwischen) relativ gut im Griff haben. Aber auch bitter daraus gelernt, das sie es einfach machen müssen, wenn sie überleben wollen. Und dann hatten sie noch das Glück genug Geld in der Kaffeekasse zu haben, um das auch wirklich zu stemmen und das Ruder herum zu reißen. Sonst wäre Windows & Co längst Geschichte.
Genau. Marketing ist ja quasi ein Garant dafür, das sich die bessere Lösung durchsetzt. *LOL*
Ohne Frage ...
... und genau da beginnt das Problem. Im Zweifel wird man aber nicht abwägen, sondern sich immer für die bequemere Lösung entscheiden.
Selbst wenn man weiß, das man das was man grad macht eigentlich nicht wirklich gut ist, tröstet man sich immer mit der Ausrede: "Das fixen wir später. Wenn wir mal Zeit haben"
Das Problem ist, die Zeit hast Du nie. Weil dann schon längst wieder ein neues Feature oder neues Projekt ansteht. Nach ein paar Wochen ist Dir das Problem nicht mal mehr bewusst. Du hast es vergessen. Und Du hast es natürlich auch nirgends dokumentiert, weil wozu auch der Aufwand der Dokumentation. Iss ja nur ein Provisorium, das Du ja eigentlich bei nächster Gelegenheit fixen wolltest.
Komm. Hör bloß auf. Ich guck mir jetzt die Sache schon seit Jahrzehnten an. Immer mal wieder wird was Neues auf den Tisch gepackt, was dann plötzlich alle Probleme lösen sollte.
Komm wir machen OOP. Da haste weniger Probleme, weil Du Code Resusen kannst.
Komm wir machen Java. Keine manuelle Speicherverwaltung mehr. Sandboxed Security. Da kann nichts mehr schief gehen.
Zur Zeit sind es eben Container.
Nicht vergessen. Ich stelle diese Technologien nicht grundsätzlich in Frage oder das sie einen Anteil an Verbesserungen haben und haben können.
In der Praxis läuft es aber immer so, das überzogene Erwartungen (vor allem durchs Marketing!!) geweckt werden und das Zeug überall eingesetzt wird. Egal obs passt oder nicht oder obs das Eigentliche Problem wirklich löst.
Mit nem Hammer in der Hand sieht jedes Problem wie ein Nagel aus. Und der Hammer ist im Augenblick eben Docker.
Und DAS ist der Punkt. Nicht das die Technologien nicht auch sinnvoll sein können.
Das passiert, wenn das vorher ausgedachte Theoriegebäude am rauhen Fels der Praxis zerschellt.
Theoretisch ist alles einfach. Wir haben Deployment, Continous-Delivery etc.
Das baut für uns alles automatisch. Zieht die gebrauchten Module von selbst von github usw.
Plötzlich stellt sich aber heraus, der github-Account ist schon lange verwaist und es gab ewig keine Updates mehr. Das Projekt ist inzwischen längst geforkt und wird dort weiter entwickelt etc.
Und Du merkst nicht mal was, weil alle Deine tollen Tools (die zwar einfach sind, die Du aber nicht verstehst) fehlerfrei arbeiten.
Klar kann man hier einwenden: Du musst es halt RICHTIG machen.
Und dann sind wir aber wieder bei dem Punkt: Die Leute, die vorher schon ihr einfaches Programm schlampig entwickelt haben, die machen dann plötzlich die ganzen neuen Prozesse sorgfältig? Wie kommt man zu so einer naiven Erwartung?
Was die ganzen Technology-Apologeten nicht verstehen (verstehen wollen), das Technik keine Lösung ist, sondern ein Werkzeug. Das kann zur Lösung beitragen. Nur muss der jenige mit dem Werkzeug halt auch umgehen können.
Man wird nicht automatisch dadurch zu nem guten Maler, in dem man sich den besten Pinsel und die teuersten Farben besorgt, die man kriegen kann.
Das sagt Dir aber kein Marketing. Logischweise. Der will Dir nur sein Produkt verkaufen. Der ist an Deinem Problem nicht im Geringsten interessiert.
Ich will das auch gar nicht werten. Aus seiner Position handelt er total logisch und rational. Nur muss man das eben im Hinterkopf haben, wenn man mit Marketing konfrontiert wird.
Ja. Da ist es natürlich besonders deutlich. Zugegeben.
Und es gibt natürlich auch noch Unternehmen die langfristiger denken. Die Tendenz ist aber eine Andere.
In der Tat.
Lustig ist ja, das diese ganzen Hype-Begriffe (DevOps, Container, Blockchain) ja immer suggerieren man sei furchtbar modern und quasi am Puls der Zeit und verwendet das Neuste vom Neusten.
Und wenn Du dann genau hinguckst, werden nicht mal einfache Kompilerschalter gesetzt die schon seit >10 Jahren verfügbar sind und Dir ne ganze Fehlerkategorie eliminieren. :-)
Die Komplexität des Systems steigt aber.
Jaja. Genau. Du redest wie ein Vertreter. :-)
Gucken wir mal in die Realität. Da treten immer noch Sachen wie BufferOverflows, fehlende Längenprüfung etc. auf. Also eine Klasse von Bugs, wo Du eigentlich schon seit 20 Jahren nicht mehr wirklich rechtfertigen kannst, die drin zu haben.
ArrayIndexOutOfBoundsException
o.ä. um die Ohren geschmissen, wenn du nicht sowieso foreach()
o.ä. Konstrukte verwendest. Deinen Stack oder Heap zerschießen wie früher wird schwierig.Und die Leute, die halt beim Programmieren sonst immer geschlampt haben, denen unterstellst Du jetzt, das sie bei Ihrem Container alles richtig machen, richtig konfigurieren, richtig abdichten?
Bei Open-Source-Projekten ist die Situation auch immer noch relativ gut, weil die Macher immer damit rechnen müssen, das doch mal jemand anderes in den Quelltext rein guckt. :-) Und dann will man sich natürlich nicht die Blöße geben da offensichtlich Pfusch gemacht zu haben.
Sobald Du Programme hast, wo keiner rein gucken kann schnellt der Pfuschlevel extrem in die Höhe.
Genau. Marketing ist ja quasi ein Garant dafür, das sich die bessere Lösung durchsetzt. *LOL*
... und genau da beginnt das Problem. Im Zweifel wird man aber nicht abwägen, sondern sich immer für die bequemere Lösung entscheiden.
Selbst wenn man weiß, das man das was man grad macht eigentlich nicht wirklich gut ist, tröstet man sich immer mit der Ausrede: "Das fixen wir später. Wenn wir mal Zeit haben"
Komm. Hör bloß auf. Ich guck mir jetzt die Sache schon seit Jahrzehnten an. Immer mal wieder wird was Neues auf den Tisch gepackt, was dann plötzlich alle Probleme lösen sollte.
Nicht vergessen. Ich stelle diese Technologien nicht grundsätzlich in Frage oder das sie einen Anteil an Verbesserungen haben und haben können.
In der Praxis läuft es aber immer so, das überzogene Erwartungen (vor allem durchs Marketing!!) geweckt werden und das Zeug überall eingesetzt wird. Egal obs passt oder nicht oder obs das Eigentliche Problem wirklich löst.
Mit nem Hammer in der Hand sieht jedes Problem wie ein Nagel aus. Und der Hammer ist im Augenblick eben Docker.
Theoretisch ist alles einfach. Wir haben Deployment, Continous-Delivery etc.
Das baut für uns alles automatisch. Zieht die gebrauchten Module von selbst von github usw.
Plötzlich stellt sich aber heraus, der github-Account ist schon lange verwaist und es gab ewig keine Updates mehr. Das Projekt ist inzwischen längst geforkt und wird dort weiter entwickelt etc.
Und Du merkst nicht mal was, weil alle Deine tollen Tools (die zwar einfach sind, die Du aber nicht verstehst) fehlerfrei arbeiten.
Klar kann man hier einwenden: Du musst es halt RICHTIG machen.
Und dann sind wir aber wieder bei dem Punkt: Die Leute, die vorher schon ihr einfaches Programm schlampig entwickelt haben, die machen dann plötzlich die ganzen neuen Prozesse sorgfältig? Wie kommt man zu so einer naiven Erwartung?
Was die ganzen Technology-Apologeten nicht verstehen (verstehen wollen), das Technik keine Lösung ist, sondern ein Werkzeug. Das kann zur Lösung beitragen. Nur muss der jenige mit dem Werkzeug halt auch umgehen können.
Man wird nicht automatisch dadurch zu nem guten Maler, in dem man sich den besten Pinsel und die teuersten Farben besorgt, die man kriegen kann.
Das sagt Dir aber kein Marketing. Logischweise. Der will Dir nur sein Produkt verkaufen. Der ist an Deinem Problem nicht im Geringsten interessiert.
In der Tat.
Lustig ist ja, das diese ganzen Hype-Begriffe (DevOps, Container, Blockchain) ja immer suggerieren man sei furchtbar modern und quasi am Puls der Zeit und verwendet das Neuste vom Neusten.
Blinde Flecken - wer keine hat, werfe den ersten Stein.Und wenn Du dann genau hinguckst, werden nicht mal einfache Kompilerschalter gesetzt die schon seit >10 Jahren verfügbar sind und Dir ne ganze Fehlerkategorie eliminieren. :-)
CUPS: Ja. Stimmt. Besonders den Schritt Sachen zu entfernen, die Apple nicht brauchte (aber u.a.halt die Linux-Leute), da waren einige echt angepisst von. :-)
So eine ähnliche Geschichte gabs auch bei KHTML/Webkit. Auch da hat sich Apple viele "Sympathiepunkte" in der Open-Source-Community erworben. :-)
Objective-C und Swift haben außerhalb des Apple-Ökosystems nie wirklich Fuß gefasst.
mdnsresponder: Genau. Wird auch weithin eingesetzt. Niemand tut sich Avahi an :-)
LLVM: Lasse ich gelten. Ein tolles Projekt.
Wie soll das gehen? Vorher hattest Du nur das Programm. Jetzt hast Du Programm plus Container. Das ist eindeutig mehr Komplexität.Wenn du den Faktor Betrieb der Software - mit der Entwicklung allein ist es ja nicht getan - reinrechnest, sinkt die Gesamtkomplexität mit Containern in meiner Erfahrung deutlich.
[/QUOTE]Ich möchte keinesfalls zurück zur alten Welt mit händisch gewarteten Servern, Deployment-Tickets für Betriebsabteilungen und vielen manuellen Eingriffen
Ist korrekt. Nur kommt das immer wieder in der Praxis vor. Warum? Weil halt nicht überall Javascript, Python und Java eingesetzt wird.Die aktuell 3 großen Programmiersprachen (JavaScript, Python, Java) ist es fast unmöglich, noch einen Buffer Overflow zu programmieren
Ja. Aber selbst hier ließe sich viel machen. Ohne Aufwand. In der Praxis werden die Sachen aber nicht benutzt. Auch auf die Gefahr hin das ich mich wiederhole: Versteh doch. Das Problem ist nicht die Technik. Das Problem sind die Leute, die sie benutzen!Bestehende Anwendungen in C und vielen anderen Sprachen werden das Problem immer haben.
Das Problem ist nicht, das Bugs vorkommen können. Das Problem ist, das man gewisse Probleme versucht auf Teufel komm raus mit Technik zu erschlagen. Im Endergebnis hast Du einfach nur mehr Baustellen und mehr Bugs. Nicht weniger!Keineswegs. Solange Menschen Software schreiben, werden uns diverse Bugs unterschiedlichster Couleur noch lange begleiten. :-)
Das beschreibt schön, was ich meine. Du hast ne Kack-Umgebung. Anstatt das man aber diese Kack-Umgebung mal gerade zieht, baut man irgendwas mit Containern, damit einem die Kack-Umgebung nicht mehr so leicht auf die Füße fällt.Allein durch die konsistente Laufzeitumgebung, egal wo man den Container betreibt, werden jede Menge Fehlerquellen beseitigt. Ich kann ein und denselben Container auf Fedora entwickeln, unter Ubuntu bauen und auf CentOS betreiben. Ich nicht davon abhängig, das auf meinem Zielsystem Package X in Version Y vorhanden ist und muss nicht beten, dass ein Admin auf Produktionskiste Z die richtigen Pakete in der richtigen Version installiert hat.
Man! Es ging um ne Gesamtbetrachtung! Klar gibt es immer Ausnahmen.Es gibt auch massig schlechte Projekte dort draußen. Ich habe auch schon abartig guten Quellcode in proprietärer Software gesehen
Ja. Sorry.Das war nicht meine Aussage.
Ist mir vollkommen bewusst. Aber genau das verhindert halt auch häufig, das eine bessere Lösung eingesetzt wird.Völlig unabhängig von der Qualität oder Funktionalität ist es im Normalfall leichter, Linux als FreeBSD in einem Unternehmen einzuführen, weil mehr Leute schon mal was von Linux als von FreeBSD gehört, gelesen, gesehen oder erfahren haben. Sowohl auf Management-Ebene (ältere Semester erinnern sich an die IBM-Linux-Werbespots) als auch bei den Technikern.
Noch mal: Es geht nicht darum, das Technologie sinnvoll sein kann und dann natürlich auch eingesetzt werden sollte.Es geht aber darum, Software und deren Betrieb besser zu machen. Wir verzichten als Softwareentwickler ja auch nicht auf statische Codeanalyse, nur weil die nicht all unsere Probleme löst.
Dann dürfte ja in der Praxis nirgendwo mehr was hochgehen. Das tut es aber. Offenbar wird es dann doch nicht überall richtig eingesetzt.Das ist ja heute kein Hexenwerk mehr.
Wie ich schon sagte. Bestimmt kommt der Einwand, dass .Versionierte Artefakte, auch bei den Abhängigkeiten, lassen sich einfach umsetzen.
Auch hier wiederhole ich das, was ich im letzten Posting schon sagte. Nämlich, das es darum nicht geht, ob eine Lösung schwierig einzusetzen ist.Die von mir skizzierten Lösungen sind keine Raketenwissenschaft.
Ist mir alles bekannt. Nützt nur nicht viel, wenn diese nicht benutzt werden. Nimm ein beliebiges und seit einiger Zeit schon frei verfügbares Tool und lasse es mal über ein paar Softwareprojekte laufen.Es gibt aber viele Tools wie z.B. statische Codeanalyse, die viele allzu menschliche Fehler im Quellcode findet, ohne das man viel Know-How für den Umgang damit haben müsste.
Sorry, wenn ich hier dazwischen grätschen muss. Aber DevOps. Ist nicht dafür da, um die Softwarequalität zu erhöhen, sondern um Kosten zu senken.Inzwischen sind zumindest zwei deiner Punkte Mainstream. DevOps
Es geht nicht darum, das man versehentlich etwas übersieht. Es geht darum, das Leute die schon immer schlampig gearbeitet haben nicht dadurch besser werden, in dem man ihren Werkzeugen einen neuen Anstrich verpasst.Blinde Flecken - wer keine hat, werfe den ersten Stein.
Weiß nicht. Der Vorteil von Open-Source ist ja, das möglichst viele davon profitieren. Wenn Du irgendwas als Open-Source rausbringst, was aber keiner außer Dir gebrauchen kann, dann ist es ähm ... nicht so der Bringer. :-)Nur weil manchen die Entscheidungen nicht gefallen, ist das nicht weniger wert.
Hab ich doch genannt. Bei CUPS hatten sie irgendwelche Sachen rausgeworfen, die unteranderem die Linuxer noch brauchten.vielleicht kannst du mir auch ausführen, wo die Probleme bei CUPS und WebKit liegen?
Ja. Ich wollte auch nur Ergänzen, das das alles nicht gänzlich unumstritten ist oder war.Ich wollte nur darlegen, was Apple so herausgibt.
Wie soll das gehen? Vorher hattest Du nur das Programm. Jetzt hast Du Programm plus Container. Das ist eindeutig mehr Komplexität.
A+B > A | wenn B>0
Davon war ja auch nie die Rede.
Ich sprach mich sogar explizit für Automation statt manuelle Vorgänge aus.
Wie Du da das Gegenteil rauslesen kannst, ist mir ein Rätsel.
Ich glaube auch manchmal, Du wirfst mehrere Sachen durcheinander. Nämlich Automation und Container. Automation kriegst Du auch ohne Container hin. Also bitte: getrennt betrachten
Ist korrekt. Nur kommt das immer wieder in der Praxis vor. Warum? Weil halt nicht überall Javascript, Python und Java eingesetzt wird.
Mal wieder eine Schönwetterannahme von Dir, die in der Praxis zerschellt.
Oder sehe ich das alles sooo falsch? Kann auch sein, das meine Wahrnehmung gestört ist. Nur andererseits, wenn ich sagen: Wenn ihr das so und so macht geht die Sache hoch und rundrum sehe ich auch überall Explosionen, rede ich mir ja immerein, das so falsch das was ich sage ja nicht sein kann.
Ja. Aber selbst hier ließe sich viel machen. Ohne Aufwand. In der Praxis werden die Sachen aber nicht benutzt. Auch auf die Gefahr hin das ich mich wiederhole: Versteh doch. Das Problem ist nicht die Technik. Das Problem sind die Leute, die sie benutzen!
Das Problem ist nicht, das Bugs vorkommen können. Das Problem ist, das man gewisse Probleme versucht auf Teufel komm raus mit Technik zu erschlagen. Im Endergebnis hast Du einfach nur mehr Baustellen und mehr Bugs. Nicht weniger!
Das beschreibt schön, was ich meine. Du hast ne Kack-Umgebung. Anstatt das man aber diese Kack-Umgebung mal gerade zieht, baut man irgendwas mit Containern, damit einem die Kack-Umgebung nicht mehr so leicht auf die Füße fällt.
Das ihr das aber auch nicht merkt! Angeblich Jahrzehnte in der Branche unterwegs und Dir ist das nie aufgefallen.
Exemplarisch dafür, wie Marketing funktioniert. Es wird gar nicht auf die Lösung und deren Stärken und Schwächen eingegangen, sondern quasi nur noch mit Emotionen gespielt. Das ist Werbung (kannst Du in jedem beliebigen SPot bewundern). Das ist Marketing. Das sollte aber nicht die Maxime unseres Handelns sein.
Sorry, wenn ich hier dazwischen grätschen muss. Aber DevOps. Ist nicht dafür da, um die Softwarequalität zu erhöhen, sondern um Kosten zu senken.
Früher hattest Du halt ein Entwickler, der die Software entwickelt hat und ein Operator, der die Software baut und ausrollt. Das soll jetzt einer machen. Als DevOps. Der muss also jetzt plötzlich nicht nur Know-How im programmieren haben, sondern auf für den Betrieb von Programmen (Administration, wenn Du so willst). Der muss also quasi doppelt so viel wissen, hat aber dafür nur halb so viel Zeit.
Klar. Auch jetzt wirst Du wieder Einwände bringen, das es ja all die tollen Tools gibt die das total einfach zugänglich machen. Und während Du noch am reden bist, laufen im Security-Ticker weiter Horrormeldungen ein, weil diese Schönwetter-Theorien in der Praxis alle auseinanderfallen.
Es geht nicht darum, das man versehentlich etwas übersieht. Es geht darum, das Leute die schon immer schlampig gearbeitet haben nicht dadurch besser werden, in dem man ihren Werkzeugen einen neuen Anstrich verpasst.
Ich dachte, das hatte ich deutlich gemacht.
Weiß nicht. Der Vorteil von Open-Source ist ja, das möglichst viele davon profitieren. Wenn Du irgendwas als Open-Source rausbringst, was aber keiner außer Dir gebrauchen kann, dann ist es ähm ... nicht so der Bringer. :-)
Das kann eine Motivation sein, es gibt aber auch andere. Und davon gleich darauf zu schließen, niemand könnte das gebrauchen ist auch weit her geholt.Der Vorteil von Open-Source ist ja, das möglichst viele davon profitieren
Keiner hat CUPS geforked oder ne Alternative gebaut. Kann also nicht so schlimm gewesen sein, oder? Im Umkehrschluss wars dann vielleicht doch ganz okay das auszubauen?Ich weiß nur, das es einen gewissen Wirbel darum gab, so das sogar ich das mitbekommen hab.
Natürlich nicht die sind halt nun mal Apple und nicht die WohlfahrtIch wollte auch nur Ergänzen, das das alles nicht gänzlich unumstritten ist oder war.
Wir verwenden essentielle Cookies, damit diese Website funktioniert, und optionale Cookies, um den Komfort bei der Nutzung zu verbessern.
Siehe weitere Informationen und konfiguriere deine Einstellungen