[RANT] Gedanken zu guter Software, KISS und Unixphilosophie

Ich habe ein recht komplexes, in C geschriebenes Programm, was einst als reine FreeBSD-Anwendung begann. Da ich beim Design gleich von Beginn an andere Plattformen im Hinterkopf hatte und es entsprechend aufgebaut habe, waren die späteren Ports auf Linux, OS X und Solaris Formsache. Einzig bei Solaris biss mich eine Namespace-Kollision zwischen einem meiner eigenen Symbole und der dort eingesetzten Threading-Bibliothek, was sich allerdings schnell lösen ließ. Der Windows-Port war ein wenig aufwändiger, vor allem da ich das Programm auf Winsock und Windows-Threads anpassen musste, war aber in knappen sechs Stunden abgeschlossen.
Meine Erfahrungen mit meinen Arbeiten an dem Quake 2 Source sind ähnlich. Nachdem die schrecklich wirre Pampe erst einmal aufgeräumt war und die plattformabhängigen Backends sauber vom generischen Code getrennt, war ein erneuter, sauberer Port auf FreeBSD und Linux problemlos möglich. Bereits nach zwei Tagen hatte ich die erste lauffähige Version. Zugegeben arbeitete ich mit Icculus Port, weshalb ich nicht allen Code neuschreiben musste, es hätte den Zeitaufwand aber maximal verdoppelt.
Nein, ich bin der Meinung, dass C-Code sehr portabel sein kann, wenn man ihn den mit Hinblick auf spätere Portierung designed. Problematisch wird es, wenn man die Art der zugrundeliegenden Hardware wechselt, zum Beispiel ausgewachsene x86-Hardware gegen sehr beschränkte Embedded-Prozessoren tauscht. Aber das wird in der Praxis kaum vorkommen und ist damit irrelevant, einmal ganz davon abgesehen, dass sich auch in weiten Teilen der Embedded-Systeme zunehmend "vollwertige" Hardware durchsetzt. Zudem sind auch andere Sprachen und Technologien da nicht unproblematisch.

Aber das wird langsam sehr Offtopic, denn das Thema dieses Threads ist die ansteigende Komplexität von Anwendungen und nicht ihre Portabilität und die Sprachen, in welchen sie entwickelt wurden.
 
Hier werden mir die ganzen C-Abkömmlinge zu sehr in einen Topf geworfen. C++ schreibe ich ganz anders als C. Trotz der Abstammung ist jeweils eine ganz andere Herangehensweise sinnvoll und man muss für jeden Dialekt seinen eigenen Erfahrungsschatz sammeln.
 
Da fehlen einige Satzzeichen...

@rudy: Dank iPhone haben die C-Sprachen wieder einen ordentlichen Schub bekommen.

Siehe hier: http://www.tiobe.com/index.php/paperinfo/tpci/Objective-C.html

Moin oenone,

also denke mal das liegt zum großen Teil an Steve Jobs der seine ehemalige innige Freundschaft zu Sun aufkündigte und Java von der Plattform verbannte.

> http://www.iphonefaq.org/archives/9731

Das war in erster Linie eine politische Entscheidung die auch zur jetzigen Phlilosophie der Firma Apple passt. Steve Jobs war schon immer ein Pusher dieses C Dialektes Stichworte hier Next Step und insbesondere Cocoa die MacOS spezifischer nicht sein könnte, insofern auch ein sich wiederholender Verdrägungsprozeß bezogen nun auf Java. Denn diese Sprache hat eine gänzlich andere Philosophie. Dann mit der Sprache C und allen Ihren Ablegern lässt sich nun mal das meiste Geld verdienen.

@ kamikaze das überlasse ich Deiner Emtscheidung

CU
 
@Kamikaze. Stimmt. C und C++ wird viel zu oft in einen Topf geworfen, Objective-C nicht so, aber das kennen eigentlich "nur" die Apple- und OpenStep Leute.

Ich frage mich auch ein wenig, was mit anderen modernen Sprachen, wie Ada ist. Das zu unterrichten wäre sicherlich kein Fehler. Ganz im Gegenteil, Typen wären damit vielleicht für viele Anfänger besser zu verstehen. Die meisten Leute, die ich kenne erzählen, dass sie im Informatikunterricht und beim Programmieren damit Probleme haben. Außerdem hat man dann auch gleich Leute, die kritischere Sachen angehen können, was gerade im Embeddedbereich ganz gut wäre oder wenn man Angst vor Tschernobyl und Fukushima. Kernkraftwerke sind wie wir wissen ja bei weitem nicht die einzigen Dinge, die Menschenleben in Gefahr bringen können.

Programmieren lernt mittlerweile ja quasi jeder, aber verstehen tun es nur Leute, die es sich selbst beibringen. Das ist genauso, wie mit Mathe. Da versagt das Schulsystem und mittlerweile sind selbst Prüfungen so ausgelegt, dass es weniger um's verstehen, sondern mehr um's Muster erkennen geht. Wenn mal etwas ein wenig anders ist versteh niemand mehr was, aber das ist ja egal, denn man lernt lediglich für die Schule und vergisst es dann wieder. :rolleyes:

Sorry, es macht mich echt sauer, wenn Leute etwas nur Probleme mit etwas haben weil es ihnen nicht ganz normal erklärt wurde. Das ist Verschwendung, von Zeit, Geld, Ressourcen sowohl beim Lehrer, als auch beim Schüler. Der Unterschied zwischen Lernen und Verstehen ist mittlerweile extrem hoch. Jeder drückt nur noch irgendwelches Zeug ohne irgendein Interesse in sich rein und kotzt es dann bei einer Prüfung wieder aus um es möglichst bald wieder vergessen zu können. Jeder macht Dinge an denen kein Interesse mehr besteht, weil alles getan wird um jegliche Neugierde und jedes verstehen wollen abzutöten. Dann hat man eine Schar von Leuten, die meinen Wissenssendungen machen schlau und jeder der das Wissen aus der Grundschule hat gilt als Genie.

@Azazyel: Bei dem Meisten habe ich ohnehin nur zugestimmt. Ich habe vieles zu sehr verallgemeinert. Es kommt sehr stark auf die jeweilige Situation war. Der Großteil meiner Antwort bezog sich auf Web Frameworks. Da gibt es eine ganze Reihe von Problemen, wie das verwechseln und vermischen von Web Design und Web Development. HTML ist keine Programmiersprache und sollte nicht als solche verwendet werden.

Die fetten Web Frameworks haben das Problem, dass sie Dinge nur dann einfacher machen wenn man sie komplett versteht und genau so verwendet, wie der Entwickler es will. Man ist standardmäßig eingeschenkt und wenn man etwas anders machen will, selbst wenn man Extensions verwendet, die man eventuell auch ohnehin selbst schreiben muss, teilweise unvollständig sind oder Dinge ganz anders machen als man will und man das alles fixen und maintainen (und zuerst mal deployen) muss dann fährt man oft nicht wirklich besser, als wie wenn man es selbst gemacht hätte. Klar, sie helfen oft gewisse Best Practices einzuhalten und kümmern sich um alles (häufig um mehr als man will und versteht), aber oftmals sind sie der Overkill und nur für einen Teil der Webanwendungen geeignet. Ich sage nicht, dass es die Arbeit nicht erledigt. Klar tut sie das, aber ob das Ergebnis ist technisch betrachtet (ich weiß, darum geht es auch meistens nicht) sagen wir mal unschön. Das ist dann sicherlich auch für den Programmierer nicht gerade sonderlich motivierend, aber das ist mehr ein politisches Problem, wie wohl generell das Meiste, was mich stört.

Es gibt dann diese "bau dir dein eigenes Framework" Dinger, die irgendwo eine "Art Interface, Standard, Server, Framework"-Dings sind. Das ist von Sprache zu Sprache ein wenig unterschiedlich. So etwas, wie Plack (Perl), Rack (Ruby), Connect (Node.JS), Paste (Python). Das halte ich für eine positive Entwicklung, allerdings funktioniert das meist nur dann wenn man weiß wie man sich um's Deployment kümmert. Das war anfangs ein Problem und einer der Gründe, warum zum Beispiel bei den Perl-Entwicklern Mojolicious so riesigen Zuspruch hat. Das braucht nur Perl und zum Einsatz braucht es eigentlich nur ein git clone. Ein anderer Vorteil an diesem Framework war, dass es quasi zur selben Zeit eine Mischung aus Microframework und "dickem" Framework ist und alles beinhaltet. Ich verliere mich hier aber in Details.

Jedenfalls kann man gut beachten, dass die normalen großen Frameworks (Rails und Clones) zwar aus gutem Grund eine weite Verbreitung haben aber viele merken, dass es häufig unnötig komplex ist und deshalb Möglichkeiten entwickeln sich entweder selbst Frameworks zusammen zubauen oder große Frameworks auf eine Art zu gestalten, die mehr Freiheiten erlaubt bzw. generell einfacher gestrickt ist ohne Fähigkeiten zu verlieren. Es gibt im großen und ganzen vier verschiedene Konzepte, die in praktisch allen Sprachen implementiert wurden und auch über gewisse Interfaces verbunden sind. Dabei geht der Trend langsam weg vom Rails-like Konzept - auch wenn das aus vielen Gründen noch lange dominant sein wird, genauso wie es immer Programmierer gibt, die selbst für größere Sachen gar kein MVC nutzen, sondern so etwas wie JSP, CGI.pm, ...

Ich vermute dass sich das alles mit Websockets und Echtzeitanwendungen deutlich ändern wird. Da kann ich mir ganz gut vorstellen, dass dann viele nur eine Art Loader als statische Datei schicken und dann den Großteil der Sachen über Websocket holen, eventuell mit ein wenig AJAX um statische Objekte besser cachen zu können. AOL baut ja gerade einem ersten Framework dazu.

Ich will zwar keine Diskussion zu diesem Thema starten, dafür gibt es einen eigenen Thread, aber, wenn man mal in eine andere Richtung blickt, zum Beispiel zu den Systemd, Pulseaudio und den *kits dann sieht man dass man Sachen mehr High Level machen will, was an und für sich nichts schlechtes ist, aber wenn es dann an Portabilität, dem Low Level Bereich und deshalb auch am "oberen" Interface schwerer wird, dann muss man sich die Frage stellen, ob sich das lohnt. Das ist generell eine Frage, die man sich, auch wenn sie häufig schwer zu beantworten sein mag vielleicht häufiger stellen sollte. Was will man erreichen und trägt das was man erreichen will dazu bei?

Gerade im Open Source-Bereich sieht man, dass die Projekte, die klar definierte Ziele haben besser funktionieren. Das ist ja nur logisch, aber auch wenn man einen Blick auf die kleineren Dinge und Ziele haben muss darf man sich da nicht verlieren und sollte sich nicht davor scheuen einen Schritt zurück zu treten um die Dinge aus einer anderen Perspektive zu sehen. Das kann sehr hilfreich bei der Problemlösung sein. Deshalb ist vielen das Feedback der Community sehr wichtig.
 
Ich frage mich auch ein wenig, was mit anderen modernen Sprachen, wie Ada ist. Das zu unterrichten wäre sicherlich kein Fehler.

Bestenfalls an der Uni aus akademischen Interesse; für den Rest braucht man eine verbreitete Sprache mit geringer Einstiegshürde und tonnenweise Resourcen im Netz.

Ganz im Gegenteil, Typen wären damit vielleicht für viele Anfänger besser zu verstehen. Die meisten Leute, die ich kenne erzählen, dass sie im Informatikunterricht und beim Programmieren damit Probleme haben.

Wer Typen bei C, Pascal oder Java nicht versteht, wird es mit Ada auch nicht tun.

Außerdem hat man dann auch gleich Leute, die kritischere Sachen angehen können, was gerade im Embeddedbereich ganz gut wäre oder wenn man Angst vor Tschernobyl und Fukushima. Kernkraftwerke sind wie wir wissen ja bei weitem nicht die einzigen Dinge, die Menschenleben in Gefahr bringen können.

Für Anfänger sind solle Belange vollkommen irrelevant. Man fängt im Deutschunterricht auch nicht mit Hegel und Nietzsche an.

Programmieren lernt mittlerweile ja quasi jeder, aber verstehen tun es nur Leute, die es sich selbst beibringen.

Dafür ist der Programmierunterricht ja da - die Leute mit Interesse anfixen, der Rest kann sich anschließend zumindest etwas darunter vorstellen.

Sorry, es macht mich echt sauer, wenn Leute etwas nur Probleme mit etwas haben weil es ihnen nicht ganz normal erklärt wurde.

Jeder hat seine Stärken und Schwächen. Nur wenige sind mit einer Begabung für solch abstrakte Themen zur Welt gekommen.

Die fetten Web Frameworks haben das Problem, dass sie Dinge nur dann einfacher machen wenn man sie komplett versteht und genau so verwendet, wie der Entwickler es will.

In den meisten Frameworks kann man nach einem Tag schon produktiv sein und Standardaufgaben erledigen. Den Rest kann man bei Bedarf nachlesen.

Man ist standardmäßig eingeschenkt und wenn man etwas anders machen will, selbst wenn man Extensions verwendet, die man eventuell auch ohnehin selbst schreiben muss, teilweise unvollständig sind oder Dinge ganz anders machen als man will und man das alles fixen und maintainen (und zuerst mal deployen) muss dann fährt man oft nicht wirklich besser, als wie wenn man es selbst gemacht hätte.

Aus Erfahrung kann ich dir sagen, dass genau das ein ganz großer Irrtum ist.
Die meisten Projekte fahren mit Frameworks um Größenordnung besser als mit Eigenentwicklungen, die:
  • keiner außer dem/den ursprünglichen Entwickler(n) kennt
  • komplett selbst entwickelt, getestet und gewartet werden müssen
  • beim nächsten Projekt schon nicht mehr genutzt werden können, weil sie viel zu speziell sind (und wenn sie nicht so speziell sind, haben wir es wieder mit einem Framework zu tun)

Beim allgemeinen Programmieren schaut man doch auch erstmal, ob eine bekannte, erprobte und unterstützte Bibliothek das eigene Problem löst.
Sonst haben wir wieder das [URL="http://de.wikipedia.org/wiki/Not-Invented-Here-Syndrom"Not-Invented-Here-Syndrom[/URL], vor dem ich schon gewarnt habe.

Klar, sie helfen oft gewisse Best Practices einzuhalten und kümmern sich um alles (häufig um mehr als man will und versteht), aber oftmals sind sie der Overkill und nur für einen Teil der Webanwendungen geeignet. Ich sage nicht, dass es die Arbeit nicht erledigt. Klar tut sie das, aber ob das Ergebnis ist technisch betrachtet (ich weiß, darum geht es auch meistens nicht) sagen wir mal unschön. Das ist dann sicherlich auch für den Programmierer nicht gerade sonderlich motivierend, aber das ist mehr ein politisches Problem, wie wohl generell das Meiste, was mich stört.

Was ist besser, ein Perl/Java/Python/Ada-Entwickler, der möglichst Funktionalität aus einer Standardbibliothek nimmt oder für jeden Furz seine eigene Lösung entwickelt?
Außerdem muss man es doch erstmal besser machen als die Framework-Entwickler. Wie viele Entwickler liefern tatsächlich bessere Arbeit ab als die Entwickler von Ruby on Rails, GWT und Konsorten?

Ich will zwar keine Diskussion zu diesem Thema starten, dafür gibt es einen eigenen Thread, aber, wenn man mal in eine andere Richtung blickt, zum Beispiel zu den Systemd, Pulseaudio und den *kits dann sieht man dass man Sachen mehr High Level machen will, was an und für sich nichts schlechtes ist, aber wenn es dann an Portabilität, dem Low Level Bereich und deshalb auch am "oberen" Interface schwerer wird, dann muss man sich die Frage stellen, ob sich das lohnt. Das ist generell eine Frage, die man sich, auch wenn sie häufig schwer zu beantworten sein mag vielleicht häufiger stellen sollte. Was will man erreichen und trägt das was man erreichen will dazu bei?

Das lässt sich mit Webframeworks nicht vergleichen, weil es hier um extrem Betriebssytem- bzw. Hardware-nahe Probleme geht und dadurch kaum portabel sein kann.
 
Bestenfalls an der Uni aus akademischen Interesse; für den Rest braucht man eine verbreitete Sprache mit geringer Einstiegshürde und tonnenweise Resourcen im Netz.
Lua?

Wer Typen bei C, Pascal oder Java nicht versteht, wird es mit Ada auch nicht tun.
Aber ich denke, dass Ada in vielerlei Hinsicht verständlicher sein kann. Das ist aber auch schwer nachzuvollziehen. Ich verstehe auch nicht mehr, wie ich bestimmte Dinge nicht verstehen konnte. Naja, wahrscheinlich liegt es wirklich am selbst lernen.

Für Anfänger sind solle Belange vollkommen irrelevant. Man fängt im Deutschunterricht auch nicht mit Hegel und Nietzsche an.
Aber du lernst Lesen und Schreiben zur gleichen Zeit, wie die Buchstaben des Alphabets, während du Dinge, wie die Unterscheidung von Selbstlauten, Mitlauten, Umlauten so wie Silbentrennung erst viel später lernst. Es ist falsch anzunehmen, dass Menschen am besten lernen indem man auf simple Logik setzt, sonst wären die meisten Mathe- und Physikasse. In der Realität ist es so, dass man mit der Analyse und dem Spielen komplexeren Dingen viel mehr lernst. Oder anders gesagt sind die einfachen Dinge für Anfänger oft die schwersten und wenn du ihn daran scheitern lässt, dann war's das mit der Motivation. Also darf man nur das absolut nötigste Beibringen und musst dann echte Anwendungsfälle bringen. Ada ist nicht das beste Beispiel, aber Pascal ist es sicherlich auch nicht. So etwas wie Lua, JavaScript oder Ruby sind viel verständlicher. Ich habe neulich einem Linguisten Perl beigebracht, was relativ einfach war, weil es sich viele Eigenschaften natürlicher Sprachen hat.

Um das zu verdeutlichen. Wenn du mit Begriffen wie Deklarationen, Typen, Integers, Klassen, void, ... kommst dann sieht keiner irgendeinen Sinn und schläft ein. Wenn du mit einem Beispielprogramm (abseits von Hello World) kommst, es nach und nach bildlich erklärst und erst mal ignorierst, dass zunächst nicht jedes Details verstanden wird dann kann sich der Lernende viel eher selbst damit beschäftigen. Dann ist es vollkommen egal, ob der Lehrer sich Dinge anders vorstellt. Man lernt am Besten selbst. Klar braucht man die Hilfe von Referenzen, Beispielen oder jemanden der einem Fragen beantwortet, aber man kann nicht einfach erwarten, dass alle sich die Dinge wie der Lehrer vorstellt und schon gar nicht, dass jemand auf die gleiche Weise versteht. Genau das passiert aber gegenwärtig. Man ist ein guter Schüler, wenn man entweder die Gedanken des Lehrers nachvollziehen kann oder sich daheim dann alles selbst beibringt.

Dafür ist der Programmierunterricht ja da - die Leute mit Interesse anfixen, der Rest kann sich anschließend zumindest etwas darunter vorstellen.
So sollte es wohl sein. Den tatsächlichen Zustand habe oben beschrieben. Schüler sind frustriert weil sie ständig gegen abstrakte Begriffe laufen, die sie sich besser selbst beibringen sollten. Ich will gar nicht daran denken wie viele gute Informatiker daran verloren gehen, aber ich kann sehen was dabei raus kommt. Bachelor und Master, die zwar wissen wie sie gute Arbeiten schreiben, aber nicht wie sie ein anständiges Programm schreiben, keine Ahnung von Standards haben, glauben, dass Assembly Magie ist und glauben JSP ist der beste und einzige Weg eine Website zu erstellen. Achja und sie haben ein technisches Studium abgeschlossen und stehen ohne technische Fähigkeiten da, aber können das Zehnfingersystem.

Nein, es ist zum Glück nicht immer so. Bei Informatik hat man den Vorteil, dass es als technisch und damit schwer gilt. Außerdem sind die Allermeisten nach dem Gymnasium so fertig damit, dass sie nicht im Traum daran denken würden Informatik zu studieren, wenn sie kein echtes Interesse haben. Aber ich bezweifle, dass jemand, der Informatik nur aus der Schule kennt jemals echtes Interesse gewinnen kann.

Nur, weil es ein wenig dazu passt eine interessante Perspektive zum Bildungssystem. Ich denke das trifft global zu:
http://www.insidehighered.com/views...uld_get_out_before_higher_education_collapses

Jeder hat seine Stärken und Schwächen. Nur wenige sind mit einer Begabung für solch abstrakte Themen zur Welt gekommen.
Das ist schlicht und ergreifend falsch. Man kommt nicht mit Begabung zur Welt und mal ehrlich, alles ist interessant wenn man sich ernsthaft damit beschäftigt. Das ist genau der elitäre Unfug, den ich ständig höre und jedes Mal widerlege wenn ich jemanden etwas beibringe für das angeblich keine Begabung da ist. Klar, das wäre die einfache Standardantwort. Genauso, wie man sagen kann XY ist einfach ein Genie. Man kommt nicht mit Begabungen zur Welt. Das Hirn entwickelt sich vielleicht so, dass man die abstrakte Welt des einen Lehrers besser versteht als die des Anderen, aber das mit der Begabung ist Unfug und basiert auf falschen Vorstellungen darüber wie das menschliche Gehirn funktioniert. Klar, das ist auch vereinfacht dargestellt, aber glaubst du ernsthaft jemand kommt mit einem Informatikerin zur Welt oder mit der Fähigkeit zum Abstrakten denken?

Es ist vielmehr so, dass Leute in gewisse Denkmuster eingefahren sind und sich davon nicht so leicht lösen kennen. Sie "verkrampfen" bei abstrakten Aufgaben, aber genauso gibt es Mathematiker die an Geisteswissenschaften scheitern. Begabung ist also dann eher etwas, was sich in der Kindheit festlegt und wenn man nur ein Interesse hat, dann "optimiert" das Hirn immer mehr darauf. Genauso wie sich auch alles Andere in einem Körper dem Leben das man führt anpasst. Trotzdem kann man, wenn man sich intensiv einer Tätigkeit widmet besser darin werden und für gewöhnlich findet man auch Interesse daran.

In den meisten Frameworks kann man nach einem Tag schon produktiv sein und Standardaufgaben erledigen. Den Rest kann man bei Bedarf nachlesen.
Damit hast du recht. Meine Aussage war dementsprechend Unsinn.


Aus Erfahrung kann ich dir sagen, dass genau das ein ganz großer Irrtum ist.
Die meisten Projekte fahren mit Frameworks um Größenordnung besser als mit Eigenentwicklungen, die
Ich habe nicht behauptet, dass sie es nicht tun, aber große Frameworks halten oft mit neuen Entwicklungen nicht immer Schritt. Sie werden zwar immer besser, weil sie meist mit der Zeit modularer werden, aber wenn ein besseres Konzept entsteht um ein Projekt zu lösen wird es schwer. Ein Beispiel: Websockets haben sie alle eingebaut, aber so etwas, wie Socket.io wurde in allen Sprachen als Modul für Rack-Clones oder komplett Standalone implementiert, weil es ein kleines "unabhängiges" Modul ist. Andererseits ist das auch nicht _die_ Lösung und es kommt sehr darauf an, was genau man machen will.

Beim allgemeinen Programmieren schaut man doch auch erstmal, ob eine bekannte, erprobte und unterstützte Bibliothek das eigene Problem löst.
Sonst haben wir wieder das [URL="http://de.wikipedia.org/wiki/Not-Invented-Here-Syndrom"Not-Invented-Here-Syndrom[/URL], vor dem ich schon gewarnt habe.
Stimmt, aber die ist eben nicht immer vorhanden und bei monolithischen Frameworks kann es vorkommen, dass man etwas ersetzen will was relativ fix eingebaut ist und dann wird es schwer. Oder es ist anders und du willst auf etwas umsteigen, was besser ist. Ich weiß nicht, wie das bei GWT ist, aber häufig bedeutet das ein Rewrite. Wenn du so etwas, wie Rack-Module verwendest kannst du mehr wiederverwerten.

Was ist besser, ein Perl/Java/Python/Ada-Entwickler, der möglichst Funktionalität aus einer Standardbibliothek nimmt oder für jeden Furz seine eigene Lösung entwickelt?
Außerdem muss man es doch erstmal besser machen als die Framework-Entwickler. Wie viele Entwickler liefern tatsächlich bessere Arbeit ab als die Entwickler von Ruby on Rails, GWT und Konsorten?
Genau darauf wollte ich ja hinaus. Es geht nicht darum, was jemand macht, wenn das Ergebnis passt und dann kommt die Frage nach Interfaces damit es möglichst unabhängig von irgendetwas Speziellem (Sprache, Plattform, spezieller Zusatzsoftware, ...) nutzbar ist. Ich, weiß das ist nicht immer wichtig, aber sehr oft und häufig weiß man nicht genau wie und wozu etwas genutzt wird. Ein simples Interface erhöht aber in den allermeisten Fällen die Möglichkeiten den Einsatzes. Was gut ist ist natürlich subjektiv, aber es geht darum das ganz generell zu beachten und sich keine Sackgassen zu bauen. Oft sieht man leider zu spät, dass das passiert ist und dann darf man die Dinge neu machen.

Das lässt sich mit Webframeworks nicht vergleichen
Hatte ich auch nicht vor, aber es ist ein Problem, das Layers und Frameworks ganz generell betrifft.

Aber ich sehe langsam wo das Problem ist. Sich darüber Gedanken zu machen und sie darzulegen ist eine Herausforderung für sich.
 

Dafür kenne ich das Angebot an IDEs für Lua nicht gut genug, um das zu beurteilen (auch wenn die Sprache selbst geeignet sein dürfte). So etwas wie BlueJ in der Java-Welt ist für Einsteiger Gold wert.

In der Realität ist es so, dass man mit der Analyse und dem Spielen komplexeren Dingen viel mehr lernst.

Dafür muss erst eine gewisse Beherrschung der Materie gegeben sein.

Ich will gar nicht daran denken wie viele gute Informatiker daran verloren gehen, aber ich kann sehen was dabei raus kommt.

Zu meiner Zeit hatten sich alle späteren Informatiker schon vor den Informatikkursen (damals noch komplett freiwillig und abseits des Lehrplans) mit der Materie in ihrer Freizeit beschäftigt.
Der Rest wollte vorher und nachher nichts damit zu tun haben.

Bachelor und Master, die zwar wissen wie sie gute Arbeiten schreiben, aber nicht wie sie ein anständiges Programm schreiben, keine Ahnung von Standards haben, glauben, dass Assembly Magie ist und glauben JSP ist der beste und einzige Weg eine Website zu erstellen. Achja und sie haben ein technisches Studium abgeschlossen und stehen ohne technische Fähigkeiten da, aber können das Zehnfingersystem.

Auch die Informatik-Diplomer waren nicht gerade dafür bekannt, während des Studiums besonders viel praktisches Wissen erworben zu haben. Mit Bachelor/Master ist das aber auch nicht besser geworden.

Nein, es ist zum Glück nicht immer so. Bei Informatik hat man den Vorteil, dass es als technisch und damit schwer gilt. Außerdem sind die Allermeisten nach dem Gymnasium so fertig damit, dass sie nicht im Traum daran denken würden Informatik zu studieren, wenn sie kein echtes Interesse haben. Aber ich bezweifle, dass jemand, der Informatik nur aus der Schule kennt jemals echtes Interesse gewinnen kann.

Nachdem jeder Schüler inzwischen einen PC zu Hause hat, ist unsere Gesellschaft zum Glück nicht auf die Schulen angewiesen, um das Interesse an IT zu wecken.

Nur, weil es ein wenig dazu passt eine interessante Perspektive zum Bildungssystem. Ich denke das trifft global zu:
http://www.insidehighered.com/views...uld_get_out_before_higher_education_collapses

Die Ökonomisierung und Inflation der Bildung. ;'(

Das ist genau der elitäre Unfug, den ich ständig höre und jedes Mal widerlege wenn ich jemanden etwas beibringe für das angeblich keine Begabung da ist.

Das ist gleichmacherischer Unfug. Natürlich kann man mit entsprechender Förderung und viel Zeit das jeweilige Potential ausloten, aber nicht aus jedem von uns wird - auch mit noch so viel Einsatz - ein Beethoven.

Klar, das ist auch vereinfacht dargestellt, aber glaubst du ernsthaft jemand kommt mit einem Informatikerin zur Welt oder mit der Fähigkeit zum Abstrakten denken.

Jeder Mensch ist unterschiedlich, dementsprechend sind auch die Talente und Neigungen unterschiedlich ausgeprägt. Damit ergeben sich auch Unterschiede, wie gerne und wie schnell jemand etwas Bestimmtes erlernt und mit was er sich aus eigener Initiative beschäftigt. Ein Lehrer kann viel, aber nicht alles kompensieren.

Trotzdem kann man, wenn man sich intensiv einer Tätigkeit widmet besser darin werden und für gewöhnlich findet man auch Interesse daran.

Korrekt, das Gehirn lässt sich natürlich trainieren. Aber wenn jemand null Interesse an Informatik hat, warum sollte er viel Zeit darauf verschwenden, wenn er diese Zeit anderweitig sinnvoller nutzen kann?

Andererseits ist das auch nicht _die_ Lösung und es kommt sehr darauf an, was genau man machen will.

Einigen wir uns auf "the right tool for the right job"? :)

Wenn du so etwas, wie Rack-Module verwendest kannst du mehr wiederverwerten.

Ich habe es mir mal näher angeschaut; Rack löst für Ruby ein Problem, dass in der Java-Welt schon seit über 10 Jahren gelöst ist (bei Java ist vieles standardisiert, auch die Interfaces für sowas). Es gibt sogar schon jruby-rack, dass die Ruby-Lösung auf Java abbildet.

Oft sieht man leider zu spät, dass das passiert ist und dann darf man die Dinge neu machen.

Man sollte natürlich darauf achten, dass die Software an den entscheidenden Stellen anpassbar ist. Meistens weiß man leider erst hinterher, welche das sein sollten, und verschwendet viel Zeit auf tolle Lösungen, die man hinterher gar nicht braucht.
Wohl dem, der an saubere Schnittstellen gedacht hat und einen Programmierumgebung hat, die Refactoring perfekt unterstützt. :)
 
Dafür kenne ich das Angebot an IDEs für Lua nicht gut genug, um das zu beurteilen (auch wenn die Sprache selbst geeignet sein dürfte). So etwas wie BlueJ in der Java-Welt ist für Einsteiger Gold wert.
Ich kenne BlueJ, aber ich glaube nicht, dass es einen derart großen Unterschied macht. Was Lua ist LÖVE eine nette Möglichkeit. Ich habe das jemanden gezigt und ein paar Tage später war ein richtiges Spiel fertig. Das OO in Lua ist zwar der größte Müll, aber neben der Tatsache, dass es einfach zu erlernen ist und einen extrem kleinen Interpreter hat ist auch LuaJIT interessant. Das schlägt in Sachen Performance sämtliche JavaScript-Engines. Ich bin zwar kein Luafan (was sich mit MoonScript aber relativieren kann), weil es mir doch ein klein wenig zu minimalistisch ist und ich mehr ein Fan von Sprachen mit Klammern anstatt then und end bin, aber wie bereits erwähnt ist es eine sehr gute Sprache für Anfänger und hat auch durchaus in der Praxis seinen Platz. Angefangen hat's ja mit Spielen, aber mittlerweile hat ja fast alles eingebautes Lua-Scripting, selbst NetBSD.

Zu meiner Zeit hatten sich alle späteren Informatiker schon vor den Informatikkursen (damals noch komplett freiwillig und abseits des Lehrplans) mit der Materie in ihrer Freizeit beschäftigt.
Der Rest wollte vorher und nachher nichts damit zu tun haben.

Auch die Informatik-Diplomer waren nicht gerade dafür bekannt, während des Studiums besonders viel praktisches Wissen erworben zu haben. Mit Bachelor/Master ist das aber auch nicht besser geworden.
Sorry, dass ich so viel auf dem Bildungssystem rumhacke, aber irgendetwas muss da grob falsch laufen. Nicht nur, dass ich wie gesagt Master kennen, die kaum mit Computern umgehen können, auch Lehrer an technischen Schulen kennen sich kaum mit dem aus, was sie unterrichten. Das ist schon ziemlich deprimierend.

Nachdem jeder Schüler inzwischen einen PC zu Hause hat, ist unsere Gesellschaft zum Glück nicht auf die Schulen angewiesen, um das Interesse an IT zu wecken.
Jup, ich denke man hinkt ohnehin der Zeit gewaltig hinterher. Ich weiß, dass ändern nicht so einfach ist und man das gut durchdenken sollte, aber wenn Zeit vergeht hat man Leute mit einem echten Hass auf Bildung. Vor der Schule ist praktisch jeder neugierig und dann geht sie recht rasch verloren. Vor allem dort wo es nicht gerade so die große Selbstbildung gibt. Während man vielleicht noch ein Buch liest, Musik in anderen Sprachen hört und an über diverse Wege zu Informatik und vielleicht sogar Physik findet wird es mit Chemie oder gar Mathematik unwahrscheinlich. Wobei letzteres ja genau das Fach ist, wo man sich am allerwenigsten berieseln lassen kann. Dabei fallen mir so viele Dinge ein, die faszinieren können Pi, der goldene Schnitt und hunderte von Paradoxen. Andererseits hat die ganze Welt hat richtiggehend Angst vor Mathematik.

Die Ökonomisierung und Inflation der Bildung. ;'(
Da fällt mir noch viel mehr ein. So etwas, wie Geschichte in der es um Jahreszahlen und Namen von Herrschern geht. In Philosophie geht es immer weniger um den Gedanken, sondern nur darum wie Werke heißen und wann sie erschienen sind, von wem was abstammt und von wann bis wann jemand gelebt hat. Die Leute haben Tonnen an Büchern geschrieben, aber was da jetzt genau drin steht und was er sich dabei gedacht haben mag tritt in den Hintergrund. Das halte ich deshalb für so schlimm, weil es aufzeigt wie schlimm es um das Nachdenken steht. Es ist völlig nebensächlich geworden.

Das ist gleichmacherischer Unfug. Natürlich kann man mit entsprechender Förderung und viel Zeit das jeweilige Potential ausloten, aber nicht aus jedem von uns wird - auch mit noch so viel Einsatz - ein Beethoven.
Das müsste man probieren, aber ich weiß schon worauf du hinaus willst. Ich weiß, es wird von beiden Seiten ständig übertrieben, aber für einen Beethoven sind da einfach zu viele Variablen. Viele große Komponisten wurden einfach von ihren Eltern schon in jungen Jahren dazu gezwungen. Es ist nicht so, dass Mozart plötzlich mit vier Jahren zum Spielen begonnen haben. Seine Eltern haben ihm Unterricht geben lassen. Dann gibt es noch viele Beispiele von Leuten, die einfach irgendwann mal ein Interesse aufgebaut haben und zwar nicht notwendigerweise schon früh im Leben. Es gibt genau so Leute, die zu etwas gezwungen werden es nicht mögen und kein Talent haben und es später ungezwungen weit bringen.

Menschen sind extrem unterschiedlich, aber das hängt trotzdem viel mehr mit dem Leben zusammen, als mit irgendetwas Anderem. Beethoven hat vielleicht eine Art Begabung, aber die ist ihm definitiv nicht in die Wiege gelegt worden. Das ist genauso ein Humbug, wie mit der Größe oder Form des Hirns und das wurde schon hunderte Male bewiesen.

Jeder Mensch ist unterschiedlich, dementsprechend sind auch die Talente und Neigungen unterschiedlich ausgeprägt. Damit ergeben sich auch Unterschiede, wie gerne und wie schnell jemand etwas Bestimmtes erlernt und mit was er sich aus eigener Initiative beschäftigt. Ein Lehrer kann viel, aber nicht alles kompensieren.
Stimmt. Ich mag nur Begriffe wie Begabung nicht. Das hat so etwas von "das ist ihm von Gott gegeben" und hört sich unveränderlich an. So etwas entwickelt sich. Natürlich festigt sich das auch - meist immer stärker und wird praktisch wie unveränderbar, aber das ist ein normaler Prozess von Anpassung und nichts von vornherein determiniert (wenn man mal davon ausgeht, dass nicht alles determiniert ist). Du meinst es wahrscheinlich ohnehin nicht so, sonst hättest du's gesagt.

Korrekt, das Gehirn lässt sich natürlich trainieren. Aber wenn jemand null Interesse an Informatik hat, warum sollte er viel Zeit darauf verschwenden, wenn er diese Zeit anderweitig sinnvoller nutzen kann?
Da stimme ich dir voll und ganz zu. :)

Einigen wir uns auf "the right tool for the right job"? :)
Gerne. Das habe ich mir ohnehin schon gedacht, als ich mir meinen Eröffungsbeitrag durchgelesen habe. Mich hat nur davor einiges so frustriert. Wie es eben manchmal ist, wenn man sieht, wie sich Hindernisse vor einem auftürmen und ich hatte gerade nichts zum Frust ablassen also habe ich mich entschieden den Beitrag zu schreiben und auch abzusenden. Viele deiner Ansichten Teile ich ja, aber ich bin mir oft selbst nicht sicher, ob ich mich nicht verlaufe. Deshalb find ich es ja immer wieder nett, dass ich nicht gleich als Troll hingestellt werde. Ich hab's ja deshalb auch als Rant gekennzeichnet.

Ich habe es mir mal näher angeschaut; Rack löst für Ruby ein Problem, dass in der Java-Welt schon seit über 10 Jahren gelöst ist (bei Java ist vieles standardisiert, auch die Interfaces für sowas). Es gibt sogar schon jruby-rack, dass die Ruby-Lösung auf Java abbildet.
Mit der Informatik ist das ein wenig wie mit der Geschichte sie wiederholt sich. MVC ist auch schon ewig alt und gerade ist man im Web drauf und dran WIMP neu zu erfinden und nicht mehr lange, dann haben wir einen Tiling Window Manager für den Browser. Mir gehen ja ohnehin schon seit langem die Shortcuts aus. Alles irgendwie übertrieben vim-like. :ugly:

Man sollte natürlich darauf achten, dass die Software an den entscheidenden Stellen anpassbar ist. Meistens weiß man leider erst hinterher, welche das sein sollten, und verschwendet viel Zeit auf tolle Lösungen, die man hinterher gar nicht braucht.
Weshalb ich Prototypen angesprochen habe, aber davon trennt man sich dann oft schwer.
 
Sorry, dass ich so viel auf dem Bildungssystem rumhacke, aber irgendetwas muss da grob falsch laufen. Nicht nur, dass ich wie gesagt Master kennen, die kaum mit Computern umgehen können, auch Lehrer an technischen Schulen kennen sich kaum mit dem aus, was sie unterrichten. Das ist schon ziemlich deprimierend.

Man muss als ITler schon sehr idealistisch sein, um zum Tarif des Öffentlichen Dienstes zu arbeiten.

Gerne. Das habe ich mir ohnehin schon gedacht, als ich mir meinen Eröffungsbeitrag durchgelesen habe. Mich hat nur davor einiges so frustriert. Wie es eben manchmal ist, wenn man sieht, wie sich Hindernisse vor einem auftürmen und ich hatte gerade nichts zum Frust ablassen also habe ich mich entschieden den Beitrag zu schreiben und auch abzusenden. Viele deiner Ansichten Teile ich ja, aber ich bin mir oft selbst nicht sicher, ob ich mich nicht verlaufe. Deshalb find ich es ja immer wieder nett, dass ich nicht gleich als Troll hingestellt werde. Ich hab's ja deshalb auch als Rant gekennzeichnet.

Einer der wenigen Vorteile des Alters ist die Gelassenheit. :)

Mit der Informatik ist das ein wenig wie mit der Geschichte sie wiederholt sich. MVC ist auch schon ewig alt und gerade ist man im Web drauf und dran WIMP neu zu erfinden und nicht mehr lange, dann haben wir einen Tiling Window Manager für den Browser. Mir gehen ja ohnehin schon seit langem die Shortcuts aus. Alles irgendwie übertrieben vim-like. :ugly:

Du musst es positiv sehen - auf diese Art und Weise geht uns nie die Arbeit aus. :cool:

Weshalb ich Prototypen angesprochen habe, aber davon trennt man sich dann oft schwer.

Gibt es Projekte, die den Prototyp wegwerfen, wirklich? ;)
Ich muss den Erfindern der agilen Softwareentwicklung unbedingt ein Bier ausgeben; wenn man die Welt schon nicht ändern kann, muss man wenigstens das Beste daraus machen.
 
Nein, ernsthaft. Ich bin außer Stande nachzuvollziehen was du sagen wolltest.
Hallo Kamikaze

< Offtopic >
Nun Deine Post+s in diesem Thread erweckten bei mir den Eindruck das Du Deinen Schwerpunkt auf nur eine Sprache legst und andere Sprachen gewollt oder ungewollt abwertest zum Audruck bringt das Dein gewählter Begriff Hirnblockade und Dein Satz mit Pascal rumgemurckst . Wie sicher bekannt ist bin ich mitten drin in der Portierung von einen kompletten Soundstudio auf die Unix bzw. Linux Plattform wobei ich allerdings Unix den Vorzug gebe da ich es für das bessere OS halte.

So Dein Satz wertet nun eine Sprache ab die zu Unrecht von vielen allerdings nicht allen genau in dieser Tradition immer wieder niedergemacht wird. Meist kommen diese Angriffe aus dem Lager der C und C++ Befürworter selten sind diese substanziell mit Argumenten unterlegt oder unterfüttert die einen Proff of Concept stand halten würden und werden dann auch widerlegt selbst Brian W. Kernighan wurde mehrfach widerlegt in seiner einseitigen Kritik an der Sprache Pascal:

Input > http://www.lysator.liu.se/c/bwk-on-pascal.html

Zumal sich herausstellte das alle diese Kritiker C Kenner so formuliere ich das mal sind nein ich werde aber nicht höflich sein, es waren zum großen Teil die Erfinder von C widerlegt wurden diese allesamt sogar mehrfach von Java Programmieren und Small Talk Entwicklern.

Die Angriffe erfolgen aus einer Politisch dogmatischen Haltung heraus. Das C ++ und seine Untermenge C eben derart verbreitet sind hat durchaus genau diese politische und elitäre Unterfütterung um das nachzuvollziehen solltest Du zu den Anfängen von Unix zurückgehen und warum die Compiler mit was für einer Haltung heraus verbreitet wurden und speziell für wen.

C verdrängte seinerzeit die etwas ältere Sprache Pascal die auch stark mit MacOS zusammenhängt auch hier etwas
Input > http://de.wikipedia.org/wiki/Pascal_(Programmiersprache)
Abschnitt Pascal und MacOS

Weiterer Input > http://www.taoyue.com/tutorials/pascal/history.html
Abschnitt The World Changes aber generell der gesamte Artilkel weil er es im historischen Kontext darstellt

nun ja und Ihre Befürworter und das waren in der Reihenfolge, Firmen, gesponserte Universitäten, gesponsorte Professoren, Dozenten und ein elitäres Lager, die hatten kein gesteigertes Intersse daran das etwa Viefalt bestehen sollte. Nahezu alle Betriebssysteme sind in C geschrieben aber nicht aus dem Gesichtspunkt heraus das C die bessere Sprache sei das ist sie beileibe nicht sondern es war in erster Linie Politik. Auch nicht unwesentlich C war eine Sprache zum Geld Drucken das ist sie bis dato noch!

So dazu solltest Du dich nicht auf die technischen Aspekte hierzu konzentrieren sondern das mal im gößeren Zusammenhang sehen.

Zu meiner Person ich gehöre zu den damaligen Java Revoluzzern, die es auf eine Konfrontation mit der Lehrmeinung die nichts anders als eine Doktrie war anlegten und diese Kämpfe ausfochten denn wir wurden mit C vergewaltigt und darauf hatten wir keine Böcke mehr..

Das C Lager war seinerzeit sehr aggressiv besonders im elitären Unixlager das kennen Basic Programmierer zur Genüge, denn das waren die ersten die gedisst und weggemobt wurden und das hängt auch viel mit der Kultur zusammen deren Du Dich zugehörig fühlst hier meine ich den ccc und die hackerkultur und hier insbesondere die Homecomputerszene und Demoscene und da schliesst sich der Kreis zu C.

Dann eine ganz einfache und simple Frage warum sind C und all Ihre Ausprägungen so schwer lesbar beantworte Dir einmal diese Frage und dann reflektiere....

</Offtopic>

So kiurz zum Thema Politik spielt auch bei großen Projekten eine nicht unwesentliche Rolle ich verweise in diesem Kontext auf die Stadt München und das Linux Experiment in der Stadtverwaltung das nicht an der technischen Machbarkeit scheiterte sondern aus primär anderen Gründen....

Ergänzend mit Politik meine ich ausdrücklich nicht Parteipolitik

Abschliessend ich möchte betonen das ich keinen Flame oder sogar Shitstorm anstrebe nur wollte ich das ganze mal aus einer anderen Sichtweise darstellen.

CU
 
Zuletzt bearbeitet:
Selbst die Erfinder von C meinen, dass es nicht mehr unbedingt zeitgemäß ist, aber eine Programmiersprache einer anderen vorzuziehen kann ja die unterschiedlichsten Gründe haben. Wissenschaftlich fundierte Gründe scheinen da äußerst rar zu sein. Es wurden Unmengen an Studien zu Sprachen und Methoden gemacht. Als ich mit den Programmieren angefangen habe habe ich Unmengen dazu gelesen. Jeder sagt etwas anderes und eigentlich hat niemand der eine bestimme Sprache verwendet wirklich unrecht. Es ist auch egal, weil man ohnehin nicht nur eine Sprache lernen sollte. Allein schon, weil man mit anderen Sprachen andere Konzepte findet und Wege ein Problem anzugehen. Das hilft einem dann mit jeder Sprache.

Aber das merkt man alles ohnehin schnell selbst, wenn man sich hinsetzt und etwas programmiert.
 
Die Angriffe erfolgen aus einer Politisch dogmatischen Haltung heraus. Das C ++ und seine Untermenge C eben derart verbreitet sind hat durchaus genau diese politische und elitäre Unterfütterung um das nachzuvollziehen solltest Du zu den Anfängen von Unix zurückgehen und warum die Compiler mit was für einer Haltung heraus verbreitet wurden und speziell für wen.

Das musst du uns erklären.

nun ja und Ihre Befürworter und das waren in der Reihenfolge, Firmen, gesponserte Universitäten, gesponsorte Professoren, Dozenten und ein elitäres Lager, die hatten kein gesteigertes Intersse daran das etwa Viefalt bestehen sollte.

Ich ging in meinem naiven Weltbild immer davon aus, dass Unix schon in C entwickelt war, als Pascal gerade erst in den Kinderschuhen steckte.

Von Kleinigkeiten wie der unterschiedlichen Reihenfolge von Funktionsparametern beim Aufruf und dem Umstand, dass sich die Unix-Header (geschrieben in C) und Bibliotheken (geschrieben in C) unter C halt wesentlich einfacher einbinden lassen als unter Pascal?
Davon sollten wir uns nicht stören lassen. :rolleyes:

Nahezu alle Betriebssysteme sind in C geschrieben aber nicht aus dem Gesichtspunkt heraus das C die bessere Sprache sei das ist sie beileibe nicht sondern es war in erster Linie Politik.

Komisch, aus meinen eigenen Erfahrungen mit C und Pascal hatte ich immer den Eindruck, dass könnte an dem wunderbar einfachen und unkomplizierten Zugriff auf die Hardware unter C liegen - der wesentlich simpler ist als unter Pascal (das dafür an anderer Stelle seine Vorteile ausspielt).

Auch nicht unwesentlich C war eine Sprache zum Geld Drucken das ist sie bis dato noch!

Inwiefern eignet(e) sich denn die Sprache C besser zum Geld verdienen als Pascal (abgesehen von der Verbreitung)?

So kiurz zum Thema Politik spielt auch bei großen Projekten eine nicht unwesentliche Rolle ich verweise in diesem Kontext auf die Stadt München und das Linux Experiment in der Stadtverwaltung das nicht an der technischen Machbarkeit scheiterte sondern aus primär anderen Gründen...

Ach, deswegen hat die Leitung von LiMux gesagt: "Wir waren naiv."

Es waren also nicht etwa die "technische Backendstruktur die Kooperation hinderte oder sogar verweigerte" oder gar die "klassische ActiveX-Abhängigkeit". Gerade im Bereich städtische Verwaltung, wo es ja so extrem viel Software für Unix gibt. :rolleyes:
Nachdem praktisch jeder hier im Forum schon mit propietären Formaten und Protokollen zu tun hatte, ist eine Verschwörungstheorie natürlich die plausibelste Erklärung. :rolleyes:
 
@rudy
Deine Zeichensetzung macht es mir schwer, Deine Texte zu lesen.
Ich brauche viel länger, um den Sinn zu verstehen. Schade um Deine Texte.
 
Das musst du uns erklären.

Also ich muss 3 Dinge, mehr nicht, alles andere bestimme ich weitgehend selber

Ich ging in meinem naiven Weltbild immer davon aus, dass Unix schon in C entwickelt war, als Pascal gerade erst in den Kinderschuhen steckte.

Von Kleinigkeiten wie der unterschiedlichen Reihenfolge von Funktionsparametern beim Aufruf und dem Umstand, dass sich die Unix-Header (geschrieben in C) und Bibliotheken (geschrieben in C) unter C halt wesentlich einfacher einbinden lassen als unter Pascal?
Davon sollten wir uns nicht stören lassen. :rolleyes:
.

Ach es gab kein Leben vor der Sprache C schon mal was von Assenbler gehört und danach BCPL? Jetzt ist mein Welltbild vollkpmmen zerstört wie wenig manche über die Entstehung und Histotrie von Unix ( Unics) wissen....

Etwas Auffrischung > http://de.wikipedia.org/wiki/Unix

Dann Pascal ist die ältere Sprache, es entstand von 1968 bis 1972

Stammbaum http://www.tinohempel.de/info/info/sprachen/paradigmen.htm

Komisch, aus meinen eigenen Erfahrungen mit C und Pascal hatte ich immer den Eindruck, dass könnte an dem wunderbar einfachen und unkomplizierten Zugriff auf die Hardware unter C liegen - der wesentlich simpler ist als unter Pascal (das dafür an anderer Stelle seine Vorteile ausspielt).
.

Schon mal Demos programmiert ne nicht in C sondern in Pascal-Turbo Pascal oder Delphi geht nicht und wie das geht aber kann Dir mal ne Faq schicken einfach ne PN an mich..

Inwiefern eignet(e) sich denn die Sprache C besser zum Geld verdienen als Pascal (abgesehen von der Verbreitung)?
.
Pascal wurde als Lehrsprache konzipiert, bei Pascal ging es nie darum eine kommerzielle Sprache zu schaffen......

C hat sich durchgesetzt weil UNIX sich verbreitet hat. C hat natürlich einen Einfluss als hardwarenahe Sprache auf die Erstellung von Betriebssystemen. Die gesamte API eines in C geschriebenen Betriebssystems besteht dann in Aufrufen für C. Die gesamte Dokumentation und Beispiele wie man programmiert sind dann in C. Das gilt nicht nur für UNIX, wer die hilfe für die Windows API installiert findet alle Routinen mit C Parametern und auch alle Programmbeispiele sind in C.

Nun warum hat Windiws diese Verbreitung und das ist auch kurz und knapp die Antwort so und jetzt reflektiere mal und sehe das mal im größeren Zusammenhang und vor allen im Historischen Kontext bezogen auf die Universitäten.

Hindert dich ja keiner da mal nach zu forschen

Ach, deswegen hat die Leitung von LiMux gesagt: "Wir waren naiv."

Es waren also nicht etwa die "technische Backendstruktur die Kooperation hinderte oder sogar verweigerte" oder gar die "klassische ActiveX-Abhängigkeit". Gerade im Bereich städtische Verwaltung, wo es ja so extrem viel Software für Unix gibt. :rolleyes:
Nachdem praktisch jeder hier im Forum schon mit propietären Formaten und Protokollen zu tun hatte, ist eine Verschwörungstheorie natürlich die plausibelste Erklärung. :rolleyes:

Mein Bester Du liest eindeutig zuviel Heise einem Blatt das dafür berühmt ist der Hauptsponsor aller BSD zu sein das meine ich jetzt sarkastisch, ist Heise Dein einziger Quellenleferant.?

CU
 
Zuletzt bearbeitet:
Hi,

gute Software habe ich bisher nur bei Bärinnen gefunden. In welcher Sprache die programmiert wurde entzieht sich leider meiner Kenntnis. Trotz alle dem ist FreeBSD bärig sehr nett - auch wenn es manchmal schöne Bärenfallen und Fettnäpfe bereit hält. In der Not frisst der Teufel Fliegen - was so viel bedeutet wie so Bären beschäftigen sich mit fast Allem - solang es dafür Bärengeld gibt.

Gruß Bär
 
Pascal wurde zum Lernen konzipiert.
Python auch.
C für Unix, Spacewars und Compiler.
Perl für Textdateien.
Java für Kaffeemaschinen.

Häufig werden Sprachen (Programme, Protokolle, ...) für ganz andere Dinge als usprünglich geplant einsetzt.

Weit verbreitet Sprachen haben meist mehr Stellenangebote, aber womit man in der Praxis sein Geld macht kann sehr unterschiedlich sein. Ich kenne jemanden, der sich mit Visual Basic eine goldene Nase "verdient", weil er einfach den richtigen Job hat.
 
Ach es gab kein Leben vor der Sprache C schon mal was von Assenbler gehört und danach BCPL?

Das habe ich nicht behauptet.

In Assembler habe ich selber schon programmiert (sowohl auf x86 als auch SPARC).

Dann Pascal ist die ältere Sprache, es entstand von 1968 bis 1972

Das habe ich nicht bezweifelt. Allerdings konnte ich keinen Beleg für einen nennenswerten Einfluss von Pascal auf C finden. Zitat Wikipedia:


Dieser detaillierter ausgearbeitete Stammbaum kennt die Beziehung nicht.

Schon mal Demos programmiert ne nicht in C sondern in Pascal-Turbo Pascal oder Delphi geht nicht und wie das geht aber kann Dir mal ne Faq schicken einfach ne PN an mich..

Pascal war meine erste richtige Programmiersprache; ich habe ohne Ende vor dem Rechner gehockt und jeden erdenklichen Kram in Pascal entwickelt - bevor ich zu C, später C++ und inzwischen Java als Hauptentwicklungssprache gewechselt habe.

Im Jahre 2011 lockt man mit mit Pascal und Delphi aber niemanden mehr hinter dem Ofen hervor.

Pascal wurde als Lehrsprache konzipiert, bei Pascal ging es nie darum eine kommerzielle Sprache zu schaffen......

Zum kommerziellen Hintergrund von C zitiere ich mal wieder Wikipedia:
Under a 1958 consent decree in settlement of an antitrust case, AT&T (the parent organization of Bell Labs) had been forbidden from entering the computer business. Unix could not, therefore, be turned into a product; indeed, under the terms of the consent decree, Bell Labs was required to license its nontelephone technology to anyone who asked. Ken Thompson quietly began answering requests by shipping out tapes and disk packs – each, according to legend, with a note signed "love, ken".
In den 70ern hat man mit Software kein Geld verdient; die Bell Labs haben jede Menge Grundlagenforschung gesponsort. Ritchie/Kernighan sind jetzt mit C auch nicht gerade reich geworden.

C hat sich durchgesetzt weil UNIX sich verbreitet hat. C hat natürlich einen Einfluss als hardwarenahe Sprache auf die Erstellung von Betriebssystemen. Die gesamte API eines in C geschriebenen Betriebssystems besteht dann in Aufrufen für C. Die gesamte Dokumentation und Beispiele wie man programmiert sind dann in C. Das gilt nicht nur für UNIX, wer die hilfe für die Windows API installiert findet alle Routinen mit C Parametern und auch alle Programmbeispiele sind in C.

Nachdem Windows hauptsächlich in C entwickelt wurde, kein Wunder. Dito für OS/2.
Welche Programmiersprache hättest du für ein Betriebssystem in den 1980ern genommen?

Nun warum hat Windiws diese Verbreitung und das ist auch kurz und knapp die Antwort so und jetzt reflektiere mal und sehe das mal im größeren Zusammenhang und vor allen im Historischen Kontext bezogen auf die Universitäten.

Hindert dich ja keiner da mal nach zu forschen

Was macht Windows (das wie fast jedes andere OS dieser Zeit hauptsächlich in C entwickelt wurde) diesbezüglich besonders?

Hier gibt es keine Preise für kryptische Antworten. Wenn du hier irgendwo Zusammenhänge andeuten möchtest, die ich oder andere geneigte Lesern nicht sehen - schreib sie einfach.

Mein Bester Du liest eindeutig zuviel Heise einem Blatt das dafür berühmt ist der Hauptsponsor aller BSD zu sein das meine ich jetzt sarkastisch, ist Heise Dein einziger Quellenleferant.?

Ich liefere drei Zitate aus einem Artikel. Selbstverständlich liefere ich auch die Quelle meiner Zitate dazu. Sollte der heise-Artikel nicht den Tatsachen entsprechen, darfst du mich gerne korrigieren.
Aber bevor wir über den heise-Verlag diskutieren: wo sind deine Belege, dass LiMux nicht an technischen Machbarkeiten gescheitert ist?
 
Hallo,
also vieleicht sehen wir die Dinge aus verschiedenenen Blickwinkeln heraus und entschuldige biite das ich mir mit dieser Antwort nun Zeit gelassen habe, was entgegen meiner sonstigen Gewohnheit ist. Schon ein paar mal habe ich mich eingelogt den Thread und Deinen Post gequotet und mich dann unverrichteter Dinge wieder ausgelogt weil ich mir nicht sicher mit meiner Amtwort war.

Nachfolgend starte ich nun den Versuch Dir angemessn zu antworten, weil es schade wäre das dieser Thread im Nirvana versinken würde....

Vorneweg ich sehe die Dinge aus dem Resumee eines mittlerweile langen Zeitraumes heraus, Linux hatte vor kurzen den zwanzigjährigen Jubliläumstag, etwas länger beschäftige ich mich schon mit der elektronischen Datenverarbeitung und war in etlichen Projekten aktiv diese einzeln zu benennen würde den Rahmen hier sprengen.

Mittlerweile liegt mein Schwepunkt wo ganz anders als er zu Beginn meiner Tätigkeiten lag .
In Assembler habe ich selber schon programmiert (sowohl auf x86 als auch SPARC).

Da haben wir sehr vieles gemeinsam, mal abgesehen davon das Assembler immer noch meine Lieblingssprache ist habe ich das meiste in Assembler umgesetzt auf den unterschiedlichsten Plattformen und auch bei einem Projekt mit anderen zusammen, das eindrucksvoll seinerzeit Bill Gates widerlegte, wer also dazu was wissen will kann mir ne PN schreiben.

Das habe ich nicht bezweifelt. Allerdings konnte ich keinen Beleg für einen nennenswerten Einfluss von Pascal auf C finden. Zitat Wikipedia:

Beide Sprachen haben ihre Wurzeln ihre Einflüsse von Algol mal auch ein Verweis zu Wikipedia:
> http://de.wikipedia.org/wiki/ALGOL
> http://de.wikipedia.org/wiki/Geschichte_der_Programmiersprachen

Ein Beitrag über den Erfinder von Pascal
http://www.land-der-erfinder.ch/?tag=tag-der-erfinder


Den Stammbaum den ich eingefügt habe sollte ja auch nur einen kurzen Überblick und ein Abriss der Historie darstellen, mehr lag nicht in meiner Intention, wer sich für diesen Blickwinkel interessiert wird da auch so vermute ich mal selbst nachforschen.

Pascal war meine erste richtige Programmiersprache; ich habe ohne Ende vor dem Rechner gehockt und jeden erdenklichen Kram in Pascal entwickelt - bevor ich zu C, später C++ und inzwischen Java als Hauptentwicklungssprache gewechselt habe.

Im Jahre 2011 lockt man mit mit Pascal und Delphi aber niemanden mehr hinter dem Ofen hervor.

Meine erste Sprache war BASIC danach auch schon C habe vieles mit C gemacht und nun greife ich mal vor in meiner Antwort, auch ein Betriebssystem mit entwickelt allerdings habe ich mich Mitte 2000 von diesem Projekt verabschiedet aus einem Richtungsstreit heraus.
So nach C kam Java und dann erst Pascal und in der zeitlichen Abfolge Turbo-Pascal und Delphi....

Zum kommerziellen Hintergrund von C zitiere ich mal wieder Wikipedia:
Under a 1958 consent decree in settlement of an antitrust case, AT&T (the parent organization of Bell Labs) had been forbidden from entering the computer business. Unix could not, therefore, be turned into a product; indeed, under the terms of the consent decree, Bell Labs was required to license its nontelephone technology to anyone who asked. Ken Thompson quietly began answering requests by shipping out tapes and disk packs – each, according to legend, with a note signed "love, ken".
In den 70ern hat man mit Software kein Geld verdient; die Bell Labs haben jede Menge Grundlagenforschung gesponsort. Ritchie/Kernighan sind jetzt mit C auch nicht gerade reich geworden.

Nachdem Windows hauptsächlich in C entwickelt wurde, kein Wunder. Dito für OS/2.
Welche Programmiersprache hättest du für ein Betriebssystem in den 1980ern genommen?

Was macht Windows (das wie fast jedes andere OS dieser Zeit hauptsächlich in C entwickelt wurde) diesbezüglich besonders?

Hier gibt es keine Preise für kryptische Antworten. Wenn du hier irgendwo Zusammenhänge andeuten möchtest, die ich oder andere geneigte Lesern nicht sehen - schreib sie einfach.

So ich fasse da mal etwas zusammen in meiner Antwort, vorneweg es liegt und lag nicht in meiner Absicht irgendeinen Preis hier zu bekommen, Preise habe ich genug in dem Wettstreit auf den Partys mit anderen zusammen im Team erzielt. Falls ich nun bei Dir und anderen den Eindruck erwecke kryptische Antworten zu liefern so entschuldige ich mich dafür.

Deine Frage welche Programmiersprache für ein Betriebssystem in den 80er, nun ich hätte Ada genommen auch aus Gründen der Wartbarkeit des Codes, der Übersichtlichkeit und ja auch der Sicherheitsaspekt sollte in diesem Kontext nicht unerwähnt bleiben. Ada wurde aber abgelehnt weil es aus dem militärischen Umfeld heraus kam, es gab auch Bestrebungen Ada von der Unix Plattform zu verbannen soweit ich mich da noch wage erinnern kann.

> http://www.adahome.com/History/Steelman/steeltab.htm ( Begründung warum ich auch für Ada plädiere )

Deine Frage nun was macht Windows so besonders, das lässt sich auch nicht in einem oder zwei Sätzen beantworten nun Microsoft schaffte es zumindest Vorgänge zu vereinfachen und zwar das Linux oder Unix immer noch eine höhe Einstiegshürde für die Nutzer darstellen Das belegen auch Threads hier in diesem Forum und anderen Foren sei es nun Linux oder Unix. Mit Ihren Kapital startete Microsoft dann aggresiv seine Lobbyarbeit, so das die Hardware an die Bedürfinsse von Microsoft angepasst wurde. Das machten seinerzeit Firmen im damaligen Unix Umfeld ebenso.

Die aufkommende Hobbyistenszene also vereinfacht ausgedrückt der Privatanwender wurde hier aber im Gegensatz dazu sehr vernachlässigt. Stichworte hierzu Unix als Desktop System...

Es gab zwei Projekte die sich diesen Mankos annahmen das waren Desktop BSD und PC BSD und auch diese Projekte waren selbstkritisch betrachtet nicht unumstritten auch hierzu verweise ich mal auf ältere Threads aus diesem Forum auch Mailinglisten bezeugen das. Nun PC BSD ist übrig geblieben Gott sei Dank sag ich dazu nur und das Projekt macht einen tollen innovativen Job und bringt eine Nutzerbasis auf der man aufbauen kann

Ich liefere drei Zitate aus einem Artikel. Selbstverständlich liefere ich auch die Quelle meiner Zitate dazu. Sollte der heise-Artikel nicht den Tatsachen entsprechen, darfst du mich gerne korrigieren.
Aber bevor wir über den heise-Verlag diskutieren: wo sind deine Belege, dass LiMux nicht an technischen Machbarkeiten gescheitert ist?

Nun vielleicht reagiere ich auf Heise etwas allergisch das mag durchaus sein, es ist auch so das ich nicht in dem Projekt LiMux involviert bin, aber meines Wissens nach wurde das Projekt vom Tüv zertifiziert. Bei Netzpolitik.org findet sich auch ein Artikel

> http://netzpolitik.org/2011/interne...nderung-der-open-source-strategie/#more-20730

der zumindest meiner hier gemachten Annahme entspricht.

Auf der Seite der Stadt München

> http://www.muenchen.de/Rathaus/dir/limux/wollmux/409112/vorteile.html

und deren umfangreichen Verlinkungen zu dem Projekt und nun muss ich einräumen dass ich nicht alles gelesen habe, da mir dazu auch schlichtweg die Zeit fehlt finde ich nichts davon das meine Annahme falsch wäre.

So abschließend meine Interessen haben sich mittlerweile dahin gehend geändert das ich nicht mehr den Schwerpunkt meiner Tätigkeit, auf die Entwicklung/Weiterentwicklung von Betriebssystemen setze.Sondern eher einen Teibereich abdecke im Rahmen der mir noch zustehenden Ressourcen und das ist nun Multimedia.
Bezogen auf Deine Antwort zu Delphi und dem Jahr 2011, der ich auch ausdrücklich nicht widerspreche kann man fesstellen das seit einger Zeit, der Trend etwa ab 2008/9/10 so möchte ich da mal umschreiben immer mehr weg von den höheren Sprachen geht.
Es gibt auch Threads hierzu im Forum, die letzte Gnome Entwicklerkonferenz machte das auch deutlich und auch die Entwicklung bei den Browsern die immer mehr an Bedeutung gewinnen und einen immer höheren Stellenwert erlangen Stichworte hier Assembler insbesondere Nitro, Javascript, Css und HTML5...

Verweise:
> http://en.wikipedia.org/wiki/JägerMonkey
> https://wiki.mozilla.org/JaegerMonkey
>http://hacks.mozilla.org/2010/03/a-quick-note-on-javascript-engine-components/

Dann nun in Zeiten von Cloud und seinen Möglichkeiten sowie dezidiert auch Vor/Nachteilen ist das Betriebssystem, sicherlich und den damit verbundenen Entwicklungssprachen eher als sekundär zu werten.

CU
 
Zuletzt bearbeitet:
Da haben wir sehr vieles gemeinsam, mal abgesehen davon das Assembler immer noch meine Lieblingssprache ist habe ich das meiste in Assembler umgesetzt auf den unterschiedlichsten Plattformen und auch bei einem Projekt mit anderen zusammen, das eindrucksvoll seinerzeit Bill Gates widerlegte, wer also dazu was wissen will kann mir ne PN schreiben.

Weniger PN, mehr Erfahrungsberichte im Forum! :)

So nach C kam Java und dann erst Pascal und in der zeitlichen Abfolge Turbo-Pascal und Delphi....

Rein Interessehalber, warum setzt du Delphi ein? Gibt es abgesehen von deiner persönlichen Vorliebe für Pascal noch andere, sachliche Gründe?

Deine Frage welche Programmiersprache für ein Betriebssystem in den 80er, nun ich hätte Ada genommen auch aus Gründen der Wartbarkeit des Codes, der Übersichtlichkeit und ja auch der Sicherheitsaspekt sollte in diesem Kontext nicht unerwähnt bleiben. Ada wurde aber abgelehnt weil es aus dem militärischen Umfeld heraus kam, es gab auch Bestrebungen Ada von der Unix Plattform zu verbannen soweit ich mich da noch wage erinnern kann.

Ich vermute, ADA war außerhalb des militärischen/avionischen Umfelds einfach zu wenig verbreitet und C "gut genug".


Als ADA 1983 auf der Bühne erschien, war C schon längst zu sehr verbreitet.

Das belegen auch Threads hier in diesem Forum und anderen Foren sei es nun Linux oder Unix. Mit Ihren Kapital startete Microsoft dann aggresiv seine Lobbyarbeit, so das die Hardware an die Bedürfinsse von Microsoft angepasst wurde. Das machten seinerzeit Firmen im damaligen Unix Umfeld ebenso.

Damals liefen bis auf Xenix/SCO die ganzen Unixes ja nicht einmal auf PC-Hardware. :(

Die aufkommende Hobbyistenszene also vereinfacht ausgedrückt der Privatanwender wurde hier aber im Gegensatz dazu sehr vernachlässigt. Stichworte hierzu Unix als Desktop System...

Selbst im Jahre 2011 noch ein düsteres Thema...

Es gab zwei Projekte die sich diesen Mankos annahmen das waren Desktop BSD und PC BSD und auch diese Projekte waren selbstkritisch betrachtet nicht unumstritten auch hierzu verweise ich mal auf ältere Threads aus diesem Forum auch Mailinglisten bezeugen das. Nun PC BSD ist übrig geblieben Gott sei Dank sag ich dazu nur und das Projekt macht einen tollen innovativen Job und bringt eine Nutzerbasis auf der man aufbauen kann

Wie groß ist denn die Nutzerbasis?

Nun vielleicht reagiere ich auf Heise etwas allergisch das mag durchaus sein, es ist auch so das ich nicht in dem Projekt LiMux involviert bin, aber meines Wissens nach wurde das Projekt vom Tüv zertifiziert.

Was soll man von einer Zertifizierung als "Gebrauchstauglicher Basisclient" nur halten? ;)

Bei Netzpolitik.org findet sich auch ein Artikel

> http://netzpolitik.org/2011/interne...nderung-der-open-source-strategie/#more-20730

der zumindest meiner hier gemachten Annahme entspricht.

Eine McKinsey-Studie, die allen Ernstes Dual-Boot als vernünftige Lösung für Endanwender darstellt, spricht für sich.

Bezogen auf Deine Antwort zu Delphi und dem Jahr 2011, der ich auch ausdrücklich nicht widerspreche kann man fesstellen das seit einger Zeit, der Trend etwa ab 2008/9/10 so möchte ich da mal umschreiben immer mehr weg von den höheren Sprachen geht.

Der Trend geht doch in die andere Richtung - hin zu höheren Sprachen!
DSL, [URL="http://en.wikipedia.org/wiki/Model_Driven_Architecture]MDA[/URL], Python, Groovy, Ruby, Scala und vieles mehr. Ich sehe hier keinen Trend zurück zu C oder Assembler.

Es gibt auch Threads hierzu im Forum, die letzte Gnome Entwicklerkonferenz machte das auch deutlich und auch die Entwicklung bei den Browsern die immer mehr an Bedeutung gewinnen und einen immer höheren Stellenwert erlangen Stichworte hier Assembler insbesondere Nitro, Javascript, Css und HTML5...

Der Fokus liegt hier doch auf der Optimierung der Javascript-Performance - weil Javascript durch die Webanwendungen immer mehr an Bedeutung gewinnt - und nicht bei Assembler selbst. Das ist nur Mittel zum Zweck zur Performance-Optimierung einer Laufzeitumgebung.

Als Java oder Python einen Just-In-Time-Compiler bekommen und im Laufe der Jahre immer weiter verbessert haben, hat auch niemand von einem Assembler-Boom gesprochen.

Dann nun in Zeiten von Cloud und seinen Möglichkeiten sowie dezidiert auch Vor/Nachteilen ist das Betriebssystem, sicherlich und den damit verbundenen Entwicklungssprachen eher als sekundär zu werten.

Korrekt. Der Browser als Plattform ist für viele - nicht alle - Anwendungen zwar kaum optimal, aber gut genug.
 
Weniger PN, mehr Erfahrungsberichte im Forum! :)
Alles klar werde ich dann beherzigen :)

Rein Interessehalber, warum setzt du Delphi ein? Gibt es abgesehen von deiner persönlichen Vorliebe für Pascal noch andere, sachliche Gründe?
Das hat ganz einfache, triviale Gründe http://code.google.com/p/macaw/ das Tonstudio ist in Delphi programmiert läuft derzeit auf Windows und auch den Mac, ich wollte das Rad nicht neu erfinden und das Studio in C umschreiben. Der zweite nicht unwesentliche Aspekt ich kann auch mit Delphi die VST Schnittszelle ansprechen um Plugins zu schreiben.

> http://de.wikipedia.org/wiki/Virtual_Studio_Technology

Ich vermute, ADA war außerhalb des militärischen/avionischen Umfelds einfach zu wenig verbreitet und C "gut genug".
Das stimmt, ich glaube auch das man zu dieser Zeit allen militärischen Entwicklungen in diesen Bereich perse ablehnend gegenüberstand

Als ADA 1983 auf der Bühne erschien, war C schon längst zu sehr verbreitet.
Man mochte die Sprache auch nicht siehe oben.... Rational war das aber nicht begründet nur damals tickten die Uhren etwas anders ;)
Damals liefen bis auf Xenix/SCO die ganzen Unixes ja nicht einmal auf PC-Hardware. :(
Das stimmt Xenix das Redmond Unix ;) und zu SCO fallen mir nur Klagewellen ein :(

Selbst im Jahre 2011 noch ein düsteres Thema...

Siehst Du das so? Also denke mal es liegt auch daran mal abgesehen von technischen Aspekten das Linux gehypt wird kaum komt ne remaster einer Distro mit schicken Namen heraus kommt das in die Presse und wird als das ultimative MustHave Linux vertickt.
So schaut man sich dann die Features dieser MustHave Distro an nun dann gibt es gar keine meist irgend ein Buntu das remastert wurde....
Nur halt ohne Unity oder ne Debian Distro ohne Gnome3 den viele nicht mögen mir geht das genauso da hatte der Linus mal vollkommen Recht in seiner Kritik.

Wie groß ist denn die Nutzerbasis?

Wenn ich das nur wüsste :( Aber zumindest kennen mehr PC BSD das sollte mehr gepusht werden weil es sich hinter keiner Linux Distro verstecken muss
So nun ist mir wieder eingefallen das es dazu ja ein Projekt gibt nähmlich BSD Stats siehste ich werd alt :(

So der Verweis > http://bsdstats.org/

Was soll man von einer Zertifizierung als "Gebrauchstauglicher Basisclient" nur halten? ;)

Eine McKinsey-Studie, die allen Ernstes Dual-Boot als vernünftige Lösung für Endanwender darstellt, spricht für sich.

Das kann man durch aus so sehen wie Du

Der Trend geht doch in die andere Richtung - hin zu höheren Sprachen!
DSL,
Der Fokus liegt hier doch auf der Optimierung der Javascript-Performance - weil Javascript durch die Webanwendungen immer mehr an Bedeutung gewinnt - und nicht bei Assembler selbst. Das ist nur Mittel zum Zweck zur Performance-Optimierung einer Laufzeitumgebung.

Als Java oder Python einen Just-In-Time-Compiler bekommen und im Laufe der Jahre immer weiter verbessert haben, hat auch niemand von einem Assembler-Boom gesprochen.

Ob es einen Boom gibt mag ich nicht voraus zu sehen aber es ist ein Trugschluß vieler zu denken das es nicht möglich wäre portablen Assembler zu schreiben ich lasse mal hierzu Linus zu Wort kommen
> [url]http://torvalds-family.blogspot.com/2009/08/programming.html
oder G. Adam Stanislav
http://www.freebsd.org/doc/de/books/developers-handbook/x86.html

dann wäre noch anzufügen das es Bestrebungen gab und gibt High Level Assembler noch weiter voran zubringen die Syntax dürfte Dir gefallen in den Ports findest Du HLA ( High Level Assembler ) allerdings scheint es ein Schattendarsein zu fristen leider.

> http://www.freebsd.org/cgi/cvsweb.cgi/ports/lang/hla/
> http://www.freebsd.org/cgi/url.cgi?ports/lang/hla/pkg-descr
> http://webster.cs.ucr.edu/AsmTools/HLA/
> http://webster.cs.ucr.edu/AsmTools/HLA/HLADoc/HLARef2_html/HLARef.html

Korrekt. Der Browser als Plattform ist für viele - nicht alle - Anwendungen zwar kaum optimal, aber gut genug.

So ist es, Mozilla hat ja nun Bestrebungen sein eigenes Betriebssystem zu entwickeln basierend auch auf dem Feuerfuchs

> http://www.sueddeutsche.de/digital/...illa-konkurrenz-fuer-android-und-co-1.1124968
> https://wiki.mozilla.org/B2G
> https://wiki.mozilla.org/B2G/FAQ

Cu
 
Ich finde Assembly auch nett, aber ich würde nicht sagen, dass es sich für die Entwicklung von Webanwendungen eignet, schon gar nicht Clientseitig. Allein schon, wenn man daran denkt, dass man da ja die verschiedensten Tricks anwendet um den Code klein zu bekommen und ich hoffe, dass es niemals so weit kommt, dass binärer Code der Standard auf der Clientseite wird. Flash und Java als Plugin sind ja schlimm genug. Nicht zuletzt deshalb freue ich mich ja über HTML 5.

Go ist auch genial, aber ich weiß nicht ob sich die Sprache etablieren kann, so lange sie kein Killerfeature bekommt, das sie sie besser als C macht und neben C bzw. zwischen C und höheren Sprachen sehe ich nicht wirklich Platz dafür, sonst hätte sich den wohl schon jemand geschnappt.

Was die Serverseite angeht kann man ja prinzipiell verwenden was man will. Die derzeitigen Entwicklungen sorgen ja immer mehr dafür, dass es egal ist und PHP wohl weiter geschwächt wird. Bibliotheken für JSON und NoSQL-Datenbanken zu implementieren (SQL ist für Echtzeitanwendungen noch uninteressanter als für viele andere) ist meist keine sonderlich große Herausforderung und für die Kommunikation beim Skalieren gibt es neben 0MQ und ein paar anderen Projekten auch nicht viel Konkurrenz und Bindings sind verfügbar.

Bestimmte Projekte (Node.JS, CoffeeScript, Socket.IO) haben ja ohnehin gerade einen enormen Hype. Ich glaube nicht, dass das schnell vorübergehen wird. Systemsprachen (und Java) verwendet man dann eben für bestimmte Bibliotheken, Datenbanken, den Browser, ... Das ist ja ohnehin ihre große Stärke. Das ist aber nur eine Einschätzung, weil ich derzeit nicht wirklich sehen kann, dass sie im Webanwendungsbereich Fuß fassen.
 
Zurück
Oben