Mich kotzt das Web 2.0 einfach nur noch an ...

Das ist sicherlich richtig, aber geht es nur um Information? Das ist ungefähr so als wenn man sagt es würde dass es beim Essen nur um Ernährung, Nährstoffe etc.gehen würde, was wohl kaum der Fall sein wird. Das Web ist inzwischen ein eigenständiger Bestandteil unserer Kultur mit einer eigenen Semantik und Ästhetik die sich auch erst langsam entwickeln. Es ausschließliche als Medium zur Informationsübertragung fassen zu wollen - was es ja auch sein kann - greift sicherlich zu kurz.

Ich verstehe was Du meinst und mein Ausdruck ist vielleicht etwas unverständlich - ich liebe schöne Verpackungen z.B. bei Büchern. Toll gemacht, schön anzuschauen, gut in der Hand zu halten, angenehm zu betrachten und damit gut zu lesen.

Früher waren Schriftsetzer dafür zuständig, ein leider ausgestorbener Beruf, deren Kenntnisse, wie so vieles, einfach im Orkus verschwunden sind.

Die vermisse ich vermutlich einfach, die, deren Kenntnisse die Information gut und angenehm lesbar machen.
 
Also Leute, mal ehrlich. Wenn das web ankotzt, wegen Werbung, dem gebe ich ein guten Tipp: Es gibt die Funktion, den Browser zu beenden. Damit braucht er sich kein Schnick-Schnack, Werbung mehr an zu sehen und hat weniger zum Kotzen. :grumble: :ugly:

Das Problem ist nicht die Werbung, sondern eine beschissene Haptik mit optisch vollkommen überfrachtetem Design auf technisch fehlerhaften Seiten.
 
WebAnzeigeBrowser wie Netsurf und lynx :D gibt es doch bereits.
Netsurf hat nur deswegen kein Javascript, weil das noch nicht implementiert wurde. Es steht aber auf der ToDo-Liste.
Ein sehr schöner Browser übrigens, nur halt mit der genannten Einschränkung kaum praxistauglich. Eigentlich alle diese "kleinen" Browser sind nur benutzbar, wenn sie auf die Webkit-Engine aufsetzen wie Midori, Xombrero oder (für Geeks) Uzbl. Die drei sind meine Favoriten, nicht unbedingt in dieser Reihenfolge.

Die ganze Web-Technologie geht IMHO in eine falsche Richtung. Vernetzung ist heute so selbstverständlich, daß sie auf einer tieferen Ebene implementiert sein sollte, etwa wie NFS. Das ist aber wieder zu unflexibel. Mir schwebt ein Dateisystem vor, in dem einzelne Dateien auch HTTP-Links sein können (oder FTP oder SFTP oder ...). Zeigen diese auf Dateiformate wie HTML oder PDF, die selbst wieder Links beinhalten, so kann man sie als Directory behandeln und sich weiter den Pseudo-Verzeichnisbaum entlanghangeln. An die Stelle des Web-Browsers tritt dann ein Dateimanager.
Dieser erweiterte Verzeichnisbaum könnte durchaus ausführbare Dateien enthalten. Javascript wäre dann nur ein Spezialfall. Das Betriebssystem gewährleistet durch entsprechendes Sandboxing die Sicherheit bei der Ausführung nicht-lokaler Dateien. Meta-Informationen stellen die Kompatibilität sicher ("nur auf FreeBSD ab 9.1") und können auch zur beiderseitigen Authentifizierung dienen: "Diese PNG-Datei kann nur von Inhabern des privaten Schlüssels XYZ geöffnet werden." - "Digitale Signatur durch Commerzbank-Kunden-Abteilung ..."
Bei derart flexibler Gestaltung eines "Directory"s könnte man auch die Verschlüsselung auf Verzeichnisebene einbauen und so, unabhängig von einer Transportverschlüsselung à la SSL oder SFTP, sicherstellen, daß auch beliebig kopierte Dateien nur für Herrn XYZ lesbar sind, sofern sie immer mit Directory und in solch ein Dateisystem kopiert wurden.

Okay, das war meine Portion Science Fiction für heute. Angenehme Träume!
 
An die Stelle des Web-Browsers tritt dann ein Dateimanager.

Der Konqueror war nach seiner Einführung als "beides" ja ein Riesenerfolg, nicht? :D

Web und Desktop sind zwei Dinge, die nichts miteinander zu tun haben sollten. Eine Desktopanwendung kann und soll Dinge tun, die ich meinem Browser niemals erlauben wollen würde, wenn er mich denn fragte; ebenso andersherum.
 
Ich verstehe was Du meinst und mein Ausdruck ist vielleicht etwas unverständlich - ich liebe schöne Verpackungen z.B. bei Büchern. Toll gemacht, schön anzuschauen, gut in der Hand zu halten, angenehm zu betrachten und damit gut zu lesen.

Früher waren Schriftsetzer dafür zuständig, ein leider ausgestorbener Beruf, deren Kenntnisse, wie so vieles, einfach im Orkus verschwunden sind.

Das ist, noch sehr vorsichtig ausgedrückt, völliger Schwachsinn. Seit den 80ern setzt man in Westdeutschland fast ausschließlich Digital, im damaligen Ostdeutschland hat sich das soweit ich weiß erst so wirklich nach der Wende in der breiten Masse durchgesetzt. Die Schriftsetzer "hießen" damals dann einfach noch so, obwohl sie in wirklichkeit längst alles mit der Maus gemacht haben, wie z.B. mein Opa auch.

In 90ern hat man sich dann folgerichtig entschieden den Beruf umzubennen - der "Nachfolgeausbildungsberuf" heißt "Mediengestalter Digital und Print" enthält im Endeffekt primär das was ein "Schriftsetzer" ende der 80er / Anfang der 90er halt auch gelernt hat: Kein Bleisatz, sondern Computersatz. Das bedeutet somit, das jemand der ende der 90ern "Mediengestalter" gelernt hat, sicherlich nicht schlechter ausgebildet ist als jemand der Schriftsetzer Anfang der 90er gelernt hat.

Was ich bei dem "neuen" Beruf etwas schwierig finde, ist das sehr viele Menschen den lernen, die eher als Berufsziel "etwas mit Gestaltung" machen wollen, ohne bereit zu sein sich mit der technischen Seite intensiv auseinanderzusetzen, dies verringert imho etwas den Wert der Ausbildung.

Andererseits haben auch in den frühen 90ern viele "Schriftsetzer" in den Druckereien schon über den Murks der Designer rumgeflucht den die Umsetzen sollen.
 
Netsurf hat nur deswegen kein Javascript, weil das noch nicht implementiert wurde. Es steht aber auf der ToDo-Liste.
Ein sehr schöner Browser übrigens, nur halt mit der genannten Einschränkung kaum praxistauglich. Eigentlich alle diese "kleinen" Browser sind nur benutzbar, wenn sie auf die Webkit-Engine aufsetzen wie Midori, Xombrero oder (für Geeks) Uzbl. Die drei sind meine Favoriten, nicht unbedingt in dieser Reihenfolge.

Die ganze Web-Technologie geht IMHO in eine falsche Richtung. Vernetzung ist heute so selbstverständlich, daß sie auf einer tieferen Ebene implementiert sein sollte, etwa wie NFS. Das ist aber wieder zu unflexibel. Mir schwebt ein Dateisystem vor, in dem einzelne Dateien auch HTTP-Links sein können (oder FTP oder SFTP oder ...). Zeigen diese auf Dateiformate wie HTML oder PDF, die selbst wieder Links beinhalten, so kann man sie als Directory behandeln und sich weiter den Pseudo-Verzeichnisbaum entlanghangeln. An die Stelle des Web-Browsers tritt dann ein Dateimanager.
Dieser erweiterte Verzeichnisbaum könnte durchaus ausführbare Dateien enthalten. Javascript wäre dann nur ein Spezialfall. Das Betriebssystem gewährleistet durch entsprechendes Sandboxing die Sicherheit bei der Ausführung nicht-lokaler Dateien. Meta-Informationen stellen die Kompatibilität sicher ("nur auf FreeBSD ab 9.1") und können auch zur beiderseitigen Authentifizierung dienen: "Diese PNG-Datei kann nur von Inhabern des privaten Schlüssels XYZ geöffnet werden." - "Digitale Signatur durch Commerzbank-Kunden-Abteilung ..."
Bei derart flexibler Gestaltung eines "Directory"s könnte man auch die Verschlüsselung auf Verzeichnisebene einbauen und so, unabhängig von einer Transportverschlüsselung à la SSL oder SFTP, sicherstellen, daß auch beliebig kopierte Dateien nur für Herrn XYZ lesbar sind, sofern sie immer mit Directory und in solch ein Dateisystem kopiert wurden.

Okay, das war meine Portion Science Fiction für heute. Angenehme Träume!

Davor warne ich eindringlich.

Transport, Sicherheit, persistence/storage und Präsentation sind (noch weitgehend) unterschiedliche Themen und sollten das auch bleiben. Auch hier gibt die Unix Philosophie durchaus den richtigen Weg vor: Kleine Spezialisten.

Wenn ich sehe, mit welcher Selbstverständlichkeit einige Idio^H^H^H^H äh, Leute per Shell im Browser server fernwarten, kriege ich das Gruseln.

http(s)/html hat eigentlich eine klar umrissene Aufgabe. Ich erinnere mal an die Ursprünge ... da ging es einfach darum, etwas Dynamik in das schnell als (zu) starr empfundene HTML zu kriegen. Inzwischen sind wir bei "Der Browser ist das Betriebssystem". Böse Zungen (z.B. meine) murmeln gelegentlich etwas von wegen "systemd + OS in the Browser" wird kommen ...
 
systemd-httpcd (http client daemon) als Abhängigkeit für init. Läuft.
 
Das ist, noch sehr vorsichtig ausgedrückt, völliger Schwachsinn. Seit den 80ern setzt man in Westdeutschland fast ausschließlich Digital, im damaligen Ostdeutschland hat sich das soweit ich weiß erst so wirklich nach der Wende in der breiten Masse durchgesetzt. Die Schriftsetzer "hießen" damals dann einfach noch so, obwohl sie in wirklichkeit längst alles mit der Maus gemacht haben, wie z.B. mein Opa auch.

Dein Opa mit der Maus wußte aber zumindest noch, was er da tat und etliche andere auch und Heute dominieren halt die, mit "was mit Medien" und so.
 
Der Konqueror war nach seiner Einführung als "beides" ja ein Riesenerfolg, nicht?
Das hat damit nichts zu tun. Ich will den Browser ja abschaffen. Und der geringe Erfolg des Konqueror lag wohl kaum darin begründet, daß er nebenher Dateimanager war, sondern an seinen mangelnden Fähigkeiten bzgl. Rendering und Stabilität (auch heute noch!) und der Anbindung an den KDE-Desktop.
Web und Desktop sind zwei Dinge, die nichts miteinander zu tun haben sollten. Eine Desktopanwendung kann und soll Dinge tun, die ich meinem Browser niemals erlauben wollen würde, wenn er mich denn fragte; ebenso andersherum.
Das ist doch nur eine Kleinigkeit. Das Betriebssystem hat halt dafür zu sorgen, daß Code "von draußen" sauber gesandboxt wird. Mit JavaScript klappt das ja auch.
 
Nein, mit JavaScript klappt das nicht. Chrome zum Beispiel machte sich in den letzten Jahren nicht unbedingt dadurch bemerkbar, dass seine Sandbox besonders ausbruchsicher wäre.

Was soll das Betriebssystem denn konkret tun können?
 
Transport, Sicherheit, persistence/storage und Präsentation sind (noch weitgehend) unterschiedliche Themen und sollten das auch bleiben. Auch hier gibt die Unix Philosophie durchaus den richtigen Weg vor: Kleine Spezialisten.
Der Browser in seiner heutigen Form verstößt so brutal wie kein anderes Programm gegen die Unix-Philosophie. Er ist
  • Netzwerk-Client und File-Downloader
  • Document viewer
  • Application launcher (für Dateien, die er selbst nicht anzeigen kann)
  • Script interpreter
  • und je nach Modell noch vieles andere.
Ich würde das zerteilen wollen. Der Zugriff auf Dateien im Netzwerk kann z. B. ins Dateisystem integriert werden. (Das ist ja nichts Neues.) Das muß sich auch nicht alles im Kernel befinden.
Wenn ich sehe, mit welcher Selbstverständlichkeit einige Idio^H^H^H^H äh, Leute per Shell im Browser server fernwarten, kriege ich das Gruseln.
(...)
Inzwischen sind wir bei "Der Browser ist das Betriebssystem".
Genau das geht auch mir auf den Senkel. Daher rührt meine Idee. Und daher, daß ein paar dieser Aufgaben für lokale Dateien schon längst von Desktop/Dateimanager ausgeübt werden.
 
Nein, mit JavaScript klappt das nicht. Chrome zum Beispiel machte sich in den letzten Jahren nicht unbedingt dadurch bemerkbar, dass seine Sandbox besonders ausbruchsicher wäre.
Deshalb soll das am besten nicht einem Browser überlassen werden, sondern ein für allemal im Betriebssystem gelöst sein. Ein Web-Server z. B. läuft, wenn schon nicht in einer Jail, so doch unter einem stark unterprivilegierten User-Account, so daß er fast gar nichts darf. Das wäre auch Client-seitig eine Möglichkeit. Oder das Starten externer Executables ausschließlich über ein Wrapper-Programm, das eine Art Mini-Jail bereitstellt. Oder ... Mensch, Sandboxing ist doch heute kein Hexenwerk mehr.
Überhaupt, so ziemlich alles, was ich nannte, gibt es doch schon in irgendeiner Form. Man müßte es nur zusammenschrauben. "Nur" - ich weiß natürlich, daß das verdammt viel Arbeit wäre.

Der Browser entwickelt sich immer mehr zu einem Neben-Betriebssystem in bezug auf remote Dateien, so wie die normalen Systemtools mit lokalen Dateien hantieren. Diese Zweigleisigkeit ist mir ein Dorn im Auge. Wenn man nur den Dateizugriff netzwerktransparent gestaltet, kann man, unter entsprechenden Sicherheitsvorbehalten, alles mit den lokalen Tools erledigen. Nur aus alter Gewohnheit sollte der Dateimanager dann selbst das handelsübliche Gemisch aus HTML, JavaScript und Bilddateien zu verarbeiten in der Lage sein. Also letztlich doch ein Konqueror, aber ohne Netzwerkfunktionen.
 
Mein FreeBSD eben so, gerade frisch nach dem täglichen Neubau: Uptime ca. 20 Minuten, zwei Webseiten mit Werbung im Webbrowser, Screenshot Auschnitt von systat:
Code:
Interface           Traffic               Peak                Total
            re0  in      0,000 KB/s          11,388 KB/s          291,258 MB
Also ohne echte Flatrate ginge Webseiten im Webbrowser aufrufen heutzutage wohl ganz schnell schief. :ugly:
 
Mein Dateimanager ist auch mein SFTP-Client, weil ich mit ihm lokale Dateien vom oder auf den Server schiebe.

Der Zugriff auf Dateien im Netzwerk kann z. B. ins Dateisystem integriert werden.

KDEs KIO/KSlaves zum Beispiel machen das ziemlich elegant und reißen gleichzeitig ein großes Loch ins System. Auch wieder nur mit Vorsicht zu genießen.
 
Mein FreeBSD eben so, gerade frisch nach dem täglichen Neubau: Uptime ca. 20 Minuten, zwei Webseiten mit Werbung im Webbrowser, Screenshot Auschnitt von systat:
Code:
Interface           Traffic               Peak                Total
            re0  in      0,000 KB/s          11,388 KB/s          291,258 MB
Also ohne echte Flatrate ginge Webseiten im Webbrowser aufrufen heutzutage wohl ganz schnell schief. :ugly:
Meine Eltern leben im "Norddeutschen Internetloch". Sie sind noch recht gut dran, es immerhin schon DSL 768KBit/s. Damit kann man große Teile des modernen Internet einfach vergessen. Mein Vater hat sich angewöhnt, nebenbei den Print-Spiegel zu lesen. Link Anklicken -> zwei Absätze lesen -> mal schauen, wie viel er schon geladen hat. Und so weiter. Im Nachbardorf gibt es dann nur noch ISDN (was ja bald Geschichte sein wird), was zu Internettourismus führt. Man besucht Bekannte in der Internetzone und bringt das Laptop mit... Aber das würde ich alles nicht als Web 2.0 Problem sehen. Das Web 2.0 ist nur ein Teil des Problems. Viel eher liegt es an dem Unwillen bzw. der Unfähigkeit unserer Bundesmutti Breindband-Anschlüsse auszubauen.
 
Gegenthese: Ohne diese Mitmachscheiße wäre "DSL Light" für die normale Webnutzung mehr als ausreichend. Wie viele HTML-Absätze passen denn ohne all den Zierrat so pro Sekunde durch die Leitung?
 
Meine Eltern leben im "Norddeutschen Internetloch". Sie sind noch recht gut dran, es immerhin schon DSL 768KBit/s.

Also das hier ist DSL 16.000. Der Peak wird von systat beim umschalten von ifstat auf netstat gelöscht. Der Peak dürfte mehr gewesen sein, als die Werbung tatsächlich geladen wurde. Es war übrigens golem.de und computerbase.de. Dabei habe ich nur ausgewählte Werbung gesehen, nämlich die Werbung für das Nvidia Gras und Werbung für zwei Videospiele. Wenn ich gar keine Werbung blocken würde, dann wäre es wohl noch sehr viel schlimmer, dann bekäme ich ja alles mögliche Zeug als Werbung in den Webbrowser geladen. Aber rund 300 MB für nur zwei Webseiten im Webbrowser aufrufen und etwas Werbung betrachten finde ich heftig. Aber dafür habe ich die Werbung in High Definition gesehen. :D
 
Also, ich kann mich noch gut erinnern daran, als man mit einem 56Kb modem "schnell" unterwegs war. Das entsprach Daumen mal Pi 3 bis 4 A4 Schreibmaschinen Seiten/Sekunde; da konnte man also schon eine ganze Menge Information übermitteln.

Ich habe eben mal die Startseite hier angesehen; und die ist nach heutigen Verhältnissen ja schlank und bescheiden. Ca 135 KB (ohne jegliche includes, also nur die Seite selbst). Textgehalt: Ca 10%.

Zum einen ist xml nun mal eine sehr fette Sache, zum anderen ist obendrein HTML mit immer neuen features verfettet; dazu noch scripts und (hier kaum) allerhand Buntzeuch. Plus natürlich (allgemein gesprochen, nicht spezifisch hier) *ultramassiv und gnadenlos* Werbung. Und fertig sind die 1MB+ Seiten.

In meinen Augen ist die Geschichte einfach. Der übliche unschöne Kreislauf eben. Also: Am Anfang eine nützliche neue Sache. Dann kommen Buntleute (Designer, etc.), Verfettung Phase 1. Als nächstes kommen Bastler, die, oft aus unschuldigem Spieltrieb, allerhand dazu basteln, teilweise durchaus Nützliches. Dynamische Menus sind ein Beispiel. Dann werden Werbe und Marketing Leute aufmerksam und überlegen sich jede Menge Gadgets um im Falle HTML etwas wie "dynamische Broschüren" hinzukriegen. Große Software Firmen in den usa sind mehr als willig, da so allerhand zu entwickeln. Da es ausschließlich um Verkauf geht, geht es auch ausschließlich um bunt und features und nicht um Sicherheit oder Vernunft und auch nicht um Angemessenheit, denn große Firmen haben nunmal große Leitungen. Natürlich macht das auch andere Mitspieler wie z.B. Carrier glücklich, denn fette Seiten brauchen fette Verbindungen = eine neue Geschäftsphase und neuer Profit.
Zwischendurch warnen ein paar besonnene Fachleute - und werden ignoriert. Zuletzt wird dann rein proprietärer Dreck zum de facto "Standard", der zwar akut unsicher ist und die Nutzer ausspioniert, der aber eben die großen Werbespam-Firmen, Marketing Abteilungen, etc. glücklich macht.

Kurz, nicht was gut wäre für 5 Mrd. * 1 Mensch setzt sich durch sondern das, was ein paar Hundert große Kunden mit Millionenbudgets zufrieden macht.

Und am Ende stehen "schlanke" Seiten, die Leute mit einer dünnen DSL Strippe nicht mehr sinnvoll nutzen können und durchschnittliche Seiten mit Hunderten von KB bis hin zu MBs. Und als ob diese Menschen noch Hohn bräuchten, dient ein nicht unerheblicher Teil des Traffics dazu, sie auszuspionieren und zu verfolgen.

An noch einem anderen Ende stehen Hardware Hersteller, denen es natürlich gelegen kommt, dass immer schnellere Prozessoren, mehr Speicher usw. gebraucht wird. So gesehen ist das ganze Spielchen durchaus ein gutes.
Dumm nur, wenn man wie die meisten an dem Ende sitzt, wo immer mehr Geld für im wesentlichen gleichen Nutzen aufgewendet werden muss und dabei als "Belohnung" immer weniger Qualität (und Sicherheit) dabei rumkommt. Endgültig dumm gelaufen ist es, wenn man nicht mal, wenn man will, die nötige Generation Internet kaufen kann, weil's einfach nicht verfügbar ist. Diese Menschen, z.B. im norddeutschen Loch, erleben dann so etwas wie (immer noch) die Luxusvariante dessen, was für ein paar Milliarden Menschen in der super-globalen Welt wenig erfreulicher Alltag ist.

Macht nix. Wir kriegen ja immer mehr LTE und den Breitbandausbau.

Jemand im Umfeld von Prof. Wirth hat's mal schön formuliert, nämlich sinngemäss so: Die Hardware wird langsamer schneller als die Software sie langsamer macht.
 
Das Web ist viel, viel schöner als vor zehn oder mehr Jahren.

Allerdings. Zumal ich den Verfechter des Web 1.0 sehen möchte, der Seiten wie den Semantic Body Browser mit old-school-plain-HTML umsetzt.

Ich wette, dass nicht mal deren Programmierer sagen könnten, wozu das alles benötigt wird (irgendwelche Javascripts von Dritten ziehen dann weitere Javascripts und Stylesheets usw.)...

Auch JavaScript-Entwickler sind auf die sinnvolle Idee gekommen, das Rad nicht jedesmal neu zu erfinden, sondern auf existierenden Bibliotheken aufzusetzen.

Im Interesse der Besucher sollte man JavaScript-Bibliotheken auch nicht selber hosten, sondern auf das jeweilige CDN verlinken. Der Browser braucht dann nicht bei jeder Seite, die z.B. jQuery verwendet, die Bibliothek neu laden, sondern kann sich einfach aus seinem lokalen Cache bedienen.

Natürlich macht das auch andere Mitspieler wie z.B. Carrier glücklich, denn fette Seiten brauchen fette Verbindungen = eine neue Geschäftsphase und neuer Profit.

Die Größe der Webseiten wird aber nicht vom Carrier bestimmt, sondern vom jeweiligen Anbieter. Der hat natürlich einen Anreiz, seinen Traffic möglichst gering zu halten, weil er dafür bezahlen muss - wenn auch keine Unsummen, Traffic ist günstig geworden.

Zwischendurch warnen ein paar besonnene Fachleute - und werden ignoriert. Zuletzt wird dann rein proprietärer Dreck zum de facto "Standard", der zwar akut unsicher ist und die Nutzer ausspioniert, der aber eben die großen Werbespam-Firmen, Marketing Abteilungen, etc. glücklich macht.

HTML5, CSS3, JavaScript, AJAX, WebSocket - alles offen.

Bis auf die patentlastigen MPEG-Standards und Flash (das sowieso auf dem Rückzug ist) kommt man auf dem Client problemlos mit Open-Source-Software aus. Auf dem Server erst recht.

Kurz, nicht was gut wäre für 5 Mrd. * 1 Mensch setzt sich durch sondern das, was ein paar Hundert große Kunden mit Millionenbudgets zufrieden macht.

Die Surfer haben die Wahl, welche Seiten sie besuchen und welche nicht. Angebot und Nachfrage.

Und am Ende stehen "schlanke" Seiten, die Leute mit einer dünnen DSL Strippe nicht mehr sinnvoll nutzen können und durchschnittliche Seiten mit Hunderten von KB bis hin zu MBs.

Es gibt keinen Mangel an Anbietern im Netz. Die älteren Semester unter uns werden sich an das Monstrum von Startseite von Altavista erinnern. Letztendlich haben die User mit den Füßen abgestimmt und sind zu anderen Suchmaschinen gegangen.

Diese Menschen, z.B. im norddeutschen Loch, erleben dann so etwas wie (immer noch) die Luxusvariante dessen, was für ein paar Milliarden Menschen in der super-globalen Welt wenig erfreulicher Alltag ist.

Zum Ausgleich hat Deutschland viele Milliarden Euro für die wirklich wichtigen Probleme parat.
 
Was haltet ihr von den ganzen Plugins und Adblockern?
Nicht sehr viel.

Unter Windows hatte ich mal eine Zeit lang "NoScript". Mit WhiteList und so. In letzter Zeit habe ich auf Windows & einer PinguinDistri "Ghostery" installiert, gleich mal alles blockiert. Ist aber natürlich wie immer Vertrauenssache und diese PlugIns usw blähen einen Browser halt auch stark auf. Schon immer lag mir daran betreffende Einstellungen direkt im Browser vorzunehen, einer der Hauptgründe weshalb ich Firefox schätze. Den nehme ich stets in der "-esr"-Version. Bis vor ein paar Jahren war Opera mein Browser.

Was mich am Web stört : viel wird dargestellt, aber dennoch wenig Information.
Es ist offensichtlich, dass es vorrangiges Ziel sein soll, die WebsitenBesucher möglichst mal am Bildschirm "zu fesseln".

Natürlich hat sich die eigentliche gestalterische Qualität im Vergleich zu den 90er, Anfangs 00er Jahre gebessert. WebDesign ist professioneller geworden.
Auf die Sünden des frühen Web's stösst man heute nur noch gelegentlich. Trotz der miesen Gestaltung solcher Seiten, sind mir diese "Sünden" heute aber irgendwie sympathischer.
Als ein Übel betrachte ich sog. automatischen Aufklappmenus. Also jene die aufklappen, sobald der Mauszeiger drüber fährt. Etwas, was ich schon bei Programmen und Desktops nicht mag. Diese sollen für klareres, aufgeräumtes Design bei gleichzeitig hohem Funktionsumfang sorgen, was sie zugegebenermassen auch tun.

Die erwähnte höhere Qualität ist eher eine technische, als grafische. Also eher "welche Informationen auf Anhieb" & Navigation. Im Gegenzug mangelt es oft an Gefühl für sinnvolle Schriften, proportionale Aufteilungen usw.
WebDesignern wird eingetrichtert, dass der erste Eindruck zählt, dass er nicht nur massgeblich ist, sondern ggf auch Priorität haben soll.
 
Die ganze Web-Technologie geht IMHO in eine falsche Richtung. Vernetzung ist heute so selbstverständlich, daß sie auf einer tieferen Ebene implementiert sein sollte, etwa wie NFS. Das ist aber wieder zu unflexibel. Mir schwebt ein Dateisystem vor, in dem einzelne Dateien auch HTTP-Links sein können (oder FTP oder SFTP oder ...). Zeigen diese auf Dateiformate wie HTML oder PDF, die selbst wieder Links beinhalten, so kann man sie als Directory behandeln und sich weiter den Pseudo-Verzeichnisbaum entlanghangeln. An die Stelle des Web-Browsers tritt dann ein Dateimanager.
Dieser erweiterte Verzeichnisbaum könnte durchaus ausführbare Dateien enthalten. Javascript wäre dann nur ein Spezialfall. Das Betriebssystem gewährleistet durch entsprechendes Sandboxing die Sicherheit bei der Ausführung nicht-lokaler Dateien. Meta-Informationen stellen die Kompatibilität sicher ("nur auf FreeBSD ab 9.1") und können auch zur beiderseitigen Authentifizierung dienen: "Diese PNG-Datei kann nur von Inhabern des privaten Schlüssels XYZ geöffnet werden." - "Digitale Signatur durch Commerzbank-Kunden-Abteilung ..."
Bei derart flexibler Gestaltung eines "Directory"s könnte man auch die Verschlüsselung auf Verzeichnisebene einbauen und so, unabhängig von einer Transportverschlüsselung à la SSL oder SFTP, sicherstellen, daß auch beliebig kopierte Dateien nur für Herrn XYZ lesbar sind, sofern sie immer mit Directory und in solch ein Dateisystem kopiert wurden.

Definitiv...

Der Browser in seiner heutigen Form verstößt so brutal wie kein anderes Programm gegen die Unix-Philosophie. Er ist
  • Netzwerk-Client und File-Downloader
  • Document viewer
  • Application launcher (für Dateien, die er selbst nicht anzeigen kann)
  • Script interpreter
  • und je nach Modell noch vieles andere.
Ich würde das zerteilen wollen. Der Zugriff auf Dateien im Netzwerk kann z. B. ins Dateisystem integriert werden. (Das ist ja nichts Neues.) Das muß sich auch nicht alles im Kernel befinden.

... der Webbrowser ist an sich (meines erachtens) ein gescheitertes Konzept... gar ein unnoetiger Flaschenhals (der zum Moloch verkommen ist).

Die Zukunft des sogenannten Web 2.0 sollte sich, wie im ersten Zitat grob umrissen, als eine transitive Abbildung (bei oberflaechlicher Betrachtung) von einem OS bereitgestellten Funktionen und dessen kapselnden Bibliotheken (man verzeihe die von mir hier eingebrachte
Oberflaechlichkeit) ueber eine Hochsprache (bspw. Limbo) in eine aus dieser implementierten Abstraktionsschicht entwickeln. Wobei dann diese, die durch html5 definierte Schnittstelle (top-half) implementiert.

Dann waere es tatsaechlich moeglich verteilte Systeme (webbasiert) gemaesz der Unix-Philosopie zugrundeliegenden bzw. geforderten Konzeption darzustellen, wie es bspw. per Styx mittels Inferno OS moeglich sein kann.
 
Zurück
Oben