Was haltet ihr von den Entwicklungen im Hardwarebereich

Weil hier staendig vom Cell-Prozessor geredet wird:
Auf'm Linuxtag letztes Jahr in Karlsruhe wurde ein Blade mit 2 Cells vorgefuehrt. Ich weiss allerdings nicht mehr welche Firma das war (ich glaub IBM, bin mir aber nicht sicher).
Auf der Kiste lief ein 2.4.x-er Linux - von dem was mir die Leute dort am Stand erzaehlt haben war ich schon beeindruckt :) Was mir ebenfalls gefallen hat an dieser Blade: Die beiden Cell-Pozzis waren relativ genuegsam was die Hitzeentwicklung angeht.
Ich bin mal gespannt was dadraus wird.

Gruss,
Philipp
 
minuseins schrieb:
Nicht wirklich neu (AMD) zumal 64 Bit unter den anderen Plattformen (IBM, IRIX, Sun) die 64Bit schon seit laengerem rumgammeln.
Hmm, ich wusste gar nicht, dass Sun x86 herstellt und IRIX eine Plattform ist...
Jaja, ich weiss schon, was du meinst :) Nicht hauen *g*
Und die meisten Computer meiner Bekannten haben auch noch kein 64bit. Software für 64bit gibt's auch noch nicht so viel (im Desktopbereich noch weniger, als im Server (wenn man von x86 redet)).
Fuer Clustersysteme allerdings Ideal.
Ja, alle auf zu Plan9, DragonFly und Co!
Auch keine wirklich neue Erfindung.
Gabs den schon mal Hardwareunterstützt von anderen Architekturen? Ich hab im Grunde nur x86 (, meine Dreamcast und meinen Z8 Microcontroller (mal abgesehen von den Microcontrollern in "Alltagsgeräten")).
Bis die erste Luecke entdeckt wird. Das Bugfixing wird dann etwas schwer. Ach hier liefern wir noch ein paar Mio. Transistoren hinterher, der das Loch fixed.
Jaja, darauf freu ich mich schon...
Hoffentlich hab ich dann schon Sparcs
Davon sehe ich nicht viel. Gut wir haben inzwischen Shader 3.0 zur Verfuegung aber den technologischen Sprung sehe ich nicht.
Naja, die GeForce 6-Serie war doch ziemlich lang top und in letzter Zeit überreascht eine 7000er nach der anderen. Zumindest habe ich diesen eindruck, aber Grafikkarten sind auch nicht soo mein Ding.
Lichtblick oder Hoffnungsschimmer? Prinzipiell habe ich das Gefuehl, das Sun derzeit auf dem richtigen Weg ist. Lange Zeit sah es nicht so danach aus.
Ja, das scheint noch teilweise am Sunimage zu haften. Aber sit OpenSolaris und dem Prozessor gefällt mir das, was Sun tut immer besser.
Aber... teuer ;'(
Persoenlich haette ich die Entwicklung lieber zum IA64 gesehen, als diese x86 Zwitter mit "Kompatibilitaetseigenheiten" zum 8086, aber der Markt sah es anders und in einigen Punkten sicher nicht zu Unrecht.
Find ich auch schön, aber auch teuer... ;'( und zwar sehr im Vergleich mit amd64.
Nichts von dem was oben beschrieben ist. Aber ich wuerde mich freuen, wenn ein *BSD die guten Features von Solaris und AIX vereint. Ja ich weiss. Mithelfen!
Sonst nur auf die ersten Cell-Plattformen.
Ich bin "damals" auf diesen allerersten Cellhype aufgesprungen und dann voll abgeprallt. Da hieß es, dass Cells sicher toll für Playstations sicher Klasse sind, aber für "Normalcomputer" nicht so toll sein sollen. Wie hat sich das denn jetzt entwickelt?
Hauptsaechlich ueber die neuen Namensgebungen. Man kommt mit den CPU-Kernen, Grafikkartenbezeichnungen und Displayaufloesungen (WXGA plus oder minus) auch als Technikinteressierter nicht mehr mit.
Ich bin auch schon in die Celeron D-Falle getreten.
Formulieren wir es so. Mein schnellster Heimrechner, mit einem P4 3.0GHz, ist ueber drei Jahre alt.
Wow, ich hab meinen Celeron D erst gekauft und war schon stolz, dass er 2,6 GHZ hat. Da sich nach oben sowieso nur der Takt ändert (EM64T, Speedstep und das Zeug sind drin) hab ich mir die billig gekauft und jetzt auf 3 GHZ getaktet.
Bin vollkommen zufrieden, auch wenn er nen kleinen Cache und kein Dual hat (dafür pöses HT *g*).
Subjektiv betrachtet, habe ich das Gefuehl, dass die drei Jahresspruenge mehr bewirkt haben als heute. Und wenn ich jetzt nicht fuer andere Dinge auch unterwegs die Leistung braeuchte, wuerde ich das Notebook nicht ersetzen wollen. Der Heimrechner bleibt vorerst wie er ist.
Ok, ich _lebe_ hinter dem Mond. Mein "alter" Rechner war vier oder fünf Jahre alt. Achja, und meine ganz alte Hardware verwende ich auch noch (486, P1(pro), P2, nur P3 fehlt..)

Ich weiss, dass nicht alles _so_ aktuell ist. Es ist nur einiges im Umschwung (wie oft hat man man den Umschwung von 32 auf 64bit. Klar ist es logisch, dass es kommt, aber der Schritt ist schon groß (zumindest, wenn man noch nicht soo lange lebt und sich deswegen noch nicht so lange, aktiv mit dem Computer beschäftigt. Meine Dreamcast hat auch 64 (und sogar 128(FPU :ugly: ))bit. Ok, ich erwähn das Ding zu oft.
Ein anderer großer und noch längerer Schritt ist IPv4 und IPv6, aber ich dachte, dass das bei den ganzen Hardwarethemen nicht ganz so dazupasst.

-Daemon- schrieb:
Weil hier staendig vom Cell-Prozessor geredet wird:
Auf'm Linuxtag letztes Jahr in Karlsruhe wurde ein Blade mit 2 Cells vorgefuehrt. Ich weiss allerdings nicht mehr welche Firma das war (ich glaub IBM, bin mir aber nicht sicher).
Auf der Kiste lief ein 2.4.x-er Linux - von dem was mir die Leute dort am Stand erzaehlt haben war ich schon beeindruckt Was mir ebenfalls gefallen hat an dieser Blade: Die beiden Cell-Pozzis waren relativ genuegsam was die Hitzeentwicklung angeht.
Gibt also doch entwicklung auf dem Gebiet. Ja, von ner Blade mit Cells hab ich gehört, aber das war eher so in der Art "eventuell wird das mal entwickelt". Als ich nach Cell gegoogelt habe, hieß es immer, dass ihm die eine oder andere Eiogenschaft fehle. Ich such mal nach Infos. Wenn ich was interssantes finde, seit ihr, natürlich, die ersten, die es erfahren :D

EDIT: Die interessantesten Seiten:
Ja, war wohl IBM:
http://www.golem.de/0602/43229.html
Infos: http://www-128.ibm.com/developerworks/power/cell/
Noch mehr: http://www.cell-processor.net/news.php
Wikipedia darf nicht fehlen: http://de.wikipedia.org/wiki/Cell
 
Zuletzt bearbeitet:
Athaba schrieb:
Hmm, ich wusste gar nicht, dass Sun x86 herstellt und IRIX eine Plattform ist...
Jaja, ich weiss schon, was du meinst :) Nicht hauen *g*
Und die meisten Computer meiner Bekannten haben auch noch kein 64bit. Software für 64bit gibt's auch noch nicht so viel (im Desktopbereich noch weniger, als im Server (wenn man von x86 redet)).

*hust*. Ich meinte natuerlich SGI. Auch wenn das mehrere Plattformen beinhaltet. Ich meine die Kleinen, nicht die grossen. Achja, ich habe HP vergessen. (Warum nur?)

Sun liefert ja Opterons, aber das meine ich nicht. Mir ging es mehr darum, das sich die 64Bit Welt der anderen Plattformen auch nicht sonderlich entwickelt hat obwohl OS und Hardware schon seit ein paar Jaehrchen mehr auf dem Markt sind. Ausser im DB-Bereich. Obwohl sich gerade CAx Applikationen anbieten wuerden. Aber Kaufsoftware mit voller 64Bit Funktionalitaet war rar. Entweder wurde das auf einer Plattform gar nicht angeboten oder nur Teile der Software waren 64Bit faehig. Das absolute Trauerspiel lieferte Dassault mit Catia V5 ab. Aber das Thema kann Baende fuellen, also beende ich das hier.

Ja, alle auf zu Plan9, DragonFly und Co!

Ich muss zugeben, das ich mit Plan9 nichts anfangen kann. Sehr akademisch und was die Entwicklungszeiten anbelangt, so wage ich Parallelen mit HURD zu ziehen.

Gabs den schon mal Hardwareunterstützt von anderen Architekturen? Ich hab im Grunde nur x86 (, meine Dreamcast und meinen Z8 Microcontroller (mal abgesehen von den Microcontrollern in "Alltagsgeräten")).

http://www-03.ibm.com/systems/p/apv/
http://www-03.ibm.com/servers/eserver/zseries/

Obwohl ich als erstes an einer Sun sass, kenne ich hier die Produktpalette nicht so im Detail. Kann mir aber vorstellen, dass die dort auch etwas im Angebot haben.

Und hardwareunterstuetze Virtualisierung ist ein Kernprinzip eines Mainframes. Und es wird keiner behaupten wollen, das diese Technik neu ist.

Egal wie die Technologie heisst, gewisse Basisprinzipien wiederholen sich, egal ob das Ding jetzt Terminal, Thin-Client oder sonswie schimpft.

Kurz gesagt, es mag fuer x86 neu sein. Erfunden haben's de Schweizer. Oder doch nicht? :)

Naja, die GeForce 6-Serie war doch ziemlich lang top und in letzter Zeit überreascht eine 7000er nach der anderen. Zumindest habe ich diesen eindruck, aber Grafikkarten sind auch nicht soo mein Ding.

Ich denke das ist Ansichtssache. Ich schaue mehr auf die Technologie, als auf die Benchmarks und da sehe ich halt die derzeitige Generation ziemlich ausgereizt. nVidia hat noch etwas Spielraum, aber ich denke die wollen nicht nochmal wiederholen, was sie mit der 5000er probiert haben und ATI jetzt mit der 1900er macht.

Find ich auch schön, aber auch teuer... ;'( und zwar sehr im Vergleich mit amd64.

Klar ist die x86 Hardware billig. Leider auch das erste was man sieht. Wenn ich aber die Zeit berechnen wuerde, die draufgegangen ist, die x86er Plattform an Ihren Limitationen vorbei, weiterzuentwicklen und das Ganze heute noch zueinander kompatibel zu machen, dann sind wir bei Zahlen, die auf einen Schlag die Bundesrepublik Deutschland sanieren koennte und trotzdem genug Geld uebrigbleibt fuer ein Grundgehalt und Rente ab 30.

Ich bin "damals" auf diesen allerersten Cellhype aufgesprungen und dann voll abgeprallt. Da hieß es, dass Cells sicher toll für Playstations sicher Klasse sind, aber für "Normalcomputer" nicht so toll sein sollen. Wie hat sich das denn jetzt entwickelt?

Du hast ja schon ein paar Links gepostet. Die Cell-Emulation bei IBM ist ziemlcih tricky und man spuert ja auch die Vorteile nicht in der Emulation. Das KnowHow zur Parallelisierung von Andwendungen ist auch nicht so verbreitet und wird erst langsam mit den MultiCore Prozessoren im x86-Bereich verbreitung finden. Nicht umsonst gibt Intel Geld aus und sponsort Wettbewerbe und die Art der Softwareentwicklung in allen Koepfen festzusetzen.

Grundsaetzlich koennte man mit der Cell-Technologie so unendlich viele Dinge veranstalten. Fuer mich zaehlen vorallem die praktischen Ansaetze in meinem Lieblingsbereichen CAx, Visualisierungen und Simulationen, Neuronetzwerke und genetische Algorythmen. Da wuerde ich gern vieles Ausprobieren, ohne das hier gleich 'nen Cluster betreiben muss. Ich hoffe ja, das Sony wieder ein Otto-Normalverbraucher Entwicklerkit rausgibt. Liebte es auf der PSP1. Fuer die PSP2 hatte ich leider zu wenig Zeit um damit auch noch spielen zu koennen.

Ok, ich _lebe_ hinter dem Mond. Mein "alter" Rechner war vier oder fünf Jahre alt. Achja, und meine ganz alte Hardware verwende ich auch noch (486, P1(pro), P2, nur P3 fehlt..)

:) Ach das wird man nach ein paar Umzuegen schnell los. Ich habe ohnehin noch genug Kisten rumstehen. 2 Dual Xeon, ein Notebook (Das Alte ist buchstaeblich auseinandergefallen), den P4 und 'nen Pentium Pro. Die 44p170 habe ich wieder abgestossen, allerdings reizt mich das neuste Angebot von IBM. Den Rest gebe ich lieber weiter an Beduerftige. (Familie, Verwandte, Freunde)

Ich weiss, dass nicht alles _so_ aktuell ist. Es ist nur einiges im Umschwung (wie oft hat man man den Umschwung von 32 auf 64bit. Klar ist es logisch, dass es kommt, aber der Schritt ist schon groß (zumindest, wenn man noch nicht soo lange lebt und sich deswegen noch nicht so lange, aktiv mit dem Computer beschäftigt. Meine Dreamcast hat auch 64 (und sogar 128(FPU :ugly: ))bit. Ok, ich erwähn das Ding zu oft.

Ich sitze schon 'ne Zeitlang hinter den Kisten und einem "Umschwung" begegnet man dann irgendwann mit etwas Gelassenheit. Zumal einem ja alles schon verdaechtig bekannt vorkommt.

Klar freue ich mich, wenn endlich der Core Duo mit EMT64 und VT kommt, aber mehr weil ich gerade konkreten Bedarf an viel mobiler Leistung und Speicher habe. Nur den Hype darum kann ich nicht nachvollziehen. Technologien kommen und gehen. Einige werden totgesagt und halten sich ewig. (Diskette, ISA-Bus) Andere werden gehypet und haben morgen (fast) keine Bedeutung mehr. (HT, VLB)

Ein anderer großer und noch längerer Schritt ist IPv4 und IPv6, aber ich dachte, dass das bei den ganzen Hardwarethemen nicht ganz so dazupasst.

Nein, aber ein schoenes Beispiel fuer einen Hype, der sich extrem schnell wieder relativiert hat.
 
minuseins schrieb:
Nein, aber ein schoenes Beispiel fuer einen Hype, der sich extrem schnell wieder relativiert hat.
Google ist ein Hype. Wenn ich meine Mutter oder meine Freundin nach IPV6 Frage, haben die noch nie etwas davon gehört. Bei Google ist das anders.

IPV6 ist schlicht die Lösung eines Problems. Wie bei der Umstellung von a.out auf elf bedarf es eines Zeitpunkt an dem das Anpassen der alten Lösung mehr Aufwand bedeutet als die neue Lösung zu verwenden. IPV6 wird irgendwie schleichend eingeführt. Man kann sich gewisse Hoffnungen machen das es zu dem Zeitpunkt an dem man es unbedingt braucht bereits da ist.
 
minuseins schrieb:
Ich muss zugeben, das ich mit Plan9 nichts anfangen kann. Sehr akademisch und was die Entwicklungszeiten anbelangt, so wage ich Parallelen mit HURD zu ziehen.
Als ich mich vor zwei Jahren ein wenig mit Plan 9
auseinandersetzte war ich überrascht wie viel sich im IRC tat. Da gabs ne Art Konferenz zu Plan 9. Hab selten so viele Leute in einem Channel gesehen, die auch wirklich aktiv gechattet haben und andauernd hieß es "Weiss jemand, wo ... ist?", "Der kommt leider nicht", ... :D Dann wurde man auf einen Ausweichchannel hingewiesen auf dem es immer ging "Willst du nicht auch mitreden?", "Hey, warum bist du nicht im Channel xy", "sollte ich?", "Kein Intesse..."
Muss mal sehen, ob das immer noch so ist. Die Seite sah damals "noch toter" aus.

Klar ist die x86 Hardware billig. Leider auch das erste was man sieht. Wenn ich aber die Zeit berechnen wuerde, die draufgegangen ist, die x86er Plattform an Ihren Limitationen vorbei, weiterzuentwicklen und das Ganze heute noch zueinander kompatibel zu machen, dann sind wir bei Zahlen, die auf einen Schlag die Bundesrepublik Deutschland sanieren koennte und trotzdem genug Geld uebrigbleibt fuer ein Grundgehalt und Rente ab 30.
Sind Unix, Windows, Perl, C, ... nicht auch schon sehr veraltet/wiederaufgewärmt/ausgekocht/... :ugly: *duck*
Frag ich mal so als Unix und Perlliebhaber *g*
Deshalb wurden ja die ganzen ResearchOSs entworfen, die aber selbst schon wieder veraltet sind. Man sollte mal alles zusammensetzen und den Ruhm ernten. Hat wer lust? *ggg*
Grundsaetzlich koennte man mit der Cell-Technologie so unendlich viele Dinge veranstalten. Fuer mich zaehlen vorallem die praktischen Ansaetze in meinem Lieblingsbereichen CAx, Visualisierungen und Simulationen, Neuronetzwerke und genetische Algorythmen. Da wuerde ich gern vieles Ausprobieren, ohne das hier gleich 'nen Cluster betreiben muss.
Lauter Begriffe, die man liest wenn man in der FreshmeatProjektliste stöbert. Wo gibts Definitionen/Erklärunegn/Howtos? :)
Oft gibt es Anleitungen, aber keine Anleitungen zu den Anleitungen. ;'(
Weisst du da vielleicht etwas?
Den Rest gebe ich lieber weiter an Beduerftige. (Familie, Verwandte, Freunde)
"Wolltest du nicht schon immer einen Computer haben?"
"Ja!"
"Hier hast du nen super 486er. Ich hab noch ca. 300 DOS-Magazine und ein BASIC-Handbuch. Das bring ich dir morgen"
Nur den Hype darum kann ich nicht nachvollziehen. Technologien kommen und gehen. Einige werden totgesagt und halten sich ewig. (Diskette, ISA-Bus) Andere werden gehypet und haben morgen (fast) keine Bedeutung mehr. (HT, VLB)
Ich sag ja nix von nem Hype. Es ist nur einiges neues gekommen, nachdem sich einige Zeit nicht so richtig was getan hat (nur MHZ nach oben gedrehe). Vielleicht mach ich doch noch nen allgemeinen Thread zu IPv6 auf *g*
Nein, aber ein schoenes Beispiel fuer einen Hype, der sich extrem schnell wieder relativiert hat.
Genau so etwas könnte auch nach hinten losgehen.
Alles wird zurückportiert, mit vielen grausigen Hacks, und dann ists so, wie beim x86 oder bei altmodischen OSs; man hat Tonnen an altlasten.
Ich versteh ja, das es einfacher ist zum Beispiel bei dem OS zu bleiben, das man schon kennt und sich lange bewährt hat, aber dann wird sich wohl nie etwas bewegen.
All die guten, schönen und tollen Ideen gehen unter, weil sie nur als Prototypen vorhanden sind. Ist ja logisch, dass nicht alles gleich vom ersten Tag an superstabil ist, aber man kann ja daran arbeiten. Vor allem in der OpenSourcewelt, wo man für gewöhnlich keinen allzugroßen Zeitdruck hat. Und wenn man keine Zeit/Lust mehr hat übergibt man das Projekt an jemand anderen. Man hat nach dem man an etwas gearbeitet hat zumindest um einiges mehr an Erfahrung und die ist ja auch nicht unwichtig. Das gilt aber nicht nur fürs Programmieren, aber das wisst ihr ja selber.

In diesem Sinne: Traut euch wieder mehr :D


So jetzt bin ich müde, gute Nacht an alle!
 
Athaba schrieb:
Als ich mich vor zwei Jahren ein wenig mit Plan 9
auseinandersetzte war ich überrascht wie viel sich im IRC tat. Da gabs ne Art Konferenz zu Plan 9. Hab selten so viele Leute in einem Channel gesehen, die auch wirklich aktiv gechattet haben und andauernd hieß es "Weiss jemand, wo ... ist?", "Der kommt leider nicht", ... :D Dann wurde man auf einen Ausweichchannel hingewiesen auf dem es immer ging "Willst du nicht auch mitreden?", "Hey, warum bist du nicht im Channel xy", "sollte ich?", "Kein Intesse..."
Muss mal sehen, ob das immer noch so ist. Die Seite sah damals "noch toter" aus.

Vielleicht auch 'ne Zukunft von Plan 9. Next Generation Communication Plattform.

Sind Unix, Windows, Perl, C, ... nicht auch schon sehr veraltet/wiederaufgewärmt/ausgekocht/... :ugly: *duck*
Frag ich mal so als Unix und Perlliebhaber *g*
Deshalb wurden ja die ganzen ResearchOSs entworfen, die aber selbst schon wieder veraltet sind. Man sollte mal alles zusammensetzen und den Ruhm ernten.

Ich habe nichts gegen bewaehrte Konzepte aber ich finde es lustig, wenn angeblich neue Technologien verkauft werden, die es unter einem anderen Namen bereits gibt.

Lauter Begriffe, die man liest wenn man in der FreshmeatProjektliste stöbert. Wo gibts Definitionen/Erklärunegn/Howtos? :)
Oft gibt es Anleitungen, aber keine Anleitungen zu den Anleitungen. ;'(
Weisst du da vielleicht etwas?

Grundsaetzlich ist Wikipedia dein Freund:

http://en.wikipedia.org/wiki/Genetic_algorithm
http://en.wikipedia.org/wiki/Neural_network
http://en.wikipedia.org/wiki/Product_visualization (gibt noch andere Typen)
http://en.wikipedia.org/wiki/Computational_fluid_dynamics (Stroemungen)
http://en.wikipedia.org/wiki/Finite_element_method
http://en.wikipedia.org/wiki/Kinematics


Eine Serie zu einem Perl HOW-TO zu genetischen Algorythmen findest du hier:

http://www-128.ibm.com/developerworks/linux/library/l-genperl3.html?ca=dgr-lnxw06GenAlgorithm

Und hier noch ein bisschen was zu Neural Networks:

http://www.macdevcenter.com/pub/a/mac/2005/10/21/artificial-intelligence.html?CMP=OTC-13IV03560550
http://www-128.ibm.com/developerworks/library/l-neurnet/?ca=dgr-lnxw06NeuralNet


"Wolltest du nicht schon immer einen Computer haben?"
"Ja!"
"Hier hast du nen super 486er. Ich hab noch ca. 300 DOS-Magazine und ein BASIC-Handbuch. Das bring ich dir morgen"

Du wirst lachen, aber der ging an eine Schule und war dann einer der besseren, obwohl zu dem Zeitpunkt schon 8 Jahre alt. *schnueff* auf der Kiste hab ich das erste 386BSD installiert. *nostalgisch.werd*
 
Athaba schrieb:
Sind Unix, Windows, Perl, C, ... nicht auch schon sehr veraltet/wiederaufgewärmt/ausgekocht/... :ugly: *duck*
Frag ich mal so als Unix und Perlliebhaber *g*
C war schon zum Zeitpunkt seiner Erfindung veraltet. Es gab damals bereits deutlich abstraktere Sprachen.

Das gleiche gilt für C++, als das erfunden wurde gab es auch schon objektorientierte Sprachen. Welche bei denen man nicht mit Referenzen und Pointern jonglieren mussten und vor allem welche die bereits damals einen Garbage-Collector hatten. Bei Objektorientierung geht es ja um Abstraktion, und da genau ist C++ gescheitert, weil es die Speicherverwaltung dem Programmierer überlässt.

Auch bei Unix wurde einiges falsch gemacht was man jetzt nicht mehr so einfach ändern kann. Zum Beispiel könnte man dem Dateisystem beibringen gelöschte Dateien zu behalten und ein undelete zu ermöglichen bis der Speicherplatz verbraucht ist. In der Pre-Unix Ära gab es Dateisysteme die wie CVS oder Subversion Versionen von Dateien vorrätig halten. Da kann man nicht nur gelöschte Dateien retten, sondern auch verhunzte Konfigurationen.
 
CAMISOLITE schrieb:
Im Grunde begrüße ich es, daß die Anzahl der Architekturen überschaubarer wird. Es ist zwar schade, daß solche Teile wie Alpha aussterben / ausgestorben sind, jedoch scheint es mir manchmal auch ein bißchen wie in der Open-Source-Community zu sein, hauptsache jeder hat SEIN eigenes System (vgl. Desktop-Environments, Distros, etc.). Eine Konsolidierung ist an der Zeit.

Apple's Entscheidung pro Intel begrüße ich grundsätzlich, da ich insbesondere den Pentium-M für eine sehr gelungene CPU halte (Stromverbrauch <-> Performance). Bin kein Apple-Spezialist, habe aber jüngst einige Artikel und Tests gelesen, da ich am überlegen war, ob ich auf Mac OS X als Desktop umsteigen soll. Fazit: NEIN. Auch wenn das jetzt x86-Hardware ist, so scheint Apple doch wieder sein ganz eigenes Süppchen zu kochen, um die Kunden/Anwender zu knebeln. AFAIK verdient Apple den Haupteil seines Geldes mit iTunes (siehe aktuelle Geschäftsergebnisse). Damit sollte klar sein, daß Apple bei Hard- und Software nur Interesse daran haben wird, wie diese den Ertrag bei iTunes sichern können (hallo "Fritz", hallo "DRM", ...).

Bei Grafikkarten frage ich mich manchmal, ob es eigentlich noch "ganz normale" gibt oder nur noch für High-End-Spiele-Spieler mit mindestens 20 Watt Leistungsaufnahme. Bloß gut, daß meine 7 Jahre alte ELSA es noch tut. :cool:

Umstieg ?

Klares JA ! Habe mich mit reichlich Sockel-7 Hardware eingedeckt und steige definitiv um. :D


apple hat mit itunes noch richtig was verdient..
 
Flex6 schrieb:
hardwareanforderung von vista und man hat sich dort auf eine optimale speicherbestückung von 2gb geäußert und falls jemand mal noch ein riegel nachschieben muß sind die grenzen von 32bit schon erreicht

Da hast du etwas ziemlich missverstanden. 32bit begrenzt den Adressraum eines Prozesses auf 4GB. Physikalisch kannste auch jetzt schon bis zu IMHO 32 GB einsetzen mit 32Bit Windows Datacenter Edition. Das war noch nie ein Problem. Der physikalische Adressraum bereits des Pentium2 war breiter als 32 Bit.

Und die Prozesse die mehr als 4GB brauchen die sind wirklich selten. Ich hoffe das wir in Zukunft überall gemischt fahren. 95% in 32-Bit Prozessen die nicht nur 0'en im Cache belegen und 5% für die die evt. davon profitieren.
 
Mit einem 48 Bit breiten Speicherbus (bereits seit dem Pentium Pro übrigens) kann man Terabyte-weise RAM adressieren. Welche der zig Versionen von Vista aber tatsächlich PAE ermöglichen und bei welchen der benötigte Boot-Parameter einfach deaktiviert wurde, ist wohl eine andere Sache.
 
In sachen geschwindigkeit tut sich viel gutes, nur gibt es jetzt viele neue Hardware, die nichtmal stabil läuft. Auch besorgt mich die entwicklung im bereich Graphikkarten, waren es früher doch noch gute alte ISA Karten, dann PCI und nun AGP, schön, geht auch noch, aber nun geht es soweit: Es werden immer schnellerere gebaut, wobei es das doch nicht braucht. Im CED Bereich klar, aber wer nutzt das Privat? Wäre es nicht sinnvoller, langsamerere aber billigerere Modelle zu baun? Und dann geht es auch noch an, wo bekommt man noch ne ISA Graka? Generell ist der hardware Mark zu wenig abwärtskompatibel. :grumble:

Gut finde ich allerdings, was sich in sachen Netzwerktechnik tut, leider taugt PCI dann nicht mehr für 10GBit (oder evtl doch? mal hoffen), aber das ist ja verschmerzlich. Auch WLan nimmt langsam gestallt an.

Fazit:
An der neuen Technik bleib jetz nur noch zu mosern, man kann nicht merh dranrumlöten. In Sachen leistung tut sich vieles, aber in sachen abwärtskompatibilität nicht, was ich sehr schade finde. Da bleibe ich dan doch auf meinen alten systemen, Pentium, 80386sx und athlon XP 2200+ mit nem athlon 64 als zugpferd, mehr neuen kram kann man meinermeinung nach nicht gebrauchen.
 
becki schrieb:
...aber in sachen abwärtskompatibilität nicht....
Also ich findes dass es genug Abwärtskompatiblität, wenn nicht soger zu viel, gibt.
amd64 funktioniert bei mir prima mit x86-Systemen und libs. Auch gehen 4x und 8x AGP-Karten auf 4x u. 8x Slots.
Bei USB ist es das selbe (hoffentlich setzt sich S-ATA durch)
 
becki schrieb:
IGraphikkarten, waren es früher doch noch gute alte ISA Karten, dann PCI und nun AGP, schön, geht auch noch, aber nun geht es soweit: Es werden immer schnellerere gebaut, wobei es das doch nicht braucht.

Also das ist irgendwie ziemlich an der Realiät vorbei. Wenn du eine einfache fürs Office willst, willst du auch keine NVIDIA oder ATI, dann nimmste eine einfache Matrox G450 oder so. Grafikkarten sind der Bereich wo es immer noch nicht schnell genug sein kann, da sehe ich noch potential für mindestens 10x mehr. Und zwar professionell wie privat. Und du willst nicht wirklich ISA Karten, nein das will niemand mehr. Wer einmal das gescrolle da gesehen hat der will es einfach nicht.

Du solltest vor dem posten mal deinen Realitätschecker einschalten.

Hardware ist übrigens auch sehr kompatibel. Habe nie gesehen das ich soviele Rechner mit dem gleichern RAM (DDR-400) betreiben konnte, CPU Sockel solange hielten, PCI seit 10 Jahren im Einsatz ist, Firewire und USB für externe Geräte oder die vielen kompatiblen SCSI.

Das einzige was inkompatibel ist ist weiterhin die Binärkompatibilität von Programmen unter den nicht kommerziellen Unixen. Ich will auch meine proprietäre Software 10-20 Jahre nutzen können.
 
Da stimme ich zu.

Die 3D Grafik ist noch lange nicht beim Echzeit Raytracing angekommen. Stoppen kann die Entwicklung dann wenn Bilder in der 2-fachen Auflösung des menschlichen Auges dargestellt werden (dann braucht man auch kein AA mehr). 3D Grafik sollte im Raytracing Verfahren in Echtzeit ablaufen und das Spektrum beim Berechnen in kleine Abschnitte aufteilen, damit man Krümmungsefekte wie Regenbogen oder Lichtsäulen aus Wolken physikalisch korrekt darstellen kann.
Im Grunde sollte es auch keine Texturen geben sondern lediglich Materialeigenschaften, aus denen ein Bild dann in Echtzeit errechnet wird.

Nicht nur für Spiele, sonder für alle interaktiven Anwendungen, wie in der Medizin wäre das sinnvoll.
 
Ja, gut, war auch etwas übertrieben, nur eines könnt ihr mir nicht abstreiten: Die meiste neue Hardware die auf den Markt kommt, bleibt fast nur den Windows-Nutzern vorbehalten, da hier oft Spezifikationen geheimgehalten werden. Aber ich werde in Zukunft doch mal meinen Realitätschecker anschalten. Tschuldigung deswegen, aber ist das in Sachen Graphikkarte bei Notebooks doch eine Nummer schwerer, da bin ich doch jetzt nicht an der Realität vorbei.
 
becki schrieb:
Ja, gut, war auch etwas übertrieben, nur eines könnt ihr mir nicht abstreiten: Die meiste neue Hardware die auf den Markt kommt, bleibt fast nur den Windows-Nutzern vorbehalten, da hier oft Spezifikationen geheimgehalten werden.

Das ist in der Tat richtig. Aber ich habe nicht wirklich was dagegen. Das meiste ist halt billigkram für den Desktop. Und auf dem Desktop sehe ich ehrlich gesagt immer noch lediglich Windows und MacOSX mit Existenzberechtigung. Wenn man die Dinger länger betreiben will muss man halt darauf achten das richtige zu kaufen.

Ich hoffe übrigens das NVIDIA und ATI ihre Treiberentwicklung für Linux/BSD's vollständig einstellen damit diese Teams endlich mal lernen das man stabile Binary API's benötigt wenn man in der nicht-Geek Welt die halt betriebswirtschaftlich getrieben wird bestehen kann.

Schade das es so weit gekommen ist, aber es geht halt nicht anders als in diesem Punkt auf Eskalation zu setzten. Aber mit dieser Meinung bin ich sicher relativ alleine hier.
 
llothar schrieb:
Ich hoffe übrigens das NVIDIA und ATI ihre Treiberentwicklung für Linux/BSD's vollständig einstellen damit diese Teams endlich mal lernen das man stabile Binary API's benötigt wenn man in der nicht-Geek Welt die halt betriebswirtschaftlich getrieben wird bestehen kann.

Das werden die nicht machen, aber es würde dazu beitragen, dass mehr besser unterstütze Graphikkarten gekauft werden (müssen), was aber (leider) nicht dazu beigetragen wird, dass diese dann auch im Bereich Notebook Verbaut werden, dass ist der einzige Haken bei deiner Meinung. Ok mobil-Computing mit Notebooks ist auch nen Streitthema, aber ich bringe es doch mal mit ein.

Daneben habe ich vergessen, Dinge wie ACPI zu erwähnen, was haltet ihr da von der Entwicklung speziell? Meiner Meinung nach doch immernoch nicht so richtig Ausgereift, wäre es nicht besser, das ganze stabil zu machen, und dann erst mit neuen Features zu kommen? Denn so komt mir die Entwicklung in etwas vor, oder liegt es da auch nur daran, dass das alles Closed ist?
 
Athaba schrieb:
Als ich mich vor zwei Jahren ein wenig mit Plan 9
auseinandersetzte war ich überrascht wie viel sich im IRC tat. Da gabs ne Art Konferenz zu Plan 9. Hab selten so viele Leute in einem Channel gesehen, die auch wirklich aktiv gechattet haben und andauernd hieß es "Weiss jemand, wo ... ist?", "Der kommt leider nicht", ... :D Dann wurde man auf einen Ausweichchannel hingewiesen auf dem es immer ging "Willst du nicht auch mitreden?", "Hey, warum bist du nicht im Channel xy", "sollte ich?", "Kein Intesse..."
Muss mal sehen, ob das immer noch so ist. Die Seite sah damals "noch toter" aus.

*hust* also dazu kann ich ja was sagen: im IRC ist immernoch viel los, comp.os.plan9 ist gut besucht und auf dem afaik letzen öffentlichen Plan9 CPU-Server der tip9ug (Tokyo Inferno Plan9 User Group) steppt regelmäßig der Papst in Ringelsocken :D
 
llothar schrieb:
Das ist in der Tat richtig. Aber ich habe nicht wirklich was dagegen. Das meiste ist halt billigkram für den Desktop. Und auf dem Desktop sehe ich ehrlich gesagt immer noch lediglich Windows und MacOSX mit Existenzberechtigung. Wenn man die Dinger länger betreiben will muss man halt darauf achten das richtige zu kaufen.
Seh ich anders, FreeBSD tut hier seit Jahren wunderbar als alleiniges Desktop-OS. Bin sehr zufrieden.

Ich hoffe übrigens das NVIDIA und ATI ihre Treiberentwicklung für Linux/BSD's vollständig einstellen damit diese Teams endlich mal lernen das man stabile Binary API's benötigt wenn man in der nicht-Geek Welt die halt betriebswirtschaftlich getrieben wird bestehen kann.
Das nennt sich dann stabile ABI, und bei FreeBSD gibt es sowas, das nennt sich -STABLE ;)

Das "A" steht übrigens für Application, hat also mit Treibern erstmal nichts zu tun.
 
becki schrieb:
Daneben habe ich vergessen, Dinge wie ACPI zu erwähnen, was haltet ihr da von der Entwicklung speziell?
Ich hoffe, dass da bald nicht mehr sooo große Entwicklungen brauchen wird. Die Leute ("Fachzeitschriften", User, ...) haben sich beschwert, dass alles so viel Strom braucht und heiß wird und jetzt reagieren die Hardwarehersteller IMO ganz gut. Was ich sagen will, ist dass es sinnvoller ist das Problem möglichst an der Wurzel zu packen auch wenn ich ACPI einiges abgewinnen kann.
 
Maledictus schrieb:
Das nennt sich dann stabile ABI, und bei FreeBSD gibt es sowas, das nennt sich -STABLE ;)

Das "A" steht übrigens für Application, hat also mit Treibern erstmal nichts zu tun.

Genau deshalb hab ich es ja auch nicht geschrieben :belehren:

Das ich ein stabiles über viele Jahre haltendes "Application Binary Interface" verlange ist ja selbst unter Linuxern mehr oder weniger umumstritten (eher aber mehr).
Es geht um Binary Device Drivers. Dafür kenne ich bisher kein Acronym.
 
Zurück
Oben