Rechner mit ARM-CPU als Desktop?

leider hat Larry vieles davon niedergemacht
Ob es nur an Larry lag, weiß ich nicht. Klar. Er hat seinen Teil dazu beigetragen.
Ob das aber auf lange Sicht gegen Linux Bestand gehabt hätte, da hab ich so meine Zweifel. Linux hat ja schon Wachstum hingelegt, als die kommerziellen UNIX noch Technologievorsprung hatten. Und ob ein weiter führen von Open Solaris die Wende geschafft hätte, ist auch fraglich.
Immerhin hätte man ja in der Industrie auch sagen können: Das ist so gut, das führen wir als eigenen Fork weiter.
Und die Versuche, die es gab (OpenIndiana, Illmuos) hatte ja auch nur mäßigen Erfolg.

die mich doch glatt auf "Java Kurse" schicken um mich für den "IT Arbeitsmarkt fit zu machen" - auf meinen Einwand dass dieser Hype doch schon seit mindestens 10 -15 Jahren mega-out sei
Naja. Was heißt "out". Java ist das neue COBOL. :-)
Kennt kaum noch jemand, ist aber trotzdem noch breit im Einsatz. Und durch Android hatte Java ja auch seinen zweiten Frühling.
 
Ob es nur an Larry lag, weiß ich nicht. Klar. Er hat seinen Teil dazu beigetragen.
Ob das aber auf lange Sicht gegen Linux Bestand gehabt hätte, da hab ich so meine Zweifel. Linux hat ja schon Wachstum hingelegt, als die kommerziellen UNIX noch Technologievorsprung hatten. Und ob ein weiter führen von Open Solaris die Wende geschafft hätte, ist auch fraglich.
ich war ja ab Anfang der 2000er in ner großen ww Softwarefirma, da gabs folgende Landschaft:

HP-UX, IBM AIX, SUN Solaris und SGI Irix für "die richtige Arbeit" und Windows NT4 für die Bürodamen und die Sales-Hallodris;

dann kam AMD mit dem Opteron - und Linux (damals SLES und RH WS, danach RHEL und CentOS) auf Opteron wurde auf einmal das Arbeitstier, nVidia brachte die ersten für Enterprise brauchbaren Grafikkarten raus - und auf einmal waren die vier großen UNIX-Klitschen (HP, IBM, SUN und SGI) sowas von abgemeldet...
SUN mit SPARC war eh nie fürs HPC Backend geeignet, da zu lahm von der schieren Rechenleistung her (gegenüber PA-RISC und POWER, die r5000 und wie sie alle hießen von SGI eh schon unter ferner liefen), aber im Frontend durchaus gern genommen (außer im Sommer, da waren die ganzen U60 und Blade 1000 und 2000 dann laut, sehr laut :))


Immerhin hätte man ja in der Industrie auch sagen können: Das ist so gut, das führen wir als eigenen Fork weiter.
wie es in der Industrie halt so läuft: "ham wa noch nie (so) gemacht, mach ma auch jetz nicht... wer zahlt das? ... usw usf"

Und die Versuche, die es gab (OpenIndiana, Illmuos) hatte ja auch nur mäßigen Erfolg.
das ist klassische "Nische" würd ich sagen...
allein schon smartOS - m.E ein sehr geniales OS, das wesentliche von Solaris aufs notwendigste reduziert - aber halt keiner kennts und nur wenige nutzen es.... klassische Nische halt
Es hätte halt "die (IT-) Industrie" mal in die Gänge kommen müssen und sagen "so, jetzt pushen wir OpenSolaris" als unser Standard-OS - das ist nicht passiert -> ab in die Nische.

Naja. Was heißt "out". Java ist das neue COBOL. :-)
oh, wow, COBOL
* in Ehrfurcht verneig *
ein guter Vergleich würde ich sagen

Kennt kaum noch jemand, ist aber trotzdem noch breit im Einsatz. Und durch Android hatte Java ja auch seinen zweiten Frühling.
nie mit COBOL wirklich zu tun gehabt - aber vermutlich hatte ich mich dafür in den falschen Kreisen bewegt (produzierende Industrie und High Performance Computing statt Finanzwelt?)

habe mich nie mit Dalvik beschäftigt - ist es wirklich 1:1 wie Java?
 
wie es in der Industrie halt so läuft: "ham wa noch nie (so) gemacht, mach ma auch jetz nicht... wer zahlt das? ... usw usf"
Zumindest für "wer zahlt das": Solaris und andere kommerzielle UNIX' waren ja auch nicht gerade billig.
Aber ja. Ich verstehe, was Du meinst.

Es hätte halt "die (IT-) Industrie" mal in die Gänge kommen müssen und sagen
In die Gänge kommen die ja meist nur, wenns darum geht zu jammern. :-)

(produzierende Industrie und High Performance Computing statt Finanzwelt?)
Genau. COBOL war vor/ist(?) allem im Finanzsektor und Betriebswirtschaft weit verbreitet. Klar haben die da jetzt etwas modernes drüber gelegt, aber unten drunter hast Du irgendwelchen COBOL-Code.

Bei High-Performance war das alterwürdige FORTAN immer gut mit dabei. Selbst Intel bietet ja bis heute einen Fortran-Compiler.

habe mich nie mit Dalvik beschäftigt - ist es wirklich 1:1 wie Java?
Im Prinzip schon. Allerdings funktionieren Apps etwas anders als Desktop-Applikationen. Und auch das "Package" sieht anders aus. Allerdings sollte man mit Java-Kenntnissen da gut reinkommen.
 
Dito ich bin alt. Vor allem wenn man mir einen 23ig jährigen Teamleiter vor die Nase setzt der mir Erklären will wie der Hase so läuft
Oh Nooo, das ist ja ganz fatal. Jetzt tust du mir echt leid wenn ich mir anschaue was dort so an jungen Leuten nachkommt in der IT. Ganz, ganz schlimm, echt. "Die suchen immer einen Knopf wo sie draufdrücken können in der Hoffnung dass dann schon etwas passiert und alles richtig funzt :)". Entschuldigt bitte, meinen Sarkamus und mehr sage/schreibe ich auch lieber nicht zu den Thema.
 
"Die suchen immer einen Knopf wo sie draufdrücken können in der Hoffnung dass dann schon etwas passiert und alles richtig funzt :)".
Naja. Das liegt aber auch daran, was ihnen als Software hingestellt wurde. Die sind ja nicht aufgewachsen mit nem sauberen System was man lernen kann und dann versteht und dann logisch damit arbeiten kann. Sondern im wesentlichen mit einer GUI die alles technische wegabstrahiert und dann wurschtelt man sich notfalls mit Try&Error durch.
Man könnte auch sagen, unsere Generation hat sich diese Generation selbst herangezogen.
 
Oh Nooo, das ist ja ganz fatal. Jetzt tust du mir echt leid wenn ich mir anschaue was dort so an jungen Leuten nachkommt in der IT. Ganz, ganz schlimm, echt. "Die suchen immer einen Knopf wo sie draufdrücken können in der Hoffnung dass dann schon etwas passiert und alles richtig funzt :)".
Och, ich bin mit meinen Azubis sehr zufrieden. Das sind engagierte, intelligente junge Leute. Das sie tendenziell mehr darauf achten, dass Arbeitszeiten eingehalten werden und "Nach dem Feierabend"-Gemokel sich in Grenzen hält, ist in meinen Augen eine positive Entwicklung.
 
Bei High-Performance war das alterwürdige FORTAN immer gut mit dabei. Selbst Intel bietet ja bis heute einen Fortran-Compiler.
ja, und es ist immer noch "in use", da in manchen Anwendungs-Fällen bis zu 30% schneller als C (das andere HPC-Workhorse) und da viele bestehende Libs und altes drauf aufbauen;
hab noch f77 und f90 Kenntnisse - allerdings leider nicht vertieft, hätte mich gern mehr damit beschäftigt, aber es entwickelte sich leider in eine andere Richtung

Im Prinzip schon. Allerdings funktionieren Apps etwas anders als Desktop-Applikationen. Und auch das "Package" sieht anders aus. Allerdings sollte man mit Java-Kenntnissen da gut reinkommen.
vielleicht sollt ich doch mal ne 'Droid-App anfangen...
bin aber eigentlich kein Programmierer wie @Clas z.B.
 
Man könnte auch sagen, unsere Generation hat sich diese Generation selbst herangezogen.
naja, wer damals in den 80ern sich seinen ersten (8-Bit) Compi vom Mund abgespart hatte und dann mit PEEKs und POKEs bzw "|CPM" (wer kennt diesen Befehl noch?? der »|« ist wichtig!) die Hardware erforschte und auch die damaligen Computer-Magazine wie allein schon das legendäre "mc" mit seinen Hintergrundinfos (c't war damals auch noch brauchbar, kein Vergleich zu dem Machwerk dieser Tage) - sowas gabs danach nicht mehr in der Form, alles wurde mehr und mehr abstrahiert und beim PC gabs dann keine PEEKs und POKEs mehr, man sprach mittels Syscalls indirekt mit der Hardware, die eigentlichen technischen Details wurden irrelevant und die API war ausschlaggebend.

Wenn ich meine Söhne heut anschaue, die interessiert nicht was intern im Rechner abläuft bzw wie man was programmiert oder erreicht - solang er nur Discord sauber ausführt - und das OS (was war das gleich wieder?) installiert sowieso der Paps.
 
Ach kommt Leute, wir brauchen doch wirklich nicht 2 "Früher war alles besser" Threads gleichzeitig ;)
 
Wenn ich meine Söhne heut anschaue, die interessiert nicht was intern im Rechner abläuft bzw wie man was programmiert oder erreicht
Wobei Du das Problem ja in jeder Generation hast. Auch Deine Vorgänger-Generation hatte Skills, die Du nicht hast weil Du sie schlicht einfach nicht brauchtest.
Mit PEEK & POKE hast Du Dich ja nur deshalb rumgeschlagen, weil es nichts Anderes gab (zumindest nicht in Deiner Preisklasse). Und nicht weil Du Dich aus freien Stücken bewusst dafür entschieden hast, obwohl es andere (mit heutigem Möglichkeiten vergleichbare) Programmiermöglichkeiten gab.

Und selbst das war ja schon komfortabel gegenüber dem, was man vorher hatte. Und diejenigen, die mit Röhrencomputern angefangen haben, haben sicherlich auch auf die "Jugend" "herabgeblickt" die dann mit modernen und vergleichsweise komfortablen Mikro-Computern ihre ersten Schritte gemacht haben.

wir brauchen doch wirklich nicht 2 "Früher war alles besser" Threads gleichzeitig
Eben.
Früher hätt' es sowas nicht gegeben. :-)
 
ich werfe mal '74 in den Ring
Kinder...
vielleicht sollten wir so etwas einführen, dass Leute, die nicht alt genug sind, die Übertragung der ersten Mondlandung live erlebt zu haben, nur "halbe Kraft" bekommen. Oder wie so etwas heute in Spielen genau genannt wird.
myself: '63

Also, Mondlandung war ja cool und die hatten noch gar kein Betriebssystem und kein Mensch redete von Windows & Co. Was vielleicht, ...wo ich das jetzt so schreibe ist der Gedanke gar nicht so abwegig, ursächlich zusammen hängt.
Habt ihr gelesen oder sogar verfolgt, wie die alten Eisen der Nasa es vor einigen Wochen geschafft haben, der Voyager 1 beim Senden von Daten zu helfen? Wer nicht selbst lesen will: diese Raumsonde ist seit runden 46 Jahren im All! In Anspielung auf einen Beitrag weiter vorne: doppelt so lange als manch ein 23-Jähriger IT-Chef. Und die haben es tatsächlich geschafft, mit diesem weit weit entfernten Computer-System zu reden, eine Analyse zu fahren, eine Lösung zu finden und tatsächlich auch umzusetzen!
Unglaublich, aber wahr!
Also, alleine schon dieser Teil ist für mich der reine Wahnsinn, egal, was drum herum passieren mag.
Den Artikel oben habe ich verlinkt, weil dort ein Bild des Teams zu sehen ist. Vielleicht betrachtet ihr es mal ein wenig mit meinen Augen: die applaudieren keiner Rede eines CEO auf einer Aktionärsversammlung, keinem Jobs und keinem Gates. Sieht man da nicht echtes Herzblut?

"Im Weltraum hört dich niemand schreien", also ich bin unzweifelhaft ein Kind meiner Zeit und entsprechend auch der Kinofilme meiner Jugend. Computer sind ja nirgendwo mehr weg zu denken, aber sofern ich als Laie und nicht involviert das sehe, stellt gerade der boomende Markt mit Raketen-Technik und Kommunikation zu und von Satelliten immer noch ganz andere Anforderungen, als ein Desktop-PC. Vielleicht liegt hier irgendwo sogar die wirkliche Herausforderung für pfiffige Ingenieure.


Also gut, wir haben heute ARM und AMD64.
Mein letzter und einziger RISC-Prozessor, den ich also privat gebraucht habe, war ein G3 in einem IMac (Kugel) und mein einziger Ehrgeiz für diesen gebrauchten Rechner war: ein Linux drauf zu machen. Ich glaube, es war damals ein gentoo, ist aber zu lange her, mich an alles genau zu erinnern. Zum Schluss lief ein Ubuntu darauf und ich habe das Teil verliehen und nie mehr zurück bekommen.
Ist auch alles unwichtig, nur: schon damals war ja RISC ein magisches Wort und jeder, der damals professionelle Rechner nutzte, wollte eine RISC-CPU und das hatte natürlich seinen Grund. Warum konnte sich das dann trotzdem nicht durchsetzen? Warum starben die RISC-CPUs quasi aus?


Ich glaube, dass ein ganz wesentlicher Punkt für die Entwicklung neuer HW die Spiele sind.
Immer noch.
Es kommt vielleicht zunehmend Mobilität hinzu, also möglichst lange am Akku aktiv sein zu können und sich Daten aus allen möglichen Netzen zu fangen.
Ich glaube nicht, dass ein Markt an den Anwendern vorbei entsteht, die die meiste Kaufkraft zeigen. Vielleicht von ganz speziellen Anwendungen abgesehen, wie oben erwähnt.
Sogar moderne Super-Computer greifen doch ganz oft auf ganz übliche CPUs zurück und verbauen also quasi Massenware, nun, eben in Masse, um Leistung zu bekommen.
Oder?
 
Wobei Du das Problem ja in jeder Generation hast. Auch Deine Vorgänger-Generation hatte Skills, die Du nicht hast weil Du sie schlicht einfach nicht brauchtest.
das stimmt - da sieht man wieder, aus was für vielen Blickwinkeln man alles betrachten kann...

Mit PEEK & POKE hast Du Dich ja nur deshalb rumgeschlagen,
hab ich nie - ich war auf weiter Flur der einzige mit nem Schneider CPC... alle anderen hatten wenn, dann den mit dem 6502... oder gar nichts dergleichen (ok, einer mit nem Amiga 2k und einer mit nem Atari 520 ST war noch in der illustren Runde)

Und diejenigen, die mit Röhrencomputern angefangen haben
so nen Röhrenotto hatte aber keiner einfach so zu Hause rumstehen... und schon gar nicht zum "Hausaufgaben machen" ;) - die 8-Bit Kisten dann schon

Früher hätt' es sowas nicht gegeben. :-)
aber hallo :ugly:
 
Warum starben die RISC-CPUs quasi aus?
Das kann man ja so nicht unbedingt sagen. Gibt da schon einiges. Wenn vielleicht auch nicht in der reinen Lehre.
Die verbreitete ARM-Architektur ist ziemlich erfolgreich.
MIPS und Co. findet sich in einigen Routern.
RISC-V, darauf deutet ja auch der Name hin, ist ebenfalls RISC.
Selbst der ganze Zweig der x86-CPUs wurden damals auf RISC umgestellt. Allerdings nur intern. Nach extern bot man eine "Translationschicht" an, die die x86 Instruktionen für den RISC-Kern übersetzen. Klingt kompliziert. Ist es auch. Trotzdem war das immer noch schneller als eine reine CISC-Architektur.

Aber ja. So mit "Reduced-Instruction-Set" ist das eher nicht.
Im Gegenteil: Es kommen immer neue Instructions hinzu.
 
Reichen 32 - 128 Cores?

Ampere Altra Developer Platform

Jeff Geerling hatte dazu mal ein Video auf YT
Jupp!
Mit 72 hatte ich schon meine liebe Not gehabt...

 
Warum starben die RISC-CPUs quasi aus?

Ein ganz großer Faktor war und ist die Logik des Marktes. x86 mag nicht schön sein, nicht umsonst hat Intel mindestens selbst 2x versucht es loszuwerden, aber es wurde ab Mitte der 1980er Jahre durch den Erfolg des IBM-PC und seiner Klone nach und nach zur verbreitetsten Architektur mit großer Marktdurchdringung. Das brachte Intel extrem viel Geld ein, was sie in ihre Fertigung und Architekturentwicklung investierten. Dadurch war Intel ab spätestens Mitte der 1990er Jahre allen Konkurrenten in der Fertigung überlegen, zeitweise sogar zwei Full Nodes voraus. In Sachen Architektur holten sie schnell auf; Pipelines im 486, Superskalarität im Pentium und das Hybriddesign des Pentium Pro aka P6 kamen innerhalb weniger Jahre hintereinander. Irgendwann war x86 dann im Ergebnis (dem, was hinten rauskommt) mindestens genauso gut wie die RISC-Konkurrenz, durch wesentliche höhere Stückzahl aber deutlich billiger. Das alleine reichte, dass Hersteller von RISC-CPUs ihre eigenen Architekturen aufgaben und wechselten, prominentes Beispiel SGI. Daraus wiederum erkannte AMD ihre Chance mit AMD64, also 64-Bit x86, was nochmal ein deutlicher Schritt in Richtung professionellerer Hardware war und den finalen Sargnagel in die RISC-Konkurrenz schlug.

Ein paar Jahre später wiederholte sich das Spiel dann mit ARM. Ursprünglich für Desktop-PCs entwickelt, wurde es erst durch die x86-Übermacht in die Embedded-Nische verdrängt. Dort war ARM weiterhin sehr erfolgreich, wurde dadurch für normale Handys und mit dem iPhone auch Smartphones beliebt. Durch den Smartphone-Boom floss sehr viel Geld in ARM, was ihnen wesentlich bessere Designs und TSMC als den von vielen ARM-CPU-Herstellern präferierten Fertigungspartner den Aufstieg an die Spitze der Fertigungstechnik ermöglichte. Darüber ist ARM allerdings auch von seinen RISC-Wurzeln abgekommen, moderne aarch64-Kerne haben genauso wie x86 teils sehr komplexe (per Micocode implementierte?) Instruktionen und zur Bearbeitung dieser Instruktionsdekoder.

ARM hat lediglich den Vorteil, dass es als 32 Bit Architektur begann und die Abgründe der 70er und frühen 80er Jahre mit 8 und 16 Bit nicht darin stecken. Allerdings gibt es in der x86 inzwischen auch Überlegungen, ob man nicht die ganz alten Zöpfe mal abschneidet und ausschließlich AMD64 mit dann 32 Bit im Kompatibilitätsmodus, aber nicht mehr für native Betriebssysteme, unterstützt: https://www.intel.com/content/www/u...visioning-future-simplified-architecture.html

Chips and Cheese - ein sehr schöner Blog - hatte vor längerer Zeit einen Artikel, warum sich ISAs nichts mehr nehmen: https://chipsandcheese.com/2021/07/13/arm-or-x86-isa-doesnt-matter/ Nachtrag, auch noch den hier: https://chipsandcheese.com/2024/03/27/why-x86-doesnt-need-to-die/
 
Zuletzt bearbeitet:
Warum starben die RISC-CPUs quasi aus?
sie starben nie aus - sie verstecken sich nur sehr gut vor dir

tief im innersten ist eine Intel-CPU seit dem Pentium I eine RISC CPU - mit einem davor drangeklebten CISC-RISC-Instruction-Decoder welcher die vom Programm kommenden x86_64 CISC Instructions in RISC uops umwandelt
 
wie es halt aktuell mit der *BSD Unterstützung ausschaut?
Dazu gibt es einen interessanten Artikel von der FreeBSD Foundation:


Leider kann ich weder dem Artikel noch der Diskussion hier wirklich entnehmen, welchen Zweck ARM genau haben soll und an welche Zielgruppe es sich richtet? Wahrscheinlich eher Server als Desktop Computer, abgesehen von Smartphones? Und soll diese Architektur in Konkurrenz treten zu amd64?
 
ob man nicht die ganz alten Zöpfe mal abschneidet und ausschließlich AMD64 mit dann 32 Bit im Kompatibilitätsmodus, aber nicht mehr für native Betriebssysteme,
Was ja auch absolut Sinn machen würde, weil der alte Kram die Komplexität der CPU erhöht (mehr potentielle Fehler, mehr Chipfläche, höhere Leistungsaufnahme), ohne das es in der Praxis noch nennenswert benutzt wird.
Alte Betriebssysteme zu benutzen scheitert ja schon allein daran, das die mit moderner Hardware nicht klar kommen. Schon deshalb sind die in Emulation besser aufgehoben (und Emulation ist ja auch hinreichend schnell für alte Software/Systeme).
 
Leider kann ich weder dem Artikel noch der Diskussion hier wirklich entnehmen, welchen Zweck ARM genau haben soll und an welche Zielgruppe es sich richtet?
Das verstehe ich jetzt nicht ganz - was genau möchtest du da jetzt rauslesen?

Mit ARM kann man Server und Desktops bauen - auch mobile Devices - ist also universell einsetzbar - oder auf was kam es dir genau an?

Die CPU startete damals (noch unter Acorn Risc Machines == ARM) als general purpose CPU da Sophie Wilson und Kollegen mit den damals verfügbaren CPUs wie z.B. 65816, 68000, i286 usw nicht ganz zufrieden waren und zeigen wollten, dass die Idee einer reduced instruction set (RISC) CPU durchaus einen oder zwei Vorteile gegenüber den complex instruction sets (CISC) CPUs hat;

Wurde damals dann ja auch in "reale" Rechner eingebaut, z.B. BBC Micro (per Erweiterungskarte) und Acorn Archimedes.

Klar, danach dümpelte ARM (dann schon Advanced Risc Machines) eher dahin, bis es dann bedingt durch den Smartphone-Boom steil bergauf ging; die ARM CPU war im Vergleich zu anderen immer schon sehr schonend mit Energie umgegangen, ein klarer Vorteil für den Mobildevicesektor. Es gab mW keine vergleichbar passenden CPUs für diese Art von Nutzung damals.
Siehe auch die M1/M2 Chips von Apple - was brauchen die? 8W?
Der Rest ist Geschichte.

Man könnte auch argumentieren, solang man ein Linux oder eins der BSDs auf ner ARM Maschine installieren kann und das OS die Hardware supportet kann es Server oder Desktop oder Workstation oder sonstwas spielen, was immer du magst.
 
Vor ein paar Jahren nach meinem Lay-off bei der großen Klitsche war ich "Kunde" bei der Arbeitsagentur, da wollten die mich doch glatt auf "Java Kurse" schicken um mich für den "IT Arbeitsmarkt fit zu machen" - auf meinen Einwand dass dieser Hype doch schon seit mindestens 10 -15 Jahren mega-out sei meinte die Betreuerin dann nur "nee das ist noch top, wir schicken viele Kunden auf solche Kurse" :rolleyes:
Kommt mir bekannt vor. Ist über 20 Jahre her, da war ich auch 'Kunde' und hatte damals in den Skills Delphi als IDE angegeben. Sollte mich dann bei einer Logistikbude bewerben. Da mir das spanisch vorkam, dass die nicht sehr große Firma wirklich Delphi Entwickler suchte habe ich angerufen und es stellte sich raus, dass es eine Branchensoftware mit gleichem Namen gab. Okay, ganz trivial ist das nicht, wenn beide Programme Delphi heißen.

Oh ja, ich war damals von Solaris und OpenSolars voll überzeugt; Wir hatten ein paar Sun Blades, sowie V120 und V240 Server, mit Solaris 9 und dann 10, die waren erste Klasse; dtrace, ZFS, zones, X-bow usw - ich dachte echt, das wäre die Zukunft - leider hat Larry vieles davon niedergemacht;
Larry ist sicher nicht ganz unschuldig daran, aber so leid es mir auch tut, das sagen zu müssen. SUN war da nicht ganz unschuldig dran.
Die waren vorher schon in Schwierigkeiten und wurden so zu einem Ziel von Larry.
 
Zurück
Oben