Stromsparende CPU für Sockel AM3

rMarkus

Chuck The Plant
Hallo,

früher bei Sockel AM2(+) gab es wunderbare stromsparende CPUs und gerade möchte ich auf Sockel AM3 aufrüsten und finde keine mehr.

Daher ist meine Frage: Welche stromsparende CPU würdest ihr empfehlen für Sockel AM3.

  • Gerne würde ich auch was größeres mit L3-Cache haben, wenn es nicht zu teuer ist.
  • Eine gebrauchte CPU, die tätsächlich verfügbar ist, wäre z.B. auch gut
  • Die Kiste läuft 24/7 und meistens im IDLE, daher wäre der Idle-Verbrauch wichtig

Bei den ganz aktuellen CPUs (AM3+) mit >= Bulldozer Kern gibt es nur noch Energieverschwender oder man kauft einen teuren AM3+ Opteron EE.

Oder verbrauchen die im Idle sehr wenig, dass man heute auf Stromspar-CPUs verzichtet?

PS: Das Mainboard ist ein Tyan S8005.
 
Ich bin noch auf AM2+ (Opteron) der verschwendet ne ganze menge Saft, sogar mehr als die Intel CPU die ich in meinem Desktop habe obwohl die viel besser ist.
Von meinem AM3 Phenom II X4 Black gedöns mal ganz zu schweigen ... den habe ich verschenkt :D
Ich werde zu Intel wechseln, kann ich dir eigentlich auch nur empfehlen.
 
Daher ist meine Frage: Welche stromsparende CPU würdest ihr empfehlen für Sockel AM3.

Für AM3 ist jedes Modell aus einer der 45-nm-Serien geeignet; die C3/E0-Steppings brauchen etwas weniger Energie als die C2-Steppings.

Die Dualcores ohne L3-Cache kriegst du nachgeschmissen (neu ab 35 EUR), für die Quadcores mit L3-Cache musst du tiefer in die Tasche greifen (neu ab 65 EUR). Gebraucht wird es unwesentlich günstiger.

Oder verbrauchen die im Idle sehr wenig, dass man heute auf Stromspar-CPUs verzichtet?

Die Anschaffung der Energiesparvarianten lohnt sich im Allgemeinen nicht, die Einsparungen im Leerlauf tendieren gegen Null.

Also ich finde die aktuellen AMD-APUs super

rMarkus Anforderung des 24/7-Betriebs auf den Einsatz als Server schließen, wofür die AMD-APUs aufgrund ihrer schlechten Performance pro Watt und schlechten CPU-Performance insgesamt ungeeignet sind.

Ich werde zu Intel wechseln, kann ich dir eigentlich auch nur empfehlen.

Bei den aktuellen CPUs gibt es in der Tat nur in den seltensten Fällen einen Grund, zu AMD zu greifen.
In rMarkus' Fall müsste man erst die Rahmenbedingungen (Mainboard schon vorhanden? Einsatzzweck?) erörtern, um eine konkrete Empfehlung abzugeben.
 
  • Ja, richtig, das Maiboard ist schon vorhanden.
  • Das System läuft dann als digitaler Videorekorder. Zur Zeit läuft ein Athlon LE-1600, der sehr wenig Strom benötigt, aber leider nicht mehr auf dem AM3-Board laufen wird.
 
Wenn das Mainboard schon vorhanden ist, lohnt sich der Umstieg auf ein anderes System nicht.

Schon einer der kleinen Dualcores liefert mehr als die doppelte Leistung deines alten Athlon 64. Bezüglich der Performance kannst du dich ganz grob anhand der Tabelle(n) bei PassMark orientieren.
 
Bei den aktuellen CPUs gibt es in der Tat nur in den seltensten Fällen einen Grund, zu AMD zu greifen.
In rMarkus' Fall müsste man erst die Rahmenbedingungen (Mainboard schon vorhanden? Einsatzzweck?) erörtern, um eine konkrete Empfehlung abzugeben.

Ja das hätte ich in Betracht ziehen müssen aber aufgrund der aussage

gerade möchte ich auf Sockel AM3 aufrüsten und finde keine mehr.

habe gleich meinen Rat geben wollen.
Ob ein Neukauf trotz vorhandenem MB nicht doch lohnt kommt halt auf den energie Verbrauch an. Ich habe mir gestern einen Rechner zusammen gestellt, der wie schon gesagt meinen derzeitigen Server ersetzen soll, und da habe ich eine Energiedifference von ca 40w, aufs Jahr lohnt sich das schon finde ich. Problem bei Intel ist halt der Preis, da kostet eine CPU ganz schnell mal 200€ die neusten Modelle liegen schon bei ca 400€, und so teuer ist Strohm dann doch nicht :D
 
Also das aktuelle System habe ich mit 37 Watt gemessen (Asus M3N78 PRO, Athlon LE-1600 und 40 GB Samsung-Festplatte).

Als ich dann umgestellt habe auf 2 Festplatten Seagate ST3750640NS hat sich der Verbrauch fast verdoppelt.

Auch habe ich dann von onboard-Grafikkarte auf die kleinste nVidia (n210) gewechselt und das addierte sicher auch noch mal 10 bis 15 Watt.

Bei dem neuen System werde ich auf die Grafikkarte verzichten und als TV-Zuspieler ein Arm-System verwenden (Raspi oder Rikomagic).
 
Ich habe allgemein die Erfahrung gemacht das AMD CPU's immer viel Strom brauchen. Ich hatte einen FX-4100 da hatte das gesamte System um die 120 Watt im Leerlauf gebraucht, da ich selbst am Rechner nicht mehr spiele habe ich zu einem AMD E-350 gegriffen. Da hatte das gesamte System noch einen Verbraucht von rund 60 Watt, aber es war auch so langsam das man nicht mal mehr den Browser anständig nutzen konnte.

Jetzt habe ich mir bei Amazon einen Mini Pc gekauft mit einem Intel G1610 (2x2,6 Ghz), Festplatte und DVD Laufwerk. Das gesamte System verbraucht nur noch 35 Watt im Leerlauf und etwa 50 unter Volllast, sogar einfache Spiele wie Minecraft laufen wunderbar. Mit 200 Euro war das System auch nicht einmal so teuer.

Ich würde bei so etwas wirklich zu Intel greifen, man bezahlt zwar etwas mehr, bekommt aber obt bessere Leistung bei weniger Verbrauch, außerdem kann man Amd und Linux (vermutlich auch BSD) vergessen. Optimal läuft das nicht, vor allem die Grafiktreiber sind nicht gerade optimal.
 
AMD ist das Opfer illegaler, vom System tolerierter Machenschaften durch Intel in Kombination mit eigener Dummheit zwischen ca. 2002 und 2006 geworden. Der Konkurrent hat damals (und tut es anscheinend bis heute!) aktiv verhindert, dass AMD in größerem Stil in das OEM-Geschäft kommt und Spottpreise die Preise verhagelt. Gleichzeitig hat AMD trotz hoher Verluste zu der Zeit Fabs gebaut, die sie sich vorn und hinten nicht leisten konnten und waren nicht bereit sie auf Basis auf Foundry-Geschäften zu teilen. Dazu das hausgemachte Phenom-Desaster, eine zwar sinnvolle aber zu teure Übernahme von ATI und das war es. Seit ~2007 kämpft AMD um das Überleben, hat dabei jede Menge Tafelsilber verscherbelt und steht nun vor den rauchenden Resten...

Bulldozer und Piledriver sind für sich genommen keine schlechte Architektur. Aber sie leidet in der Praxis unter zwei Dingen:
- Der Produktionsprozess ist schlecht, da Global Foundries wohl bis heute nicht mal annähernd die zugesagte Qualität liefern kann. Sicher nicht umsonst will AMD lieber auf einen suboptimalen 28nm Bulk-Prozess wechseln, als auf diesem 32nm SOI Prozess zu bleiben. Daher leidet die Energieeffizienz deutlich, was zu niedrigen Takt ("AMD ist langsam") oder hohen Stromverbrauch ("AMD braucht viel Strom") führt.
- AMD fehlen offensichtlich die Mittel um Probleme der Architektur offensiv anzugehen. Stattdessen setzt man nun auf die APUs, die vom Markt irgendwo zu recht im Moment nicht angenommen werden. Den meisten Menschen ist viel CPU-Leistung halt wichtiger als eine starke iGPU, da man dort meist eh dazurüstet. Dinge wie HSA sind sehr vielversprechend, werden aber wahrscheinlich erst in Software abgebildet werden, wenn Intel in vielen Jahren nachzieht.

Ich würde im Moment keine AMD-CPU kaufen. Das sage ich als AMD-Fanboy. Aber dennoch gibt es eine Nische für die FX-Serie: Wer integerlastige, gut parallelisierbare Workload hat, kann dort ein Schnäppchen machen. Entsprechend nah am Limit gefahren, rasiert dort Bulldozer so manchem wesentlich teureren Xeon ab.
 
Ich würde im Moment keine AMD-CPU kaufen. Das sage ich als AMD-Fanboy. Aber dennoch gibt es eine Nische für die FX-Serie: Wer integerlastige, gut parallelisierbare Workload hat, kann dort ein Schnäppchen machen. Entsprechend nah am Limit gefahren, rasiert dort Bulldozer so manchem wesentlich teureren Xeon ab.

Buildfarm z.B. oder nur numerische Probleme?
Und wäre ein Opteron da nicht die besser Wahl als ein FX?
 
Hallo,

ich werde mal einen Athlon II X2 245e versuchen...

Den habe ich auch und bin damit sehr zufrieden eigentlich. Als einziges vermisse ich AES Support, da viele CPU-zyklen bei mir für GELI draufgehen. Bei Intel hat man das aber auch erst in den teureren, glaube ich,
 
namor schrieb:
Buildfarm z.B. oder nur numerische Probleme?
Buildfarm auf jeden Fall. Ansonsten kommt es drauf an. "Numerische Probleme" ist halt recht weit gefasst. Ich habe z.B. eine Anwendung, die im weiteren Sinne in den Bereich KI fällt. Sie ist auf dem Bulldozer sehr schnell, führt Integerberechnungen auf N Threads durch. Auch einige simulationslastige Spiele wie Arma 2 oder X-Plane kommen gut mit dem Bulldozer klar. Im Zweifel wird man es wohl ausprobieren müssen.

Ob ein Opteron sich lohnt, ist halt so eine Frage. Sie sind deutlich teurer als der FX, haben einen wesentlich niedrigeren Takt und da lachen auch schon bald wieder die ersten Xeons... Mein Argument ging dahin, dass der FX eigentlich alles wichtige kann (Virtualisierung, ECC-Speicher, etc) und zugleich spottbillig ist. Was bei passenden Workloads durchaus ein Deal sein kann. Gerade, wenn man den Mut hat und das Ding noch bis zum Maximum übertaktet. Was natürlich in kritischen Anwendungen ausgeschlossen ist.
 
Ob ein Opteron sich lohnt, ist halt so eine Frage. Sie sind deutlich teurer als der FX, haben einen wesentlich niedrigeren Takt und da lachen auch schon bald wieder die ersten Xeons... Mein Argument ging dahin, dass der FX eigentlich alles wichtige kann (Virtualisierung, ECC-Speicher, etc) und zugleich spottbillig ist. Was bei passenden Workloads durchaus ein Deal sein kann. Gerade, wenn man den Mut hat und das Ding noch bis zum Maximum übertaktet. Was natürlich in kritischen Anwendungen ausgeschlossen ist.

Ein FX-8350 gegenüber einem Opteron-3380 macht 40€ Unterschied (habe jetzt nur einen Händler verglichen, mag sein dass man eines woanders günstiger bekommt).
Angenommen das Gerät läuft oft (>90%) im Leerlauf, weil z.B. nur gelegentlich Kompiliert wird, dann ist der Leerlauf-Stromverbrauch sehr wichtig. Bei etwa 1/4€ pro kWh sind 40€ bei Leerlauf-Einsparung von 20W in circa einem Jahr wieder drin. Bei 10W Einsparung halt in 2 Jahren.

Man müsste halt wissen wie sich sich die Verlustleistung im Leerlauf unterscheidet.

EDIT: Mein Argument oder eher meine vermutete 'Niesche' für AMD CPUs bezieht sich mehr auf die Wirtschaftlichkeit. Quasi Leistung/(Anschaffungskosten+Stromkosten(~4yrs))
 
Ich hoffe ja, dass sich der Einsatz in PS4 und XBox One für AMD lohnen wird. AMD ist einfach notwendig. Sobald es ein vollständiges Hardware Monopol gibt sind offene Computer-Systeme meiner Meinung nach angezählt.

Langfristige Abnehmer für eine Architektur eröffnet auch die Chance endlich mal die Fertigung in den Griff zu bekommen. Dann könnte AMD bei der Energie-Effizienz wieder Boden gutmachen.

Hier ist AMD einmal tatsächlich im Vorteil. Wenn eine der Plattformen ein Erfolg wird, und zumindest bei der PS4 sieht das so aus, kann das für AMD die Möglichkeit sein das Ruder wieder herumzureißen. Das heißt nicht, dass sie magisch mit Intel gleichziehen aber es gibt zumindest eine Chance. Und mit AMD64 hat AMD in der Vergangenheit bewiesen, dass sie nicht nur folgen können sondern auch das Potential haben Triebfeder der Entwicklung zu sein.
 
Wenn eine der Plattformen ein Erfolg wird, und zumindest bei der PS4 sieht das so aus, kann das für AMD die Möglichkeit sein das Ruder wieder herumzureißen.
Stellt sich nur die Frage ob es was nützt eine CPU/GPU für eine Konsole anzubieten. Ich vermute mal das die Gemeinsamkeiten zu einer Desktop CPU eher gering sein werden und die Anzahl der Funktionen bestimmt reduziert wurden. Klar wird das ganze Geld in die Kasse spülen, aber ob das sehr viel ist bezweifle ich. Wenn ich mir die Preise der Konsolen ansehe wird da wahrscheinlich vieles zu den Eigenkosten verkauft nur um die Hardware los zu werden um später Geld verdienen zu können mit Lizenzen und Software.
 
Vor allem weiß ja keiner, wie der Vertrag mit Sony und Microsoft aussieht. Bei der letzten Generation spricht z.B. viel dafür, dass IBM, Nvidia und ATI / AMD die jeweiligen IP-Lizenzen einmal an die beiden Konsolenanbieter vergeben haben und anschließend nicht mehr viel mit der Fortentwicklung zu tun hatten. Entsprechend verschwindet gering waren auch die zugehörigen Bilanzposten "Lizenzgewinne". Allerdings soll es ja nicht AMDs einziger Custom-Chip sein. Mit ihrer neuen Sparte zur Entwicklung von Custom-Chips wollen sie ja schon Ende des Jahres einen nennenswerten Umsatz machen. Bleibt nur die Frage, ob es nicht mal wieder ein Wunschtraum ist...
 
Bei der letzten Generation spricht z.B. viel dafür, dass IBM, Nvidia und ATI / AMD die jeweiligen IP-Lizenzen einmal an die beiden Konsolenanbieter vergeben haben und anschließend nicht mehr viel mit der Fortentwicklung zu tun hatten.
Ich finde die alten Generationen um einiges besser, dort wurde noch darauf geachtet wirklich gute Hardware zu entwickeln, heute muss alles einfach sein und man will natürlich jedes Spiel portieren können, also baut man einfach eine X86 CPU mit ein paar weniger Funktionen und einer GPU in einen kleinen Kasten und preist es als ultimatives System an.

Aber gut die SPieleentwickler haben sich ja in der Vergangenheit nicht mit Ruhm bekleckert und vor allem die PS3 hatte ja massive Probleme mit miesen Portierungen. Als Beispiel Mass Effect 3 läuft auf dem Computer super, auf der Xbox 360 gut, auf der PS3 ruckelt es sich so durch teils bei 10-20 Bilder die Sekunde, trotz reduzierter Grafik und auf einer Wii U mit ihrem 1,2 Ghz Prozessor läuft es geschmeidig durch ohne den kleinsten Ruckler, sogar noch auf 2 Bildschirmen und im Gegensatz zur Xbox 360 und PS3 nicht auf 720p sondern 1080p...

Also man kann wirklich überlegen ob es nicht Sinn macht einfach einen guten Rechner zu kaufen, gut der kostet zwar ein paar Euro mehr, aber bis auf 1 oder 2 exklusiv Titel wird auch alles dort erscheinen und in spätestens einem Jahr wird die Hardware der Konsolen auch wieder schwächeln...
 
So wie ich das gelesen habe wird die PS4 auf dem Niveau einer 150 Euro Grafikkarte agieren. Der Vorteil, dass CPU und Grafik an den gleichen GDDR5 Speicher angebunden sind bring sicher massive Vorteile.

Aber High-End Gamer PCs werden meiner Meinung nach von Anfang an trotzdem mehr Leistung haben.
 
Der größte Nachteil sind die fetter Treiber Layer. Von John Carmack gab es da mal einen Beitrag. Auf dem PC muss er über eine Treiberschnittstelle Texturen im Speicher ersetzen.

Auf Konsolen kann er einfach alle Texturen in den Grafikspeicher laden und bei Bedarf einen Pointer ändern.
 
Ich finde es gut das nicht jeder Programmierer mehr im Speicher rumwerkeln darf. Meiner Meinung nach darf nur das Betriebssystem an den Speicher. Wir kennen doch alle noch die Zeiten wo eine Anwendung den gesamten Rechner abschießen konnte. Zum Glück sind die vorbei (theoretisch) :)
 
Ich sehe da nicht wirklich den Zusammenhang.

Aber ich finde es ziemlich bescheuert GByte-weise Daten über den Bus zu schaufeln, bloß weil man keine Pointer verändern kann.
 
Genau das ist ja der Punkt bei einer APU. Eine APU unterscheidet sich von einer CPU dadurch, dass die GPU im gleichen Speicherbereich wie die CPU hängt. Im Moment denkt AMD das Konzept ja mit HSA weiter, was eine ähnliche Integration für beliebige Geräte bieten soll. Dabei gibt es nur wieder mal zwei kleine Probleme:
- AMD hat seit Jahren alles als APU bezeichnet, weshalb der Begriff nun von der dummen Presse für "CPI mit iGPU" genutzt wird. Der eigentliche Kern wird fast immer vergessen.
- Intel bringt etwas vergleichbares frühestens mit Silvermond ca. 2016 oder sogar 2017. Bis dahin bleibt die GPU-Integration seitens der Software wahrscheinlich uninteressant. Auf FreeBSD werden wir in die Richtung so schnell eh nichts sehen.
 
Zurück
Oben