Stromsparende CPU für Sockel AM3

Mein FX-8350 wird wohl auch vorerst das letzte (größere) AMD Gerät sein. Zumindest CPU mäßig.

Für einen Low Power Router mit ECC bietet sich dann noch diese neue Opteron X1150 Sache an. Aber dafür habe ich bis jetzt noch nichts zu kaufen gefunden.
 
Der größte Nachteil sind die fetter Treiber Layer. Von John Carmack gab es da mal einen Beitrag. Auf dem PC muss er über eine Treiberschnittstelle Texturen im Speicher ersetzen.

Du meinst wahrscheinlich dieses Interview: "Where on the consoles we just say “we are going to update this one pixel here,” we just store it there as a pointer. On the PC it has to go through the massive texture update routine, and it takes tens of thousands of times [longer] if you just want to update one little piece."

Das Problem ist nicht die Update-Routine, sondern Carmacks Optimierung für Konsolen.
Als es an die Portierung auf den PC ging, war die Performance entsprechend bescheiden.
Die Grafikkartenhersteller haben zwar noch Optimierungen durchführt, bis zum Release von Rage waren die Treiber aber weder ausgereift noch verbreitet genug.

John Carmack hat sich dafür auch öffentlich entschuldigt und festgestellt: "PC, when its working right, is far, far better."

Aber ich finde es ziemlich bescheuert GByte-weise Daten über den Bus zu schaufeln, bloß weil man keine Pointer verändern kann.

Das unnötige Schaufeln liegt in diesem Fall nicht an der Abwesenheit von Pointern, sondern an einem Design, das nicht zur Zielplattform passt. Andere Entwickler haben zur gleichen Zeit vorgemacht, dass es auch anders geht.
 
Der größte Nachteil sind die fetter Treiber Layer. Von John Carmack gab es da mal einen Beitrag. Auf dem PC muss er über eine Treiberschnittstelle Texturen im Speicher ersetzen.

Du meinst wahrscheinlich dieses Interview: "Where on the consoles we just say “we are going to update this one pixel here,” we just store it there as a pointer. On the PC it has to go through the massive texture update routine, and it takes tens of thousands of times [longer] if you just want to update one little piece."

Andere Hersteller haben zur gleichen Zeit vorgemacht, wie es richtig geht (d.h. auch auf PCs performant). Das Problem ist nicht die Update-Routine, sondern Carmacks Optimierung für Konsolen.

Als es an die Portierung von Rage auf den PC ging, war die Performance entsprechend bescheiden.
Die Grafikkartenhersteller haben zwar noch Optimierungen durchführt, bis zum Release von Rage waren die Treiber aber weder ausgereift noch verbreitet genug.

John Carmack hat sich dafür auch öffentlich entschuldigt und festgestellt: "PC, when its working right, is far, far better."

Aber ich finde es ziemlich bescheuert GByte-weise Daten über den Bus zu schaufeln, bloß weil man keine Pointer verändern kann.

Das unnötige Schaufeln liegt in diesem Fall nicht an der Abwesenheit von Pointern, sondern an einem Design, das nicht zur Zielplattform passt.
 
Zuletzt bearbeitet:
Vor allem sind sie flexibler :)
Genau hier hat aber die PS4 durch ihren gemeinsam genutzten GDDR5 Speicher einen Grossen Vorteil. Du kannst so ziemlich alles auf der CPU oder GPU berechnen lassen. Auf dem PC ist das durch den GDDR auf der Grafikkarte und DDR RAM nicht so einfach möglich.

Vor allem weiß ja keiner, wie der Vertrag mit Sony und Microsoft aussieht.
Es gibt Schätzungen das allein der Deal mit M$ und AMD ein rund 3 Millirarden Dollar Volumen hat.
http://www.vg247.com/2013/05/27/amd-microsoft-deal-for-xbox-one-cost-over-3-billion/

Aber High-End Gamer PCs werden meiner Meinung nach von Anfang an trotzdem mehr Leistung haben.
Naja hättest du ein "Uncarted 2" oder ein "The Last Of Us" auf einer 5 Jahre alten Grafikkarte für möglich gehalten? Du kannst halt optimal alles aus einer Hardware quetschen, wenn du nicht immer X Varianten berücksichtigen musst.
 
Ich finde es gut das nicht jeder Programmierer mehr im Speicher rumwerkeln darf. Meiner Meinung nach darf nur das Betriebssystem an den Speicher. Wir kennen doch alle noch die Zeiten wo eine Anwendung den gesamten Rechner abschießen konnte. Zum Glück sind die vorbei (theoretisch) :)
Deswegen kann die GPU ja die MMU nutzen.
 
Zurück
Oben