Die neue RTX 3070 spart bei gleicher Leistung gegenüber einer 2080 TI lediglich ca. 10%. IMHO wäre die ganze RTX3000 Serie eine große Enttäuschung, wenn da nicht der massive Preisnachlass wäre. Ich kann die Begeisterung nicht wirklich verstehen, da wurde halt mehr Hardware und größere Kühler auf das Problem geschmissen um ordentlich die Gewinnmarge zurecht gekürzt. Einen technischer Fortschritt ist da für mich nicht zu erkennen.
Naja, Nvidia hat das interessante Problem, dass mit dem Auslaufen der PowerVR-Patente (Tile-Based Deffered Rendering) und deren Integration in Maxwell sie die klassische Rendering-Pipeline so ziemlich optimal implementiert haben. Große Sprünge, außer Detailoptimierungen, sind da einfach nicht mehr drin. Daher kann man nur begrenzt schnellere GPUs bauen. Entweder indem man mehr Ausführungseinheiten verbaut, was den Chip größer macht. Durch immer geringere Sprünge in der Fertigungstechnik ist das Potential da aber endlich. Oder eben indem man das Powerlimit immer weiter anhebt... Mit Turing begann man andere Kaufanreize außer reiner Leistung zu schaffen, Raytracing und DLSS, aber das sind beides Technologien, die noch in den Kinderschuhen stecken und vor allem Transistoren (und damit Chipfläche) kosten, ohne für die breite Masse ein großes Kaufargument zu sein.
Die Rechnung hätte durchaus aufgehen können, wenn AMD es nicht wider erwarten geschafft hätte, zumindest in der Mittelklasse wieder konkurrenzfähige GPUs zu bauen. Und vielleicht auch, wenn Intel nicht in den Markt für dedizierte GPUs einsteigen würde. So aber braucht Nvidia einen deutlichen Leistungssprung in der klassischen Render-Pipeline, um die Konkurrenz auf Abstand zu halten und das geht nur durch Drehen am Powerlimit. Da kommen eben Monster wie die 3000er Serie bei raus... Dazu kommt, dass AMDs und Intels Ansatz das Raytracing nicht über dedizierte Ausführungseinheiten zu machen vielleicht weniger Leistung bedeutet, aber eben auch weniger Transistoren und vor allem in beiden NextGen-Konsolen steckt.
Daher bin ich wirklich auf Radeon 6900XTX (oder wie auch immer der Vollausbau heißen wird) gespannt. Zwar habe ich bei AMDs GPU gelernt, keine allzu großen Hoffnungen zu haben, bevor das Produkt sich nicht in unabhängigen Test beweisen hat. Aber zumindest auf dem Papier kann die Rechnung aufgehen. Mit 80 CU hat man das Potential im Bereich zwischen der Geforce 3080 und 3090 zu landen, durch den besseren TSMC 7nm Prozess (Nvidias produziert im elektrisch schlechteren Samsung-Prozess) und weniger Transistoren weniger Strom zu verbrauchen und durch kleinere Chipfläche bei geringeren Endkundenpreisen auf gleiche Margen zu kommen. Nur wie gesagt, auf dem Papier. In der Praxis lacht man in einigen Wochen vielleicht über den Absatz.
Wenn AMD Erfolg haben sollte, wird Nvidia fast sicher kurzfristig eine 3070 TI und eine 3080 TI nachschieben. Das Spiel kennt man ja schon aus den letzten Generationen... In Sachen Grafikkarten wird es zum ersten Mal seit Jahren ein spannender Herbst.
Um dann den Schlenker zum Thema noch halbwegs hinzubekommen: Dedizierte Grafikkarten waren aber bis auf die Holzklasse niemals ressourceneffizient. Sie brauchten schon immer vergleichsweise viel Strom, sind technisch extrem aufwändig (Nvidias 3000er Karten haben ein zwölflagiges PCB!) und haben eine sehr begrenzte Lebensdauer von selten mehr als maximal 5 Jahren. Weil sie dann entweder überholt oder einfach kaputt sind. Daher finde ich es sehr positiv, dass inzwischen fast alle Systeme - außer die großen Ryzens - eine Form von IGP haben, die zwar keine Leistungsrekorde aufstellt, aber für die ganze Lebensdauer der Hardware zur Verfügung steht. Sie verhindern, dass in jeden Büro-PC eine dedizierte Grafikkarte muss und auch die dickste Gamer-Box kann damit in der Drittverwendung noch problemlos ein Bild ausgeben. Mein Wunsch an AMD für Ryzen 5000 wäre dann auch zumindest eine kleine IGP in allen Modellen.