GTX 480 512: Leistung und Leistungsaufnahme

NvidiaDie Kollegen von Expreview hatten die Möglichkeit, einen GF100 im Vollausbau, sprich mit den vollen 512 Shadereinheiten, zu testen. Dabei unterscheidet sich die GTX 480 512 - so zumindest nennen die Kollegen von Expreview das neue Modell - nicht nur bei der Anzahl der aktiven Funktionseinheiten, sondern auch durch die Taktraten des Chips, der Shader sowie des Speichers.

.GTX 465GTX 470GTX 480GTX 480
512
CodenameGF100GF100GF100GF100
Chiptakt607 MHz607 MHz700 MHz800 MHz
Shadertakt1215 MHz1215 MHz1401 MHz1600 MHz
Speichertakt802 MHz837 MHz924 MHz950 MHz
Shadereinheiten352448480512
Rechenleistung855 Gigaflops1089 Gigaflops1345 Gigaflops1638 Gigaflops
TMUs44566064
Texelfüllrate26.708 MT/s33.922 MT/s42.000 MT/s51.200 MT/s
ROPs32404848
Pixelfüllrate19.424 MP/s24.280 MP/s33.600 MP/s38.400 MP/s
Speichergröße1024 MiB1280 MiB1536 MiB1536 MiB
Speicherinterface256 Bit GDDR5320 Bit GDDR5384 Bit GDDR5384 Bit GDDR5
Speicherbandbreite102,7 GB/s133,9 GB/s177,4 GB/s182,4 GB/s


Durch die Erhöhung der Chip/Shader-Taktraten um 14 Prozent sowie der weiteren PolyMorph Engine und einem um „nur“ drei Prozent erhöhten GDDR5-Takt ergibt sich eine deutliche Verschiebung des Verhältnisses von GPU-Leistung zu Speicherbandbreite.
Dies scheint sich allerdings wenig negativ auf den realen Leistungszuwachs auszuwirken. Zwecks besserer Vergleichbarkeit hat Expreview die GTX 480 512 auf den Takt der „normalen“ GTX 480 herunter getaktet. Am Ende profitieren die meisten Spiele recht gut von den etwa 6,7 Prozent mehr an Funktionseinheiten und erreichen im Test-Mittel knapp 5,67 Prozent Mehrleistung im Vergleich zur „normalen“ GTX 480. Vereinzelt sind allerdings auch bis zu 10 Prozent Leistungszuwachs (z.B. Metro 2033) zu erreichen.

GTX 480 512SP (EXPreview.com)

Einen weitaus größeren Einfluss scheinen die vorgenommenen Änderungen hingegen auf die Leistungsaufnahme zu haben. So stieg die Leistungsaufnahme im Idle um immerhin 17 Watt, unter Last (FurMark V1.8.2) gar um ganze 204 Watt an. Die erhöhte Leistungsaufnahme im Idle ist nahezu komplett auf die neuen Funktionseinheiten zurückzuführen, da Taktraten sowie Spannung der beiden Modelle hier exakt gleich waren. Unter Last sind zum einen auch die neuen Funktionseinheiten hierfür verantwortlich, auf der anderen Seite allerdings auch die leicht erhöhte Kernspannung von 1,056 gegenüber 1,000 Volt. Trotzdem bleiben gewisse Zweifel, ob diese immense Zunahme nicht auch durch andere Ursachen (eventuell höhere Spannung als angegeben, Auslesefehler etc.) verursacht worden sein könnte oder es sich gar um ein reines Testexemplar von Nvidia oder eines Partners handelt, welches so nie im Handel erscheinen wird.

Mehr oder weniger passend dazu hat AMD vor Kurzem erst ein Video auf Youtube veröffentlicht, in welchem man etwas weniger ernst mit der hohen Leistungsaufnahme der Fermi umgeht, aber sehen Sie selbst.


Kommentar schreiben

  • Loggen Sie sich oben mit ihren Benutzerdaten ein, um Kommentare zu verfassen.
  • Falls Sie noch kein Mitglied sind, können Sie sich in unserem Forum registrieren.

10 Kommentare

10.) Phenocore 11.08.2010 - 16:22 Uhr
@m4c
Nvidia hat nicht mehr "Shader". Das ganze ist auch rein Zahlenmässig nicht vergleichbar. 1D-Shader mit 5D-Shader gleichsetzen? das ist völliger Humbug. ATI hat deutlich mehr 1D-Shadereinheiten als nVidia, weil 5D-Shader eben nicht so gut ausgelastet werden können wie 1D-Shader, dafür kann man aber wie man sieht reichlich davon verbauen ohne allzu große Nachteile...

@f1delity, Daedalus und eXEC
vielen Dank für die Beiträge.

Die News hätte man sich in der Form echt sparen können. Eine reine Nvidia-Bashing-Geschichte...
9.) m4c 11.08.2010 - 15:40 Uhr
ATI is schon geil :D ich wunder mich immer wieder wie ATI/AMD es schafft mit deutlich weniger Shadern mit nvidia mitzuhalten^^

HD5870 <> GTX480
320 Shader <> 480 Shader

Das video is echt geil :D AMD hats drauf respec.
8.) f1delity 11.08.2010 - 14:25 Uhr
3DCenter hat geschrieben:
Quote:
Expreview haben einen vollständigen Artikel zu einer GeForce GTX 480 mit gleich 512 Shader-Einheiten – welcher uns allerdings reichlich spanisch vorkommt: So soll diese GeForce GTX 480 mit 512 Shader-Einheiten auf gleich 801/1601/1900 MHz laufen – dies wäre ein heftiger Sprung ausgehend vom regulären Takt der GeForce GTX 480 von 701/1401/1848 MHz. Dann aber haben Expreview die neue Karte nur auf den Standardfrequenzen der GeForce GTX 480 vermessen – dies ermöglicht zwar den exakten Vergleich von 480 gegen 512 Shader-Einheiten (+5,7 Prozent Performance), aber wenn tatsächlich eine GF100-Karte mit 512 Shader-Einheiten und 801/1601/1900 MHz Takt herauskommen sollte, wäre natürlich die Performance auf exakt diesen Taktraten interessant. Und letztlich soll diese neue Karte auf den Standard-Taktraten der regulären GeForce GTX 480 einen satten System-Mehrverbrauch von 204 Watt (!) verursachen – eigentlich nahezu ausgeschlossen für ein Stück Hardware, welches insgesamt "nur" im Bereich von 200 bis 300 Watt verbraucht.

Nur mit 6,7 Prozent mehr Shader-Einheiten kann der Verbrauch nicht derart explodieren, gerade auch wenn die GPU-Spannung mit 1.056V zu 1.0V nur unwesentlich höher ist. Leider ist somit fast der gesamte Artikel seitens Expreview für die Katz', weil kaum offene Fragen beantwortet werden – denn daß die 6,7 Prozent mehr Shader-Einheiten in etwa auf die 5,7 Prozent mehr Performance hinauslaufen würden, konnte man auch ohne explizite Messungen voraussagen. Offen bleibt aber auch nach diesem Test weiterhin, was nVidia nun oberhalb der bisherigen GeForce GTX 480 tun wird: Einfach eine GeForce GTX 480 unter gleichem Namen mit den vollen 512 Shader-Einheiten – oder doch ein neuer Name ("GeForce GTX 485") und eventuell einen Mehrtakt obendrauf, damit es zu einem ordentlichen Performance-Abstand reicht? In dieser Frage sind noch alle Möglichkeiten offen.
7.) eXEC 11.08.2010 - 13:49 Uhr
Irgendwas kann hier echt nicht sein. Die Grafikkarte würde bei 200 Watt MEHRVERBRAUCH gegenüber der normalen 480 ja alleine zwischen 400 und 500 Watt im Furmark schlucken. Das geht nicht, nichtmal mit 2x8 Pin und auch sonst nicht. Entweder die Karte ist ein Vor-Serien-Prototyp ohne Achtung auf den Stromverbrauch oder das Ding wird nicht released.
6.) Daedalus 11.08.2010 - 13:31 Uhr
Immer Sachte, das Widerspricht ja jeder Logik. Mit 7 % mehr Cores eine 30 % höhere Verlustleistung?
Ich vermute ganz stark das einfach nur eine normale 480er mit DESIGNfehler genutzt wurde um schonmal Vorabtests durchführen zu können.
Das ganze sieht für mich immer noch nach einem groben Designschnitzer aus. Es MUSS bei normalen Prozeßschwankungen möglich sein, einen Fermi in Vollausbau zu finden, der maximal 5 % mehr Leistung verbraucht. Das NVIDIA diese wegen der Yield nicht verkauft, weil diese doch zu niedrig ist, steht ausser Frage. Aber Zumindest für so einen Test muss es doch eine zu finden geben. Da dies nicht der Fall ist, vermute ich folgendes:
Ein VIA (Loch durch alle Schichten des Chips) wird an einem Cuda-Core so blöd platziert sein, das dieser massive Leckströme ausfweist (weil dieses VIA z.B. nahe an der POWER-Leitung liegt). Also wenn der Test kein Fake ist wird es so schnell keine Karten im Vollausbau geben, es sei denn ein neues Stepping kommt daher.
5.) Flare 11.08.2010 - 13:29 Uhr
Und da kann man dann echt eine Hanfplantage mit wärmen, so wie es im Video zum Fermi schon vom SWAT vermutet wurde. (We hope to find something green !!) hehe
4.) core 11.08.2010 - 12:31 Uhr
Na wie geil! Bei "klassischen" Hexacore mit Tripple SLI 480-512 Occer-System wird dann wohl ein Dual NT fällig... Da sollten wir mal noch das ein oder andere AKW behalten für die Nvidia Jünger!
3.) N1truX 11.08.2010 - 12:14 Uhr
Das System mit Core i5-750 @4GHz hat insgesamt über 600 Watt verputzt..
2.) core 11.08.2010 - 12:07 Uhr
Um 204 Watt? wieviel kommt denn da raus bei Furmark?
...das Video ist genial!
1.) TeHaR 11.08.2010 - 11:59 Uhr
Ich hoffe ATI springt nie auf den NV Weg auf und bleibt bei 2x 6PIN maximal für Single GPU Karten. 225W sind schon mehr als genug. Bei CPUs schreien die Leute schon bei 140W.