High-End-Grafikkarten sprengen TDP-Rahmen

GrafikkartenVor wenigen Stunden haben die Kollegen von HardTecs4U unter der Überschrift Reale Leistungsaufnahme aktueller Grafikkarten einen neuen Artikel online gestellt, der sehr interessante Ergebnisse bereithält. Auf all' diese hier einzugehen, würde den Rahmen sprengen - wir empfehlen daher, den sehr gut aufbereiteten Artikel komplett zu lesen -, weswegen an dieser Stelle nur auf die interessantesten Ergebnisse eingegangen wird.

Wie die Überschrift suggeriert, galt es in erster Linie, die reale Leistungsaufnahme aktueller Grafikkarten zu messen. Auf die Vorgehensweise wird im Artikel selber ausführlich eingegangen.
Soweit man gesichert hat, dass ausschließlich die Verlustleistung der Grafikkarte ermittelt wird, stellt sich die Frage, unter welcher Stresssituation man die jeweilige Karte testen will, um eine Last-Situation zu simulieren. Oft wird an dieser Stelle auf die sehr anspruchsvollen Benchmarks der Futuremark-Reihe zurückgegriffen. Ein Trugschluss, wie HardTecs4U offenlegt.

Nicht nur moderne 3D-Spiele benötigen stellenweise bereits mehr Energie als die hübsch dekorierten Gametests des 3DMarks, allen voran nennt man hier das Stress-Tool Furmark, welches der Grafikkarte alles abverlangt und offenbar auch sogar darüber hinaus, so dass sich die beiden Chipschmieden inzwischen vor dem Tool mit den sieben Buchstaben gehörig fürchten.
Ein kleiner Vergleich? In der New-Calico-Szene des 3DMark Vantage verbraucht die HD 4870 nach mehreren Durchgängen 128 Watt, während im eben genannten Furmark der Stromverbrauch auf bis zu 187 Watt anschwillt und damit deutlich die festgehaltene TDP-Grenze (157 Watt) überschreitet.

.RuhezustandLastzustandTDP-Grenze
GTX 29562 W317 W289 W
GTX 28529 W214 W183 W
GTX 28042 W226 W236 W
GTX 26032 W166 W182 W
9800 GX289 W268 W197 W
9800 GTX+28 W128 W145 W
9800 GTX62 W186 W156 W
HD 4870 X275 W373 W286 W
HD 487055 W187 W160 W
HD 485043 W148 W110 W
HD 483026 W93 W110 W


ATI hat inzwischen treiberseitig auf das Tool reagiert. Furmark warnt nunmehr beim Starten, dass die Performance gedrosselt wird, was auch die darauffolgenden Werte klar zeigen. Benennt man allerdings die Exe-Datei um, so arbeitet auch die HD-4000-Karte, hier HD 4870, mit voller Rechenleistung. Der Preis: Die Temperatur der Spannungswandler steigt auf bedrohliche 125 Grad Celsius! Laut Datenblatt das absolute Maximum der Wandler!
Wie schaut es bei Nvidia aus? Auch hier übersteigen diverse Karten ihre TDP-Grenze, wie die obige Tabelle darstellt. Eine Warnmeldung gibt es jedoch nicht und auch die Temperaturen sind soweit noch im grünen Bereich. Allgemein fällt auf, dass Nvidia die TDP-Klassifizierung etwas großzügiger gefasst hat, was auch bereits beim TDP-Vergleich zwischen HD 4870 (TDP: 157 W) und GTX 260 (TDP: 182 W) deutlich wird. Real verbraucht letztere trotz höherer TDP deutlich weniger.

Neben der reinen Messung der Verlustleistung hat man sich auch noch den Einfluss der Leistungsaufnahme bei erhöhter Temperatur und fallendem Takt angeschaut. Ersteres ist überraschenderweise ein entscheidender Indikator, wie der Versuch mit der GTX 280 gezeigt hat. Bei 65 Grad Celsisus bezifferte sich die Leistungsaufnahme auf 203 Watt, während es unter 85 Grad Celsius 225 Watt waren.
Auch die Veränderung des Chip- und Shadertakts unter Last - ob AMD oder Nvidia ist gleichgültig - zeigt Wirkung. Gespalten ist dagegen das Bild beim Speichertakt: Bei den Radeons führt eine Senkung ebenfalls zur Reduktion, während es bei den Geforces quasi gleichgültig für die Verlustleistung ist, wie schnell der Speicher taktet.
Als Geheimtipp hat sich unterdessen für die HD-4800-Reihe erwiesen, die Taktraten im Idle manuell auf 100/200 MHz anzupassen. So fällt beispielsweise der Verbrauch einer HD 4870 von 56 auf 29 Watt und liegt damit sogar unter GTX-260-Niveau, die 32 Watt benötigt.

Alle weiteren Infos können Sie, wie eingangs erwähnt, dem verlinkten Artikel entnehmen. Der allgemeine Tenor des Artikels: Heutige Grafikkarten schlucken zu viel Energie, erfordern dadurch nicht nur neue Standards, sondern brechen inzwischen auch teilweise krass aus ihrem TDP-Rahmen.


Kommentar schreiben

  • Loggen Sie sich oben mit ihren Benutzerdaten ein, um Kommentare zu verfassen.
  • Falls Sie noch kein Mitglied sind, können Sie sich in unserem Forum registrieren.

8 Kommentare

8.) Duplex 30.01.2009 - 23:52 Uhr
wie ich immer das maximum an energie gemessen habe ist so :

Furmark Extreme hitze modus laufen lassen , und ein kern zusprechen lassen, prime 95 starten und 3Threads ausführen ( furmark sollte auf den 4kern laufen )

so wird die CPU komplett ausgelastet und die graka auch , ich kamm so an nenhöheren gesamt verbrauch wie 3dmark Vantage
7.) Luk Luk 30.01.2009 - 19:06 Uhr
Kann nur bestätigen, dass der Furmark die Grafikkarte extrem stresst. Bei mir ist ein Spiel vielleicht ein Mal am Tag abgeschmiert. Beim Furmark direkt nach 15 Sekunden. Das Ganze bestimmt, weil der Lüfter im Referenzdesign war, nur der Rest war um 0.06V erhöht + höhere Taktraten. Seit dem BIOS Update geht es natürlich wunderbar.

Eine hohe Lastsituation kann auch in manchen Spielen auftreten (50 Fässer in Crysis explodieren gleichzeitig: war bei mir mal der Grund für so einen Absturz).
6.) Streamline 30.01.2009 - 18:59 Uhr
Glaube nicht, das Furmark gleich den zukünftigen Spielen ist. ;)

Das Problem ist wohl folgendes: Furmark geht nur voll auf die Shadereinheiten. Evtl. ist diese Auslastung bei der Nutzung anderer GPU-Bestandteile so in Grafikanwendungen gar nicht möglich...
Trotzdem sollten dann die TDPs wohl anders gewählt werden.
5.) SunBlack 30.01.2009 - 15:38 Uhr
f1delity:
Da Furmark völlig realitätsfern ist, würde da sagen, dass gleiche geht auch mit CPUs bei Prime95 SmallFFTs, CPUBurn.

imho nein. Der TDP gibt ja an, was die Grafikkarte maximal verbraucht, wenn sie unter Vollast ist. Und Vollast ist bei mir, wenn alle Shadereinheiten & Co beschäftigt sind. Mehr als Grafikbefehle ausführen kann der Furmark ja auch nicht, von daher ist er nicht realitätsfern, sondern nur "zukunftsträchtig" (Die neueren Spiele werden die jetztigen GPUs ja auch weiter auslasten, so dass der jetztige Furmark ggf. gleichwertig zu zukünftigen Spielen ist).
4.) Duplex 30.01.2009 - 11:34 Uhr
ich hatte die GTX295 getestet und der strom ist uter vollast nicht um über 300W gestiegen , waren ehr 270W
und meine 9800GTX+ verbraucht stolze ~135W *g*
3.) f1delity 30.01.2009 - 08:05 Uhr
Den Tests auf HT4u hab ich gelesen, allerdings find ich es nicht sonderlich gut, dass nur Furmark genommen wurde, ein zwei wirklich Grafiklastige Games in maximal Settings (2560x1600 AFx16 AAx8) im Benchmarkloop wären da sinnvoller. Da Furmark völlig realitätsfern ist, würde da sagen, dass gleiche geht auch mit CPUs bei Prime95 SmallFFTs, CPUBurn.
2.) KonKorT 30.01.2009 - 00:15 Uhr
Im Quellenlink oder auch unter Webweites - as usual. ;)

Kann ihn hier aber auch noch mal gerne nennen:
http://ht4u.net/reviews/2009/leistungsaufnahme_graka/

PS: In Furmark gibt es sogar einen Xtreme-Burner-Mode ^^
1.) SunBlack 30.01.2009 - 00:13 Uhr
Jetzt fehlt nur noch der Link zum Artikel ;)

Irgendwie erinnert mich Furmark an CPUBurn - der schafft es ja auch die Hardware ordentlich zu überhitzen ;)