Nvidia GT206 50% effizienter als GT200

NvidiaBereits vor wenigen Tagen haben wir anhand der ersten technischen Spezifikationen der in 55 nm-gefertigten Quadro-Karten auf die Effizienz des GT206 geschlussfolgert und sind dabei zum Ergebnis gekommen, dass der Refresh wahrscheinlich deutlich effizienter sein wird. Bestätigen tut dies nun auch Theo Valich auf seinem Blog.
Der ehemalige Inquirer-Redakteur, der inzwischen bei TG-Daily sein Brot verdient, lässt durchblicken, dass der GT206 mehr als 50 Prozent effizienter arbeitet als der GT200.

Valich macht dies an folgendem Beispiel fest:
Zu Testzwecken hat er die GT200-basierende GTX 280 von ihren standardmäßigen 600/1300/1100 MHz auf 650/1500/1100 MHz gehievt - wahrscheinlich die Taktraten der GTX 290. Dabei stieg der maximale Verbrauchswert von 236 auf 266 Watt an.
Im selben Atemzug verglich er die taktgleiche, GT206-basierende GTX 290 und maß für diese rund 170 Watt. Das sind 100 Watt bzw. 36 Prozent weniger!

Auch er ist überrascht über den Fortschritt des einfachen Die-Shrinks und vermutet daher tiefgreifende Änderungen im Chip, die vielleicht auch die relativ lange Entwicklungsdauer erklären würden. Jedenfalls kann nach seiner Ansicht nun von Shadertaktraten von bis zu 1,8 GHz geträumt werden - mit Wasserkühlung könnten sogar 2,0 GHz möglich sein.

Interessant ist an dieser Stelle noch, dass Valich die GTX 290 als baugleiches Produkt der Quadro FX 5800 darstellt und die GTX 270 als baugleiches Produkt der Quadro FX 4800. Zu ersterer sind inzwischen die Spezifikationen weitesgehend gelüftet bzw. weiß man, dass diese mit 650 MHz beim Chip betrieben wird und mit 189 Watt TDP spezifiziert ist. Dies erhärtet den Verdacht, dass die GTX 290 tatsächlich mit 650/1500/1100 MHz auflaufen wird.
Spezifikationen zur Quadro FX 4800 liegen dagegen noch keine vor und damit ebenso wenig zur GTX 270.

Valich vermutet, dass es AMD schwer haben wird, gegen den GT206 zu bestehen und schreibt, dass all' deren Hoffnungen im RV790 lägen, den er in seinem Bericht als HD 4890 bezeichnet.
Es bahnt sich vor dem Fest der Liebe noch einmal ein Showdown zwischen den zwei Großen im Grafikbusiness an!


Kommentar schreiben

  • Loggen Sie sich oben mit ihren Benutzerdaten ein, um Kommentare zu verfassen.
  • Falls Sie noch kein Mitglied sind, können Sie sich in unserem Forum registrieren.

12 Kommentare

12.) Duplex 16.11.2008 - 21:03 Uhr
also wen das mal stimmt dann wàre es toll das neue highend grakas net automatisch mehr verbrauchen als die "alten" sonden nen deutlichen vortschritt bieten und wneiger verrauchen

obwohl ich es eig bezweifel da sich der verbrauch beim G92b schnell durch 25mhz ausgeglichen hat...

vllt laufen die mit weniger spannung oder nvidia benutzt neue "bessere" Waffer typen ?
11.) KodeX 16.11.2008 - 13:41 Uhr
Und warum, wenn effizienter mit weniger verbrauchen zu tun hat?
10.) KonKorT 16.11.2008 - 12:07 Uhr
eXEC:
Ähm ihr habt ihr eine Kleinigkeit vergessen.
Bei der NVidia-Feindlichen nachricht habt ihr hingeschrieben, dass der Autor für diese Aussagen bekannt ist.
Dieser Autor jetzt ist fürs Gegenteil bekannt, also schreibt es auch dazu! Diese Meldung ist völlig subjektiv und praktisch kaum Möglich.


Mir ist nicht bekannt, dass dieser Autor AMD-feindlich schreibt - könnte ich aber einmal recherchieren.

KodeX:
"Das sind 100 Watt bzw. 56 Prozent weniger!"

und das ist falsch, da es nur 36 Prozent sind. Wenn man jedoch sagt, dass der GT200 56 Prozent mehr verbraucht, als der GT206, dann ist das richtig.


Selbstverständlich ist das falsch. Einfach die 5 mit der 3 vertauscht bei der Eingabe.
Die Überschrift stimmt aber so schon noch. ;)
9.) KodeX 15.11.2008 - 17:26 Uhr
@ TurboT4: Das was du schreibst ist richtig. So wie ich es auch in meinem Kommentar geschrieben habe. In der News steht allerdgins

"Das sind 100 Watt bzw. 56 Prozent weniger!"

und das ist falsch, da es nur 36 Prozent sind. Wenn man jedoch sagt, dass der GT200 56 Prozent mehr verbraucht, als der GT206, dann ist das richtig.
8.) TurboT4 15.11.2008 - 16:16 Uhr
@ alle mathegenies hier:
die rechnung stimmt genau: x + 56% = y y - 36% = richtig, x

;)
7.) Weiser 15.11.2008 - 15:13 Uhr
Luk Luk schrieb: "Wird aber erst für mich relevant, wenn ich meinen Strom bezahlen muss ;)"
Stimme Dir voll zu!!!;)

@LGEEE
Was du da beschreibst ist völlig normal Im Hardwaremarkt. Bzw.: Normal ist, dass die High-End-Karten, die man sich kauft (Bsp.: 6800GT) nach schon einem Jahr von den Mittelklassekarten der nächsten Generation ÜBERHOLT werden (7600GT). Der G80 hält sich erstaunlich gut . Ich als 8800 GTX-Besitzer muss das hier sagen! Überleg mal: Du kannst immer noch mit einer "unteren Oberklassegraka" (HD 4850) konkurrieren! (viewtopic.php?f=5&t=2970&start=30)
6.) LGEEE 15.11.2008 - 13:30 Uhr
Entscheidend bleibt für eine grosse Mehrheit der Preis. Ich bin nicht mehr bereit für eine GraKa einige hundert Euro über die Ladentheke zu schieben. Meine EVGA 8800 GTS 640 war sehr teuer und ist aktuell nur noch kalter Kaffee. Durch die Übertaktung schaffe ich grade mal den Anschluss an eine ATI 4850. Die kostet aber nur 1/3 von dem was ich bezahlt habe für die EVGA und hat noch Videobeschleunigung (UVD 2.2).

Während meine EVGA mit dem LG Blu-ray Player krampfhafte 30 bis 90 % CPU (abhängig vom Video Codec) Auslastung hat, lächelt jede ATI HD gelangweilt mit 15 bis 60%.

Und! Nvidia lässt PureVideo Hardwarebeschleunigung nur in Vista zu. Alle XP User gucken dumm. Will ich vollwertige Hardwarebeschleunigung für Videos nötigt mich Nvidia Vista verwenden zu müssen. Das ist mir sowas von Schnuppe, welche neuen GPU's von Nvidia effizienter sind, wenn ATI trotzdem 100.- Euro billiger ist mit ähnlicher Leistung + sehr guter Videobeschleunigung (auch fürs beliebte XP) für den kommenden Blu-ray Hype 2009.

Ich kann doch nicht alle 15 Monate erneut 400.- Euro auf den Tisch legen nur um mit der Spielewelt mithalten zu können?
5.) Luk Luk 15.11.2008 - 13:24 Uhr
Dies falsch, das falsch

Jedenfalls ist das ein waaahnsinns Sprung! Endlich werden Grafikkarten nicht stromhungriger!!! Wird aber erst für mich relevant, wenn ich meinen Strom bezahlen muss ;)
4.) KodeX 15.11.2008 - 12:50 Uhr
Ich behaupte ja nicht, dass der Stromverbrauch falsch gemessen wurde, sondern ganz einfach, dass die Prozentrechnung falsch ist...
3.) Weiser 15.11.2008 - 12:36 Uhr
Bezieht man die Spezifikationen der Quadro FX 5800 und deren TDP mit ein, kann man ziemlich sicher sein, dass an der News ein großes Stück Wahrheit dran ist...
Ich könnte mir vorstellen, dass die GTX 270 mit 600/1458/1000 MHz getaktet ist, weiterhin 216 Shader besitzt und somit dann deutlich die HD 4870 abhängt. Die hier spekulativ erwähnte HD 4890 schätze ich auf Taktraten ungefähr bei 850(/850)/2000 MHz ein, damit man sich von der HD 4870 deutlich abhebt. Doch wenn AMD Pech hat, braucht diese Karte dann über 200 Watt und benötigt somit auch einen 8-poligen Stecker (wie die dann auslaufende GTX 280) und ist aber höchstens so schnell wie die neue GTX 270!
Wenn das alles wirklich so eintritt hat Nvidia sich noch einmal glimpflich aus der Patsche gezogen, weil der DIE-Shrink dann doch vilemehr bringt als gedacht. (Eigentlich hätte Nvidia den GT200 gleich von vornherein in 55nm produzieren sollen, sie haben eigentlich gepennt und würden, so wie es jetzt aussieht, nicht einmal richtig bestraft werden... :))
2.) KodeX 15.11.2008 - 11:59 Uhr
Das hört sich jetzt sehr pompös an, aber an der Rechnung ist etwas falsch. Der GT200 benötigt zwar 56 % mehr Energie als der GT206, aber der GT206 brauch nur 36 % weniger Strom als der GT200.

Das ist nicht nur mathematisch einfach zu belegen, auch logisch, da man bei einem 56 % geringeren Stromvebrauch weniger als die Hälfte des ursprünglichen Verbrauchs benötigen würde und das ist bei 266 bzw. 170 Watt schlicht und ergreifend nicht der Fall.

Ich denke auch, dass der Quellautor so versucht größere Zahlen rauszuhohlen, was gleichbedeutend mit mehr Rubel Trubel um seine News / seinen Blogeintrag ist.
1.) eXEC 15.11.2008 - 11:38 Uhr
Ähm ihr habt ihr eine Kleinigkeit vergessen.
Bei der NVidia-Feindlichen nachricht habt ihr hingeschrieben, dass der Autor für diese Aussagen bekannt ist.
Dieser Autor jetzt ist fürs Gegenteil bekannt, also schreibt es auch dazu! Diese Meldung ist völlig subjektiv und praktisch kaum Möglich.
Man müsste schon enorme Änderungen am DIE machen, um aus einer so kleinen Verbesserung des Herstellprozesses eine 50% geringere Leistungsaufnahme zu erzielen!
In meinen Augen ist diese Meldung zu 100% fake!