Bereits vor wenigen Tagen haben wir anhand der ersten technischen Spezifikationen der in 55 nm-gefertigten Quadro-Karten auf die Effizienz des GT206 geschlussfolgert und sind dabei zum Ergebnis gekommen, dass der Refresh wahrscheinlich deutlich effizienter sein wird. Bestätigen tut dies nun auch Theo Valich auf seinem Blog.
Der ehemalige Inquirer-Redakteur, der inzwischen bei TG-Daily sein Brot verdient, lässt durchblicken, dass der GT206 mehr als 50 Prozent effizienter arbeitet als der GT200.
Valich macht dies an folgendem Beispiel fest:
Zu Testzwecken hat er die GT200-basierende GTX 280 von ihren standardmäßigen 600/1300/1100 MHz auf 650/1500/1100 MHz gehievt - wahrscheinlich die Taktraten der GTX 290. Dabei stieg der maximale Verbrauchswert von 236 auf 266 Watt an.
Im selben Atemzug verglich er die taktgleiche, GT206-basierende GTX 290 und maß für diese rund 170 Watt. Das sind 100 Watt bzw. 36 Prozent weniger!
Auch er ist überrascht über den Fortschritt des einfachen Die-Shrinks und vermutet daher tiefgreifende Änderungen im Chip, die vielleicht auch die relativ lange Entwicklungsdauer erklären würden. Jedenfalls kann nach seiner Ansicht nun von Shadertaktraten von bis zu 1,8 GHz geträumt werden - mit Wasserkühlung könnten sogar 2,0 GHz möglich sein.
Interessant ist an dieser Stelle noch, dass Valich die GTX 290 als baugleiches Produkt der Quadro FX 5800 darstellt und die GTX 270 als baugleiches Produkt der Quadro FX 4800. Zu ersterer sind inzwischen die Spezifikationen weitesgehend gelüftet bzw. weiß man, dass diese mit 650 MHz beim Chip betrieben wird und mit 189 Watt TDP spezifiziert ist. Dies erhärtet den Verdacht, dass die GTX 290 tatsächlich mit 650/1500/1100 MHz auflaufen wird.
Spezifikationen zur Quadro FX 4800 liegen dagegen noch keine vor und damit ebenso wenig zur GTX 270.
Valich vermutet, dass es AMD schwer haben wird, gegen den GT206 zu bestehen und schreibt, dass all' deren Hoffnungen im RV790 lägen, den er in seinem Bericht als HD 4890 bezeichnet.
Es bahnt sich vor dem Fest der Liebe noch einmal ein Showdown zwischen den zwei Großen im Grafikbusiness an!
Kommentar schreiben
12 Kommentare
obwohl ich es eig bezweifel da sich der verbrauch beim G92b schnell durch 25mhz ausgeglichen hat...
vllt laufen die mit weniger spannung oder nvidia benutzt neue "bessere" Waffer typen ?
Bei der NVidia-Feindlichen nachricht habt ihr hingeschrieben, dass der Autor für diese Aussagen bekannt ist.
Dieser Autor jetzt ist fürs Gegenteil bekannt, also schreibt es auch dazu! Diese Meldung ist völlig subjektiv und praktisch kaum Möglich.
Mir ist nicht bekannt, dass dieser Autor AMD-feindlich schreibt - könnte ich aber einmal recherchieren.
und das ist falsch, da es nur 36 Prozent sind. Wenn man jedoch sagt, dass der GT200 56 Prozent mehr verbraucht, als der GT206, dann ist das richtig.
Selbstverständlich ist das falsch. Einfach die 5 mit der 3 vertauscht bei der Eingabe.
Die Überschrift stimmt aber so schon noch.
"Das sind 100 Watt bzw. 56 Prozent weniger!"
und das ist falsch, da es nur 36 Prozent sind. Wenn man jedoch sagt, dass der GT200 56 Prozent mehr verbraucht, als der GT206, dann ist das richtig.
die rechnung stimmt genau: x + 56% = y y - 36% = richtig, x
Stimme Dir voll zu!!!;)
@LGEEE
Was du da beschreibst ist völlig normal Im Hardwaremarkt. Bzw.: Normal ist, dass die High-End-Karten, die man sich kauft (Bsp.: 6800GT) nach schon einem Jahr von den Mittelklassekarten der nächsten Generation ÜBERHOLT werden (7600GT). Der G80 hält sich erstaunlich gut . Ich als 8800 GTX-Besitzer muss das hier sagen! Überleg mal: Du kannst immer noch mit einer "unteren Oberklassegraka" (HD 4850) konkurrieren! (viewtopic.php?f=5&t=2970&start=30)
Während meine EVGA mit dem LG Blu-ray Player krampfhafte 30 bis 90 % CPU (abhängig vom Video Codec) Auslastung hat, lächelt jede ATI HD gelangweilt mit 15 bis 60%.
Und! Nvidia lässt PureVideo Hardwarebeschleunigung nur in Vista zu. Alle XP User gucken dumm. Will ich vollwertige Hardwarebeschleunigung für Videos nötigt mich Nvidia Vista verwenden zu müssen. Das ist mir sowas von Schnuppe, welche neuen GPU's von Nvidia effizienter sind, wenn ATI trotzdem 100.- Euro billiger ist mit ähnlicher Leistung + sehr guter Videobeschleunigung (auch fürs beliebte XP) für den kommenden Blu-ray Hype 2009.
Ich kann doch nicht alle 15 Monate erneut 400.- Euro auf den Tisch legen nur um mit der Spielewelt mithalten zu können?
Jedenfalls ist das ein waaahnsinns Sprung! Endlich werden Grafikkarten nicht stromhungriger!!! Wird aber erst für mich relevant, wenn ich meinen Strom bezahlen muss
Ich könnte mir vorstellen, dass die GTX 270 mit 600/1458/1000 MHz getaktet ist, weiterhin 216 Shader besitzt und somit dann deutlich die HD 4870 abhängt. Die hier spekulativ erwähnte HD 4890 schätze ich auf Taktraten ungefähr bei 850(/850)/2000 MHz ein, damit man sich von der HD 4870 deutlich abhebt. Doch wenn AMD Pech hat, braucht diese Karte dann über 200 Watt und benötigt somit auch einen 8-poligen Stecker (wie die dann auslaufende GTX 280) und ist aber höchstens so schnell wie die neue GTX 270!
Wenn das alles wirklich so eintritt hat Nvidia sich noch einmal glimpflich aus der Patsche gezogen, weil der DIE-Shrink dann doch vilemehr bringt als gedacht. (Eigentlich hätte Nvidia den GT200 gleich von vornherein in 55nm produzieren sollen, sie haben eigentlich gepennt und würden, so wie es jetzt aussieht, nicht einmal richtig bestraft werden...
Das ist nicht nur mathematisch einfach zu belegen, auch logisch, da man bei einem 56 % geringeren Stromvebrauch weniger als die Hälfte des ursprünglichen Verbrauchs benötigen würde und das ist bei 266 bzw. 170 Watt schlicht und ergreifend nicht der Fall.
Ich denke auch, dass der Quellautor so versucht größere Zahlen rauszuhohlen, was gleichbedeutend mit mehr Rubel Trubel um seine News / seinen Blogeintrag ist.
Bei der NVidia-Feindlichen nachricht habt ihr hingeschrieben, dass der Autor für diese Aussagen bekannt ist.
Dieser Autor jetzt ist fürs Gegenteil bekannt, also schreibt es auch dazu! Diese Meldung ist völlig subjektiv und praktisch kaum Möglich.
Man müsste schon enorme Änderungen am DIE machen, um aus einer so kleinen Verbesserung des Herstellprozesses eine 50% geringere Leistungsaufnahme zu erzielen!
In meinen Augen ist diese Meldung zu 100% fake!