Nvidia: Geforce GTX 280 wird ein Quantensprung

NvidiaDer Nvidia Editor's Day 2008 ist soeben zu Ende gegangen und selbstverständlich ließ man in dem ein oder anderen Zitat auch die neue Grafikkartengeneration durchklingen. Vorweg: Nvidia hat auf dem Treffen nunmehr offiziell bestätigt, dass der Chip am 18. Juni gelauncht wird. Über die Performance äußerte man sich wie folgt:

"Just wait until June 17th when the newest series of GeForce GPU's launch, and you'll start asking yourself when you last witnessed such a dramatic technology improvement. If you thought the GeForce 8 series blew the 7-series out of the water, this is going to leave you in shock. That's not my own marketing spin... Benchmark Reviews is presently testing the new GeForce video card."

Laut dem Nvidia-Zitat wird die neue Geforce GTX-Reihe also im Vergleich zur aktuellen Geforce 8- bzw. 9-Reihe einen größeren Leistungssprung hinlegen wie seinerzeit von der Geforce 7- auf die 8-Reihe. Man erinnere sich zurück: Die Geforce 8800 GTX war ohne AA/AF bereits doppelt so schnell wie die Geforce 7800 GTX, mit AA/AF fiel die Performance bis zu dreimal so hoch aus. Und Nvidia breitet nun vor aller Öffentlichkeit aus, dass die Geforce GTX-Reihe gegenüber der aktuellen Serie einen noch größeren Sprung hinlegen wird?!

Die gestern offengelegten Spezifikationen der Geforce GTX-Reihe waren für die meisten eher enttäuschend. Verglichen zur 8800 GTX soll die Shaderleistung der GTX 280 80 Prozent höher ausfallen, die Bandbreite 60 Prozent höher und die Texturfüllrate 30 Prozent höher. Gewiss ein Sprung nach vorne, doch unter den vorausgegangenen Erwartungen und auch deutlich hinter den jüngsten Aussagen Nvidias.

So bleiben zwei Ansätze übrig: Entweder die gestern aufgetauchten Nvidia-Spezifikationen sind falsch oder aber Nvidia hat die Einheiten selbst stark überarbeitet. Darauf deutet beispielsweise eine vor wenigen Tagen aufgetauchte (inoffizielle) Nvidia-Folie hin, die von 50 Prozent effizienteren Shadereinheiten spricht. Zudem ist die Integration eines PhysX-Chips weiterhin denkbar. Auch hier ließ sich Nvidia einer Aussage auf dem Editor's Day entlocken:

"Video games are now seeing an added dependence on physics processing, just as well as GPU and CPU. GPU's Such as NVIDIA's upcoming GeForce graphics processor have shifted the dependence of video games onto the GPU, and added an on-board PhysX co-processor, it won't be long before the CPU really offers no level of performance for video games."

Eines hat der hiesige Nvidia Editor's Day uns gelehrt: Das Rätselraten um den kommenden Geforce-Chip ist längst nicht vorbei, sondern geht erst jetzt in die heiße Phase - in spätestens drei Wochen wissen wir alle mehr.


Kommentar schreiben

  • Loggen Sie sich oben mit ihren Benutzerdaten ein, um Kommentare zu verfassen.
  • Falls Sie noch kein Mitglied sind, können Sie sich in unserem Forum registrieren.

4 Kommentare

4.) Smok66 25.05.2008 - 19:25 Uhr
mit der PhysX-karte ist wirklich ein Quantensprung möglich und es würde den preis rechtfertigen.
3.) KonKorT 25.05.2008 - 13:37 Uhr
Habe die News gerade noch mal dahingehend erweitert, als dass ich ein Zitat zur Integration eines PhysX-Chips ausfindig machen konnte. Das klingt doch stark danach, als würde der Chip über eine integrierte PPU verfügen. :)
2.) Phenocore 25.05.2008 - 12:18 Uhr
Civilizatior:
mehr brahct man da wohl kaum noch zu sagen.

Doch :) Das "Ding" verbraucht viel zu viel Strom^^

Wobei das mit nicht Unterstützung von DX10.1 noch nicht sicher ist. nVidia ist immer gut für eine Überraschung. Man hat damals auch gemeint, man braucht nicht unbedingt ein Unified-Shader-Shaderchip bringen (was auch stimmt, aber was dazu führte, das viele meinten, es würde kein Unified-Shader-Chip kommen) und dann kamen doch Unified-Shader bei raus. Wäre zum Beispiel auch möglich, dass man das mit DX10.1 so lange wie möglich nicht bestätigt um dem Verkauf der aktuellen Chips nicht zu schaden.
1.) Civilizatior 25.05.2008 - 12:09 Uhr
ja der GT280 istein schritt vorwärts - aber ein schritt in der größe einen quantums....

wirklich was neues ists ja wohl auch nicht.
> das ding kann nicht mal DX 10.1
mehr brahct man da wohl kaum noch zu sagen.