Nvidia GT200b erst in Q4/08 und mit GDDR5?

NvidiaDie Gerüchteküche war sich über den Launchzeitpunkt des GT200b, Nvidias auf 55 nm geshrinkten High-End-Chip, eigentlich schon einig. Im September, eventuell sogar August, sollte der neuste Nvidia-Sprössling das Licht der Welt erblicken.

"Fudzilla" will aber einmal wieder mehr wissen als alle anderen und schreibt, dass sich der Launch auf das vierte Quartal dieses Jahres verzögert hätte. Ein möglicher Grund könnte die Integration von GDDR5-Speicher sein, die von "Fudzilla" genannt wird, in den bisherigen Gerüchten jedoch nicht auftauchte.

Des Weiteren schreibt "Fudzilla", dass Nvidia noch einmal kurzfristig seine Strategie überdacht hätte und nun bereits mit dem GT200b die Performancekrone zurück nach Kaliforniern holen will. Dafür müsste man allerdings Chip- und Shadertakt signifikant anheben. Da dadurch die Verlustleistung stark ansteigen würde, zog man diese Option bislang weniger in Erwägung und spekulierte eher auf einen gut geshrinkten Chip, der leichte Taktverbesserungen erhält, jedoch im Rahmen der 236 Watt TDP der GTX 280 bleibt.
Den großen Konter auf die Performancekrone vermutete man erst mit einer Dual-Lösung. Darauf deuteten auch zuletzt die Aussagen der Nvidia-Verantwortlichen hin.

Sollten sich diese Informationen als wahr abzeichnen - bislang findet die Quelle keinerlei Bestätigung -, so würde AMDs Ausritt aufs Podest erneut nur sehr kurzweilig gewesen sein. Bereits Anfang dieses Jahres hatte man mit der HD 3870 X2 die Hände an der Schale, musste jedoch nur Wochen später Nvidia mit der 9800 GX2 wieder den Vortritt lassen.


Kommentar schreiben

  • Loggen Sie sich oben mit ihren Benutzerdaten ein, um Kommentare zu verfassen.
  • Falls Sie noch kein Mitglied sind, können Sie sich in unserem Forum registrieren.

17 Kommentare

17.) Duplex 20.08.2008 - 18:24 Uhr
nunja , bei 22nm ist schluss , diese müssen erstmal erreicht werden
dann leckströme mit einberechen , die dinger werden dann auch schön teurer , 9-16 GPUS auf ein PCB ? oder wie meinst du das den ?
ich glaub kaum das die dinger soo klein werden , ehr sowas wie den R770 von der GRößer her aber niee und nimmer so winzig das 9-16 von dene drauf passen
16.) hmd 20.08.2008 - 17:41 Uhr
Ich hab beruflich mit Rendering zu tun. 80% Skalierung ist überhaupt kein Problem. Wieso sollten das die Grafikkarten in Zukunft nicht auch schaffen. Seh ich echt keinen Grund für, ist ja sowieso nur ein Spielespezifisches Problem ... je nachdem wie beschissen es programmiert ist. ;)

Und bezüglich Energieverbrauch kann man durchaus optimistisch sein, denn mit der weiteren Verfeinerung der Strukuren, schöpft man immer mehr Leistung relativ zur Abwärme. Seh ich auch kein Problem. Ich glaub in zukunft werden wir vielleicht 9 oder 16 Kerne haben ... wieso nicht.

Mickroruckler ist für mich ein Detail. Das löst sich von selbst, wenn die Leistung mit vielen Kernen explodiert.
15.) Weiser 20.08.2008 - 16:54 Uhr
@hmd
Wie willst du denn die Hälfte des Energieverbrauchs einer Single GPU bei einer gleichschnellen D U A L GPU realisieren. Die GTX 280 (236Watt) ist etwas langsamer als die 4870X2 (286Watt), die dafür aber über 20 Prozent mehr Strom verbraucht!!!
Wenn deine Rechnung stimmen sollte, dürfte die 4870X2, weil sie etwas schneller als die GTX 280 ist, etwas mehr als die Hälfte des Verbrauchs einer GTX 280 haben, also etwa 150 Watt. Da kommt die 4870X2 aber nicht mal annähernd hin!

Außerdem Skaliert Rendering zwar gut, aber bei Crossfire-/SLI-Dual GPUs beträgt der Leistungszugewinn durch die 2.Karte oft nur um die 50 Prozent, wenn man von der Leistung der ersten Karte ausgeht.
Übrigens denke ich, wer sich eine Dual GPU kauft, spielt meist in Auflösungen jenseits der 1920x1200, mit max. Details sowie Kantenglättung und Texturfilter und dann gehen auch die Frameraten einer 4870X2 bei aktuellen Spielen runter und Mikroruckler werden spürbar-> die von Dual GPUs ausgegebenen Frames sind meiner Meinung nach qualitativ schlechter als die einer Single GPU!
14.) Streamline 20.08.2008 - 16:44 Uhr
Vielleicht nicht überall, aber wenn sie nahe herankommt, nützt das bei Single vs. Dual-GPU schon.
13.) KodeX 20.08.2008 - 16:28 Uhr
Ich kann mir ehrlich gesagt nicht vorstellen, dass ein Single-Chip auf GT200b-Basis schneller rendert als eine HD 4870 X2. Dann müsste die Grafikkarte ja über utopische Taktfrequenzen wie 900/1950/1750 MHz verfügen.

Nvidia wird zwar eine schnelle Grafikkarte bringen, aber performancemäßig wird diese nicht gegen eine HD 4870 X2 ankommen.
12.) hmd 20.08.2008 - 16:23 Uhr
Würde den Marketingeffekt der schnellsten Karte nicht unterschätzen. Ist vermutlich besser als jede andere Werbung ... sofern die Karte noch bezahlbar ist. Man sieht es ja an Nvidia, sie konnten dank den Topprodukten viel Prestige einfahren und deshalb auch vergleichsweise hohe Preise fürs Mittelklasse-Segment verlangen.

@Weiser
Bezüglich Multi-GPU Karten bin ich 100% sicher, dass du auf dem Holzweg bist. Es lässt sich nichts besser skalieren als Rendering. Wieso ausgerechnet Mickroruckler dem im Weg stehen sollen, dafür gibts wirklich keinen Grund. Selbst wenn man die nie wegbekommen würde, stellt sich ja das Problem erst ab sehr tiefen Framezahlen.

Wenn man wirklich die Hälfte des Energieverbrauchs / Hitzeentwicklung bei gleicher Leistung erreichen kann, dann wirds bald keine Single-GPUs mehr geben.
11.) Duplex 20.08.2008 - 16:21 Uhr
ich glaub ich hab mal sone low karte mit 2gb gesehn bei hwv , mir ist gerade aufgefallen das die alle entfernt ahben bis auf 1karte ^^

wen ich Nvidia oder AMD wäre würde ich es nicht anders machen ^^
bestimmt haupteinnahme quelle 1
10.) Phil123 20.08.2008 - 16:17 Uhr
Ja das ist dann absolute unwissenheit dann hätten sie auch ne 8400 mit 1GB kaufen können.

Phil123
9.) Duplex 20.08.2008 - 16:04 Uhr
ja und langsammer als ne 8800GT ist sie auch noch^^
8.) Phil123 20.08.2008 - 16:02 Uhr
Genau die Packungen werden immer Größer und imposanter.Dabei bringen bei einer 3850 1GB ganix 512MB sind schon fast zuviel.

Phil123
7.) Duplex 20.08.2008 - 15:48 Uhr
ja solche leute hab ich mal im mediamarkt getroffen , ich war zufällig da und die fragten mich ob ich ahnung habe , ich habe ihn auch die richtigen produkte gezeigt , der hat aber auf der 3850 bestanden hat die für den selben preis einer 8800GT vorgezogen weil da "super tolle 1gb" dran stand und bei der nvidia "nur" 512mb verbaut waren , ich sagte ihm es sei einfehl kauf aber so machen die firmen wohl ihr Geld , mir ahnungslosen
6.) Luk Luk 20.08.2008 - 15:40 Uhr
Duplex:
wer will ne dualgpu karte was 600euro und mehr kostet ?


Es geht um das Übliche, das Marketing!

Ein schlecht informierter (also nicht HWI-Leser^^) Kunde geht in ein Geschäft. Ein Plakat zeigt vielleicht eine Rangliste, auf der nVidia ganz oben ist, oder es könnte auch ein Werbeslogan sein "We are the Power! GTX 290! The fastest Graphics Card in the world!"

Als Gedanke kommt dann: "WoW! nVidia hat die schnellste Grafikkarte. Ich kenne nVidia nicht und andere auch nicht, aber wenn dieses nVidia ja die schnellste Karte hat, dann müssen die anderen Karten doch auch absolut schnell sein. Ich kauf mir eine Grafikkarte von nVidia!!"

Deswegen hasse ich es, wenn man sich davon verirren lässt......Ist bei meinem ersten PC auch geschehen^^
5.) KonKorT 20.08.2008 - 15:30 Uhr
Fudzilla schreibt viel, wenn der Tag lang ist und leider auch viel Falsches.
Jüngstes Beispiel: QX9300 mit angeblich 2,66 GHz. ;)

Ich glaube nicht diese Gerüchte, wollte sie aber Euch nicht vorenthalten.
4.) Phil123 20.08.2008 - 15:30 Uhr
Duplex:


der speicher wäre dann noch schneller da von Gddr 5 die rede ist

voll übelst GDDR 5 und 512bit ^^

wir aber ehr GDDR 5 + 256bit oder GDDR3 +512mbit ...



bei GDDR5 sollte ein Interface von 256MBIt reichen bei GDDR5 sind 1800MHZ auf jeden fall möglich

phil123
3.) Duplex 20.08.2008 - 15:26 Uhr
Quote:
(800/1998/1200 MHz -> Chip/Shader/Speicher)


der speicher wäre dann noch schneller da von Gddr 5 die rede ist

voll übelst GDDR 5 und 512bit ^^

wir aber ehr GDDR 5 + 256bit oder GDDR3 +512mbit ...
2.) Weiser 20.08.2008 - 15:17 Uhr
@ KonKorT
Meine Spekulationen über eine sehr hoch getaktete GTX 290 scheinen doch nicht so abwägig zu sein!!! (800/1998/2300 MHz -> Chip/Shader/Speicher). 256Bit Speicherinterface

@alle
Besser eine vielverbrauchende, aber schnelle Single GPU, als eine genauso schnelle aber eventuell sogar mehr verbrauchende Dual GPU, die noch mit Mikrorucklern, SLI-/CF-Skalierung und Treiberproblemen zu kämpfen hat!!!
Siehe viewtopic.php?f=5&t=3260 !
1.) Duplex 20.08.2008 - 15:05 Uhr
wie kindisch

Nvidia zu AMD : "ich habe die schnellere GRaka"
AMD zu nvidia nach ner zeit: "nein ich habe die schnellere"

usw....
wer will ne dualgpu karte was 600euro und mehr kostet ?