Nvidia GT200: 240 SPs und 512-Bit Interface?

NvidiaAngetrieben von Nvidias Mitteilung, der kommende Next-Generation-Chip würde auf den Namen GT200 hören und rund 1 Millarde Transistoren besitzen, spriesen die Gerüchteseiten mit neuen Meldungen zum Chip aus dem Boden wie Pilze. Nachdem die Kollegen von "Nordichardware" vor rund drei Wochen noch berichteten, der GT200 verfüge über 200 Shadereinheiten und ein 512-Bit breites Speicherinterface, korrigierte man diese Aussage nun in einem neuen, wenige Stunden alten Beitrag. Demnach sollen nun sogar 240 Shadereinheiten auf dem GT200 Platz finden.

Der Wahrheitsgehalt dieses Beitrags lässt sich an dieser Stelle schwer kontrollieren. Feststeht nur, dass der Chip, sofern er 240 Shadereinheiten besitzen wird, die in ihrer Komplexität bzw. Funktionalität zum derzeitigen G80/G92 identisch sind, sicherlich mehr Transistoren beherbergen würde. An dieser Stelle wären, insbesondere unter Berücksichtigung des 512-Bit Speicherinterface, das als so gut wie sicher gilt, locker 1,2- bis 1,4 Millarden Transistoren fällig.

. G80 G92 GT200
Verfahren 90 nm 65 nm 65 nm
Transistoren 681 Mio. 754 Mio. ca. 1300 Mio.
Speicherinterface 384 Bit 256 Bit 512 Bit
ROPs 24 16 32?
TMUs 64 64 120?
Shadereinheiten 128 128 240?
Speichergröße 768 MiB 512 MiB 1024 MiB
Speicherbandbreite ca. 85 GB/s ca. 65 GB/s ca. 130 GB/s
Texelfüllrate ca. 35.000 MT/s ca. 40.000 MT/s ca. 70.000 MT/s
FLOPs (MADD/MUL) ca. 500 GFlops ca. 600 GFlops ca. 1100 GFlops


Da Nvidia von wortwörtlich "rund 1 Millarde Transistoren" sprach, sind die neusten Gerüchte nicht völlig abwägig. Im Gegenteil: Hätte Nvidia mit seiner Aussage nicht die Gerüchteküche eingedämmt, wären 240 Shadereinheiten weiterhin am Realistischten, da so eine fast vollständige Verdopplung der Shaderleistung möglich wird. Angesichts einer Rekord-Entwicklungszeit von mehr als 18 Monaten wären 50 Prozent mehr Shadereinheiten (200 oder 192 statt 128) schlichtweg zu wenig, zumal die Konkurrenz mit dem RV770 ein heißes Pferd im Stall zu haben scheint.

Zur Realisierung gibt "Nordichardware" an, dass die Shadercluster von derzeit acht auf zehn erhöht worden wären und gleichzeitig die Streamprozessoren von 16 auf 24 pro Cluster erweitert. Bisweilen können die Nvidia-Shadereinheiten eine MUL- (Multiplikation) sowie MADD-Operation (Multiply-ADD) durchführen. Ob Nvidia bei diesem Konzept bleibt, darauf gehen die Kollegen von "Nordichardware" leider nicht ein.

Das Speicherinterface wird sehr wahrscheinlich auf 512-Bit anwachsen, da weiterhin GDDR3-Speicher verwendet werden soll und 256-Bit zu einem klaren Flaschenhals führen würden - teilweise ist dieser schon beim G92 augenscheinlich. Theoretisch bestände zwar noch die Option eines 384-Bit Speicherinterfaces, wie beim G80 gesehen, hierbei handelte es sich aber vermutlich eher um eine Notlösung als um eine langwierig durchdachte Konstruktion.

Da die ROP-Einheiten der Nvidia-Chips an das Speicherinterface gekoppelt sind, würden diese im Zuge der Verdopplung des Speicherinterfaces ebenfalls automatisch von 16 auf 32 erhöht. Eventuell sind aber auch 24- oder sogar 16 ROPs bereits ausreichend bzw. würden keinen Flaschenhals darstellen. Ausschließen kann man daher nicht, dass Nvidia das Verhältnis von Speicherinterface zu ROP verändert und so Transistoren einspart.

In der Meldung von "Nordichardware" heißt es weiter, dass insgesamt 120 TMUs zum Einsatz kämen, was einer beinahe glatten Verdopplung zum G80/G92 gleichkommen würde. Wie bereits die Kollegen von "ComputerBase" richtig mukierten, würde es sich hierbei um absoluten Overkill handeln, denn bereits die bei den aktuellen High-End-Chips verbauten 64 TMUs werden nur in den seltensten Fällen vollständig ausgelastet.

Nvidias Unified-Shader-Architektur

Aktuell sind die TMU-Cluster direkt an die Shadercluster angebunden. G80 und G92 verfügen somit über acht Textur- und Shadercluster, so dass sich jene 64 TMUs ergeben (8x8). Belässt Nvidia die Texturclustergröße bei 8 TMUs pro Shadercluster und erhöht lediglich, wie angenommen, die Shaderclustergröße von 16 auf 24 SPs, so ergäben sich insgesamt 80 TMUs (8x10), die als vollkommen ausreichend betrachtet werden können. "Nordichardware" spekuliert dagegen, dass neben der vergrößerung der Shadercluster auch die Texturcluster von acht auf zwölf vergrößert werden, so dass sich laut ihrer Rechnung 120 TMUs (12x10) ergäben.

Weiter wird berichtet, dass die Taktfrequenzen an Chip und Shader ähnlich hoch wie bei derzeitigen Modellen lägen, also beispielsweise 600 MHz Chiptakt und 1500 MHz Shadertakt. Auch der Speicher soll, da er weiterhin vom Typ GDDR3 sein soll, in etwa 1000 MHz schnell takten. Im Großen und Ganzen könnten die Spezifikationen so oder so ähnlich ausfallen. Bislang ist alles jedoch noch pure Spekulation, da Nvidia selbst vertrauten Partnern noch keine Informationen zusandte. Insbesondere Taktfrequenzen sind Angelegenheiten, die erst kurz vor Ausgang beschlossen werden und deswegen vermutlich selbst Nvidia noch Kopfzerbrechen bereiten.

Wir werden Sie wie gewohnt beim Thema GT200 auf dem Laufenden halten, selbstverständlich aber nicht jedes x-beliebige Gerücht näher kommentieren.


Kommentar schreiben

  • Loggen Sie sich oben mit ihren Benutzerdaten ein, um Kommentare zu verfassen.
  • Falls Sie noch kein Mitglied sind, können Sie sich in unserem Forum registrieren.

4 Kommentare

4.) Luk Luk 18.04.2008 - 07:00 Uhr
Und dann kommt Far Cry 2 und die High-End Karten schaffen gerade mal High...... :D
3.) Smok66 17.04.2008 - 23:36 Uhr
Hoffen wir mal das Nvidia und Ati/AMD karten rausbringen die Crysis ultraHigh-ready sind mehr verlang ich nicht.
2.) Duplex 17.04.2008 - 17:18 Uhr
um ehrlich zu sien ich glaub nvidia kann mehr , und bringt erst sowas wie ein vorserien modell raus , weil 600mhz takt und so ist zwar bestimmt schnell aber net gerade vioel was sich getan hat in 18monaten
die karte kommt bestimmt erst mit "9800" oder sowas raus und wird dann mit ner "9900" erstetz oder so von nen aufgestockten chip

schon überhaupt früher hatte das nächst höhere modell immer mehr shader oder so , nun haben die alles gleich bis auf taktraten -.-
1.) Luk Luk 17.04.2008 - 17:07 Uhr
Wundervolle News, ich schätze, dass man damit Crysis auf 1650x1080 mit 4xAA udn 16xAF flüssig spielen kann, oder?
Jedenfalls wird diese eine wahnsinnige Performance haben.