Nvidia GT212: 384 SPs, 96 TMUs, 256 Bit GDDR5

NvidiaAus Nvidia-nahen Quellen können wir Ihnen nun exklusiv die Spezifikationen des nächsten Nvidia-High-End-Chips präsentieren, der zwar GT200(b) performancetechnisch die Stirn zeigen wird, eigentlich aber ein Performance-Chip ist, wie nicht nur der Codename GT212 an Anlehnung des G92 verrät, sondern auch die Chipfläche.

Wie schon vor mehreren Wochen an dieser Stelle ebenfalls berichtet, wird der Chip ab dem zweiten Quartal dieses Jahres mit 384 Shadereinheiten an den Start gehen, die zum GT200 unangetastet geblieben sind, sprich, es können pro Takt weiterhin ein MADD und ein MUL berechnet werden. Die theoretische ALU-Leistung steigt somit gegenüber dem GT200 um 60 Prozent - in der Praxis werden es vermutlich aufgrund des höheren ALU-Takts noch etwas mehr sein.

. GT200 GT200b GT212
Verfahren 65 nm 55 nm 40 nm
Chipfläche 576 mm² 470 mm² < 300 mm²
Transistoren 1400 Mio. 1400 Mio. < 1800 Mio.
Shadereinheiten 240 240 384
TMUs 80 80 96
Speicherinterface 512 Bit 512 Bit 256 Bit
Speichertyp GDDR3 GDDR3 GDDR5
Launch Q2/2008 Q4/2008 Q2/2009


Wie diese 384 Shadereinheiten intern organisiert sind, konnte man seinerzeit nur spekulieren. Inzwischen wissen wir, dass Nvidia dazu die Anzahl der Shadercluster von zehn auf zwölf erhöht und pro Shadercluster 32 statt 24 Streamprozessoren verbaut.
Da es pro Shadercluster weiterhin acht Textureinheiten geben wird, steigt auch die Anzahl der TMUs von 80 auf 96 - gegenüber den ALUs aber nur um 20 statt 60 Prozent. Grundsätzliche Änderungen an den Ausführungseinheiten gibt es jedoch nicht, DirectX 10.1 wird daher weiter nicht unterstützt.

Unsere Quelle spricht weiter von einem auf 256 Bit halbiertem Speicherinterface, das jedoch durch den Einsatz der GDDR5-Speichertechnologie in etwa mit derselben Bandbreite versorgt werden soll wie das 512 Bit breite Speicherinterface des GT200 mit GDDR3-Speicher. Nähere Angaben zu Taktraten liegen uns noch nicht vor, allerdings sei darauf hingewiesen, dass es inzwischen 1250 MHz schnellen GDDR5-Speicher gibt.
Da Nvidias Speicherinterface in Abhängigkeit zu den ROPs steht, würden diese ebenfalls halbiert von 32 auf 16. Wir vermuten jedoch, dass Nvidia entweder pro ROP-Partition schlichtweg acht statt vier Rastereinheiten verbaut oder alternativ 32 statt 64 Bit breite Controller verwendet, womit die Pixelleistung des Chips jeweils gewahrt würde.

Die Komplexität des GT212 wird um weniger als ein Fünftel gegenüber GT200 zunehmen. Durch den Einsatz der 40-nm-Technologie dürfte man so den Chip auf unter 300 mm² bringen können.
Somit wird der GT212 für Nvidia deutlich kostengünstiger zu fertigen sein als GT200b (470 mm²) oder GT200 (576 mm²), zumal auch das PCB aufgrund des gestutzten Speicherinterface deutlich weniger komplex ausfällt.


Kommentar schreiben

  • Loggen Sie sich oben mit ihren Benutzerdaten ein, um Kommentare zu verfassen.
  • Falls Sie noch kein Mitglied sind, können Sie sich in unserem Forum registrieren.

22 Kommentare

22.) Cartman 06.01.2009 - 19:38 Uhr
Ahso. :D Danke.

Kann ja nicht mehr lange dauern :o
21.) KonKorT 06.01.2009 - 18:08 Uhr
Nein, ich befürchte GTX 380. ;)
20.) Cartman 06.01.2009 - 18:04 Uhr
Ah alles klar, danke. Und der Name der GT212 ist noch nicht bekannt?
19.) KonKorT 06.01.2009 - 14:05 Uhr
GTX 285 und GTX 295 sind beides noch 55-nm-Chips auf GT200b-Basis. Die GTX 285 ist eine Single-GPU-Grafikkarte mit etwas höheren Taktraten als die GTX 280 und die GTX 295 Nvidias neue Dual-GPU-Grafikkarte.
18.) Cartman 06.01.2009 - 01:36 Uhr
Was ist nun die GTX 285 und was die 295?^^
17.) Streamline 05.01.2009 - 13:15 Uhr
@N1truX: Die PhysX-Liste ist eh etwas übertrieben, bei Gothic 3 packt z. B. das Logo auf Packung, genutzt wird aber gar nichts. ;)
16.) N1truX 05.01.2009 - 08:49 Uhr
Streamline:
Der Kernaussage, DX10.1 ist ein Nice-to-Have, aber eben kein Muss-Features, würdest du doch sicher eh zustimmen? ;) Womit wir dann schon eher wieder beim Thema GT212 währen.

Würde dir da zustimmen ;) Aber nochmal zu Dx10.1 - Assassins Creed muss man nicht Patchen (läuft ja auch so stable) und Stalker:CS - Beides sind Dx10.1 Spiele und in beiden hat man sehr viel mehr Performance (Habs gestern mal mit dem STALKER Bench Tool getestet und hatte bei 1920 (Dx10.1) ca. die gleichen FPS wie bei 1680 (DX10)). FC2 ist kein Argument, das ist richtig ;)
Aber es werden noch ein paar mehr Titel kommen. Zumindest meinten AMD und Sapphire auf der GC08 unabhängig voneinander, dass man neben Blizzard in Zukunft deutlich mehr mit Spieleentwicklern kooperieren wird.

Und zur NV-PhysX-Liste: Also bis auf UT3 ist da eigentlich kein in Dtl. erhätliches Spiel bei, welches nicht alt genug ist das aktuelle CPUs die Physikberechnung auch schaffen würden (AOE3,Gothic3,EE3 zählen für mich dazu) - Obwohl ich mir bei UT3 auch noch unsicher bin^^

Also beides mehr oder minder PR und Dx11 wird in beiden Fällen den Todesstoß setzten - Ebenso für ATi-Stream und nVidia CUDA (da kommt ja dann noch OpenCL dazu).
15.) KonKorT 05.01.2009 - 00:18 Uhr
Mit einem 320 Bit breiten Interface wären dementsprechend 320, 640, 1280, 2560 MiB möglich und mit einem 384 Bit breitem Bus 384, 768, 1536, 3072 MiB.
14.) Duplex 05.01.2009 - 00:11 Uhr
gibts da net son zwischenschritt wie 1,5gb oder 1,25gb wie man es vom System ram kennt ?
13.) KonKorT 05.01.2009 - 00:06 Uhr
Die Größe des VRAMs steht bei der Karte in Abhängigkeit zur Größe des Speicherinterfaces. Ist dieses 256 Bit breit, so kommen nur Speichergrößen ala 256, 512, 1024, 2048 MiB in Frage.
Wie Streamline hier schon vermerkt hat, ist 1024 MiB die wahrscheinlichste Option, wobei 2048 MiB nicht völlig ausgeschlossen sind.
12.) Duplex 04.01.2009 - 23:52 Uhr
naja 1,2GB Vram wären doch auch ganz nett , die karte schreit ja nur nach nen fetten monitor und hoher auflösung ink. aa *g*

immerhin wirds keine schiefen zahlen mehr geben wie bei der GTX260
11.) Streamline 04.01.2009 - 23:47 Uhr
Ich weiß es nicht, alles andere als 1024 MiB würden mich bei 256 Bit aber sehr überraschen.
10.) Duplex 04.01.2009 - 23:41 Uhr
wisst ihr überhaupt wie viel Vram die karte hat ? das interessiert mich mehr als die diskussion über PhysX oder Dx.10.1 =)
9.) Streamline 04.01.2009 - 21:05 Uhr
Erstmal: Ein paar andere Neuerung in DX10.1 gibts schon noch. Es stellt sich eben monentan die Frage, ob es den Aufwand Wert ist, wenn dann eh nur auf einigen ATI-Karten es läuft (bzw. so war es wohl in der Vergangenheit), und da kam als Antwort oft nein heraus. Wenn ich aber jetzt anfange, das einzubauen, mein Spiel also erst irgendwann in deutlicher Zukunft erscheint, könnte sich das schon eher lohnen - auch weil es dann Nvidia-Karten gibt, die das unterstützen (also insbesondere die High-End-User alles sehen).

Der DX11-Anteil dürfte aber am Anfang noch sehr gering sein.

Es ist aber was anderes, als ob man ein Features für jedes Spiel aufwendig auf Geforce-Karten "hacken" muss, oder ob es einfach so in einer allgemeinen Implementierung läuft. Letztendlich kann man theoretisch auch alles irgendwie hacken und auf einfachere Dinge zurückführen, aber dann braucht es auch keine allgemeine Schnittstelle mehr.


Der Kernaussage, DX10.1 ist ein Nice-to-Have, aber eben kein Muss-Features, würdest du doch sicher eh zustimmen? ;) Womit wir dann schon eher wieder beim Thema GT212 währen.
8.) KonKorT 04.01.2009 - 21:01 Uhr
Das einzig interessante an DX10.1 ist doch Multisample-Z-Readback und das wird bereits über einen Hack auf den aktuellen GT200-GPUs unterstützt.
Kein Entwickler wird ein Spiel im Vorfeld auf DX10.1 abstimmen, entweder auf DX10 oder DX11.
7.) Streamline 04.01.2009 - 20:54 Uhr
DirectX 10.1 wird aber meiner Meinung nach auf längere Sicht einen deutlich breiteren Nutzen haben als PhysX. Denn während unklar ist, wann AMD irgendwann mal PhysX (bzw. in welcher Form nutzen will), wird Nvidia in absehbarer Zeit auch DirectX 10.1 unterstützen: Nämlich mit der DX11-Generation, die ja volle Abwärtskompatibilität voraussetzt. Und dann können auch die Developer ohne Probleme DX10.1-Features einbauen - im Gegensatz zu PhysX, wo man eben keine breite Supportbasis bekommt.

Deswegen kann man auch mit einem GT212 ohne DirectX 10.1 noch leben. Mit der DX11-Generation, und das wird Nvidia 100%ig unterstützen, kommt auch klar der DX10.1-Support.
6.) KonKorT 04.01.2009 - 20:47 Uhr
Das sind etwas mehr als fünf Titel, oder? Und darunter auch einige Prominente. Zudem hat sich erst kürzlich EA und 2K Games PhysX lizensieren lassen.

PhysX-Spiele-Liste

ASC wurde doch wieder zurückgepatcht auf DX10 und der DX10.1-Modus von FC2 wird auch von Nvidia-GPUs unterstützt, weil diese bereits gewisse Dinge im Rahmen der DX10.1-Spezifikationen unterstützen.

Kurzum: Ich halte PhysX für ein deutlich schlagenderes Argument als DX10.1. Aber davon ab: Selbst wenn es PhysX nicht gäbe, so wäre trotzdem DX10.1 kein Muss aus meiner Sicht. :D
5.) eXEC 04.01.2009 - 20:41 Uhr
KonKorT:

Welche Spiele erscheinen denn noch mit DX10.1, dass es für dich ein so gewichtiges Argument ist? DX10.1 bietet gegenüber DX10 kaum einen Mehrwert aus Entwicklersicht.

Naja, wenn DX10.1 nur ein PR-Gag ist, was ist dann PhysX?
Nenne mir 5 Spiele, die dadurch wirklich einen Vorteil bei Performance und/oder Grafik haben, anstatt einem gleichwertigen Sys mit ATI-Karte.

Bei DX10.1 gibts z.B. Far Cry 2 und Assassins Creed - Beides Top Titel
Ich hab mir noch die Nvidia-Demo von Mirrors Edge angeschaut und es gibt imho keinen Vorteil - Ein, zwei Fahnen hier mehr - Die allesamt künstlich angebracht wirken - das wars schon. Für mich kein Mehrwert.

Aber die reinen leistungsdaten hören sich wirklich gut an. Bin mal gespannt, was ATI dagegensetzt. Die Leistung dürfte ja auf Höhe einer HD4870 X2 liegen, wenn nich sogar darüber.
4.) Bulldozer 04.01.2009 - 20:31 Uhr
DX11 wird bei Nvidia erst ende 2009, Anfang 2010 eingeführt. Dann mit dem GT300 High End Chip.
3.) KonKorT 04.01.2009 - 20:30 Uhr
eXEC:
Hört sich gut an, würde ich jedoch niemals kaufen - Kein DX10.1


Welche Spiele erscheinen denn noch mit DX10.1, dass es für dich ein so gewichtiges Argument ist? DX10.1 bietet gegenüber DX10 kaum einen Mehrwert aus Entwicklersicht.
DX11 wird weitreichende Änderungen mitbringen. Hier kann man dann DX11-Kompilanz als Argument einwerfen. DX10.1 ist fast nur ein PR-Gag. ;)
2.) eXEC 04.01.2009 - 20:26 Uhr
Hört sich gut an, würde ich jedoch niemals kaufen - Kein DX10.1
1.) Bulldozer 04.01.2009 - 20:02 Uhr
Die neuen Karten in 40nm werden spannend, Nvidia setzt DDR5 RAM und halbiert den SI auf 256Bit, DX10 bleibt weiterhin in benutzung, der Stromverbrauch müsste auch weniger ausfallen, ich gehe von 150-180w unter Last aus, Preislich sollten die Karten um die 200 € liegen, in der Hersterllung werden Sie günstiger als den geschumpften Gt200b sein. Die Karten werden bestimmt 30-50% schneller als eine GTX280.