Nvidia: GT206, GT212, GT216 und GT300

NvidiaAus branchennahen Kreisen haben wir Einblick in die laufende Nvidia-Roadmap nehmen können und damit einen Überblick schaffen können, was vom kalifornischen Grafikchipspezialisten demnächst zu erwarten ist. Dabei stellte sich unter anderem überraschenderweise heraus, dass Nvidia erst gegen Ende 2009, mit der GT3xx-Generation, DirectX 11 unterstützen wird. Zuvor wird man versuchen, mit den GT2xx-Ablegern GT206, GT212 und GT216 konkurrenzfähig zu bleiben. Folgend eine Übersicht, die den aktuellen Nvidia-Fahrplan darstellt, der sich natürlich - darauf muss hingewiesen werden - noch nach vorn oder hinten verschieben kann.

  • GT206: Q4/2008, 55 nm
  • GT212: Q1/2009, 40 nm
  • GT216: Q2/2009, 40 nm
  • GT300: Q4/2009, 40 nm


Demnach steht uns mit dem GT206 noch in diesem Jahr der 55 nm-Refresh des GT200 ins Haus, der ursprünglich einmal im August/September, damals noch unter dem Codenamen GT200b, debütieren sollte. Aufgrund diverser Schwierigkeiten - unbestätigt ist noch immer das Gerücht, dass auch der GT206 Probleme mit dem Takt der Shaderdomain hätte - scheint der Launch jetzt aber wohl erneut nach hinten verschoben worden zu sein, nachdem selbst die Nvidia-nahen Kollegen von Nvnews noch vor wenigen Wochen von einem Launch am 22. Oktober sprachen.

Im ersten Quartal 2009, und möglichst vor dem RV870-Launch, will Nvidia dann den GT212 folgen lassen. Hierbei handelt es sich um einen Nvidia-Grafikchip im 40 nm-Fertigungsverfahren. Ob dieser auch mehr Ausführungseinheiten als GT200/GT206 besitzen wird oder begünstigt durch das Fertigungsverfahren schlichtweg mehr Takt, wissen wir noch nicht genau. Vermutlich wird es allerdings hardwareseitige Änderungen geben, wenngleich der DirectX 11-Support definitiv nicht dazugehören wird.

Für das späte zweite Quartal 2009, zuletzt war bei CENS von Juni 2009 die Rede, wird dann der GT216 - ebenfalls im 40 nm-Prozess - folgen. Unklar ist hier, ob es sich um einen taktstärkeren GT212 handelt oder lediglich um eine Neuauflage der GT206, die in einen Dual-Chip münden könnte. Relativ sicher ist hingegen der Einsatz von GDDR5- statt GDDR3-Speicher.
Richtig heiß wird es dann aus Nvidia-Sicht erst wieder gegen Ende des Jahres, wenn mit dem GT300 eine neue Grafikkartengeneration auf dem Programm steht. Sicher mit an Bord sein soll DirectX 11. Welche weiteren, architektonischen Änderungen es geben wird, darüber kann zurzeit nur gemutmaßt werden. Die nächsten Wochen und Monate werden uns hier hoffentlich konkretere Infos bescheren.


Kommentar schreiben

  • Loggen Sie sich oben mit ihren Benutzerdaten ein, um Kommentare zu verfassen.
  • Falls Sie noch kein Mitglied sind, können Sie sich in unserem Forum registrieren.

21 Kommentare

21.) Duplex 30.10.2008 - 10:30 Uhr
liest ihr eig das was ich schreibe ???


ein CPU besteht jeweisl aus Ein rechenkern und ne chace zusätzlich transisotren

eing GPU hingegen besteht aus transistoren und haufenweise Shaderkernen ( ja eine GPU ist in der tat bereis ne multi core einheit )

bei ner CPU kann man die kerne einfach doppeltaufbaun ohne weiteres

aber verdoppel mal eben 240 shader ( Nvidia GTX280 ) oder 800shader ( R770 )
das hat kein wirtschaflichen sinn und mehr leistung als ein chip mit den doppelten shadereinheiten haben die bestimmt net


das letzte mal das ich hier es nochmal erklären will ... bei nächsten mal ist es euer pech wen ihr an nen ATIforum und son schrott glaubt
20.) Sennahos 30.10.2008 - 00:17 Uhr
Wäre sicher eine sehr lohnenswerte sache, ließe sich auch im grunde ohne probleme realisieren, durch kleinere Herstellungsverfahren nur umso mehr. Wäre aber eben sicher sehr teuer.

Zukünftig wird ja der Fokus beider Hersteller mehr auf Multi-Gpu lösungen gelegt,... wäre ja wohl n Witz wenn dann immer noch heutiges system inklusive Mikroruckler zum einsatz kommt.
19.) Duplex 29.10.2008 - 14:28 Uhr
überlege doch mal

dual GPU lohnt sich in moment überhaupt nicht

wie gesagt befor man zwei "kleine" chips mit jeweils z.b 800shadern zusammen steckt benutzt man lieber eine GPU ( die mit sicherheit kleiner ist wie zwei ) mit 1600Shadern

GPU und CPU ist ne komplett verschiede technik ( ok funktioniert zwar im selben prinzip aber die geschwindigkeit und aufbauten sind anders )

es wird vllt öfter ne Multi GPU in form wie eine 4870 X2 geben aber ne dualvariante ist absolut sinnlos
18.) Bulldozer 28.10.2008 - 20:43 Uhr
Dual Core GPUs werden sich lohnen, ein Chip mit 2 Kernen, wenn nicht sogar wie bei den X4 Cores. Abwarten und Tee trinken.
17.) Cartman 28.10.2008 - 19:59 Uhr
Wäre diese Dual-GPU Variante nicht ziemlich teuer? Und die Frage ist, ob es sich lohnen würde?
16.) Luk Luk 27.10.2008 - 19:47 Uhr
Wenns ein native Dualcore wird, wird es auch keine Mikroruckler geben, da sie ein viel schnelleres Interface haben werden.

Warum bei GPU's nicht das tun, was bei CPU's schon gang und gebe ist? :)
15.) Duplex 27.10.2008 - 16:08 Uhr
von wegen

2chips sind grösser wie einer da man die auf nen gehäuse unterbringen müsste

und bei 2chips bruchst du 2mal ne stromversorgung
2chips was fehlerfrei laufen sollten ect..

alles doppelt und du musst mit problemen wie microruckler leben ah und sie müssten sich dann ein speicher teilen , ich weis net obs sinnfoll ist grakas mit einen gemeinsammen speicher auszustatten

hab da keine ahnung lasse mich gerne belehren
14.) VinD 27.10.2008 - 15:25 Uhr
@Duplex ist aber wesentlich billiger kleine GPU-Cores zusammenzustecken als einen Megachip zu basteln...
13.) Duplex 27.10.2008 - 14:23 Uhr
weils sehr sinnlos wäre eine heute GPU zu "dualcoren"

bevor man sich die ganze arbeit macht zwei GPUs in eine gehäuse zu packen und dann mit den ganzen umständen einer Multi GPU lebt , nimmt man lieber die ganzen Shadereinheiten und verbaut diese in eine GPU , also anstatt 2x800Shader eine mit 1600shader

bei ner CPU macht das ganze durch aus sinn aber bei aktuellen GPUs eig garnicht
12.) Luk Luk 27.10.2008 - 12:47 Uhr
Wieso sollte dort kein DualCore kommen? Wenn die Treiber/Spiele es unterstützen gibt es doch keinen Grund es nicht zu fabrizieren ;)
11.) Duplex 26.10.2008 - 09:01 Uhr
dual core auf grakas wirds nie geben -.- woher habt ihr den schrott ??

vllt Dual GPU aber es wird nie ein Dualcore wie bei der CPU geben
10.) hmd 26.10.2008 - 00:34 Uhr
Relevant ist ja die Leistung relativ zum Preis. Ein Dickschiff kann jeder bauen. Nvidia-Roadmap klingt einmal mehr nicht sehr innovativ. Wenn AMD wirklich mit dem Dualcore kommt, dann könnte es schnell übel für Nvidia aussehen. Ich glaub dass man von 1.5-2x GTX280 Leistung im gleichen Preissegment ausgehen muss. Wenn man alles in einen Chip packen kann ist sicher die Peripherie auch günstiger zu produzieren (Vergleich HD4870X2).
9.) Cartman 25.10.2008 - 21:23 Uhr
""wieder" ? war das je der fall ??"

Nunja. Die 4870 (X2) hat ihren Dienst getan. Und Nvidia benennt einfach so die 8800 GT in die 9800 GT um...Hm. Ich weiss nicht. Auch verbucht Nvidia ja in letzter Zeit kleine Verluste. Da ist AMD mit Sicherheit nicht ganz unschuldig dran...
8.) Duplex 25.10.2008 - 15:26 Uhr
ich weis irgentwie net wen der R870 wirklich nur ne shader update auf 1000shadern bekommt dann wird der vllt auf den GTX280 aufschliessen , aber bestimmt verheimlicht amd alles wieder und die karte wird mehr haben

bin mal gespannt^^
7.) KonKorT 25.10.2008 - 15:21 Uhr
Das kommt auf deine Auslegung von "soviel schneller sein" an. Mit rund 50 Prozent wirst Du schon rechnen können. ;)
6.) Duplex 25.10.2008 - 15:19 Uhr
ja aber chip alleine ist AMD Nvidia zurzeit hinterher

der GT-200 ist dem R770 überlegen , aber auch 2mal so gross^^

naja die nächste graka generation '( R870 und GT216 ) halten mir net sehr viel

ich glaub die mit ner GTX280 sind noch bis nächstes jahr gut bedient und die neuen grakas werden net soviel schneller sein
5.) KonKorT 25.10.2008 - 15:09 Uhr
Definitiv zu R300-Zeiten. Da waren die Radeon-9000-Produkte den Geforce-FX-Produkten Längen voraus.
Ich glaube Cartman bezieht sich aber eher auf die aktuelle Lage, die besagt: ATI stellt deutlich effizientere Grafikkarten her und hat mit der HD 4870 X2 die zurzeit schnellste Grafikkarte in ihren Reihen - auch wenn es eine Dual-GPU ist.
4.) Duplex 25.10.2008 - 14:34 Uhr
"wieder" ? war das je der fall ??
3.) Cartman 25.10.2008 - 13:48 Uhr
Mich beschleicht ein Gefühl, dass die Ati GPU die Nvidia GPU wieder haushoch schlagen wird . . .
2.) KonKorT 25.10.2008 - 11:43 Uhr
Da hast Du vollkommen recht. Aber offensichtlich will man unbedingt noch einen passenden Chip vor RV870 aufbieten. Weil wenn die mit dem aufschlagen und Nvidia dann noch mit GT206 rumgurkt, kommt das nicht so gut. ;)

GT216 soll ja erst Juni 2009 kommen. Dann würde man ATI rund vier Monate wieder das Feld überlassen. Insofern macht das mit GT212 und GT216 schon Sinn, wenngleich die Board-Partner das wirklich nicht allzu gut finden sollten.
1.) Duplex 25.10.2008 - 11:38 Uhr
den GT216 könnte man eigentlich wegfallen lassen und die "features" gleich beim GT212 einbaun , die boardpartner würden sich freuen