Nvidia GT300 mit DirectX 11 ab Q4/2009

NvidiaVor wenigen Tagen hat Nvidia den ersten Refresh seines aktuellen Flaggschiffs GT200 präsentiert. Diesem werden im Laufe dieses Jahres noch die ersten GT200-basierenden Ableger im 40-Nanometer-Verfahren folgen. Was danach kommen wird, war bisher bestenfalls Spekulation.
Direkt von Nvidia-Vertrauten können wir Ihnen nun exklusiv erste Details des nachfolgenden Chips darlegen, der - dies sei vorweggeschickt - vieles anders machen wird als GT200 und co. und evolutionstechnisch eine ähnliche Stellung in der Nvidia-Historie einnehmen wird wie seinerzeit NV40 (Geforce 6) oder auch G80 (Geforce 8).

Bereits Ende Oktober berichteten wir unter Verweis auf branchennahe Quellen, dass Nvidias nächster Next-Generation-Chip in der laufenden, internen Roadmap für das vierte Quartal 2009 vorgemerkt sei. Eine kürzlich offiziell online gestellte CUDA-Roadmap, die für eben jenen Zeitraum auch CUDA 3.0 vormerkte, erhärtete diesen Verdacht.
Da in diesem Zeitfenster auch der Launch von Windows 7, seit wenigen Tagen als Beta vorliegend, angedacht ist und man um die einkehrende DirectX-11-Unterstützung des Betriebssystems weiß, wurde geschlussfolgert, dass auch Nvidias GT300 DirectX-11-Unterstützung mitbringen würde, zumal Konkurrent AMD einen DirectX-11-Chip für 2009 offiziell schon ankündigte.

Aus der Spekulation ist nun Gewissheit geworden: Zumindest bestätigte eine Nvidia-nahe Quelle uns gegenüber, dass der GT300 zum einen für das vierte Quartal 2009 weiter vorgesehen sei und zum anderen DirectX 11 unterstützen werde.
Damit nicht genug, ergänzte man, dass der Chip wie zuvor das GT21x-Lineup in 40 Nanometer breiten Strukturen gefertigt würde.

Angesprochen auf die evolutionären Neuerungen des Chips, verriet man uns, dass beispielsweise die Recheneinheiten keine Single Instruction Multiple Data (SIMD)-Einheiten mehr wären, sondern Multiple Instruction Multiple Data (MIMD)-ähnliche-Einheiten, die Clusterorganisation selber dynamischer würde und dass man das Prinzip der Crossbar aufgegriffen hätte und neue Buffer hinzugefügt hätte. Ferner soll ein stark verändertes Power- und Speichermanagement zum Einsatz kommen.
Intern soll es schon erste, lauffähige Testschaltungen geben. Ein Tape-Out wird für das zweite Quartal angepeilt.

GT300, so verriet man uns abschließend, ist der "wahre" Nachfolger des G80, während der GT200 im weitesten Sinne nichts weiter als ein breiterer G80 mit verbesserten GPGPU-Computing-Eigenschaften sei.
Man darf also gespannt sein, was Nvidias erster DirectX-11-Chip imstande sein wird, zu leisten.


Kommentar schreiben

  • Loggen Sie sich oben mit ihren Benutzerdaten ein, um Kommentare zu verfassen.
  • Falls Sie noch kein Mitglied sind, können Sie sich in unserem Forum registrieren.

15 Kommentare

15.) eXEC 18.01.2009 - 12:44 Uhr
Ich bin jetzt auch gleich froh, meine Kiste nicht aufgerüstet zu haben =)
Ich glaub jeder mit einer Grafikkarte ab GF8800/HD2900 hat momentan noch genug Spieleleistung um dieses 3/4 Jahr zu überstehen ;)
Und danach kommt sowieso das große Upgrade - AM3 + Phenom 2 + GT300 + SLI Board =)
14.) Cartman 17.01.2009 - 18:50 Uhr
Quote:
Seehr spannend, was NVIDIA da vorbereitet. Hoffentlich werd ich nicht wieder beleidigt, weil meine Karte im Ranking runterrutscht


Ich hab die gleiche Karte wie du. Bis dahin wird die wohl noch reichen...
13.) Weiser 17.01.2009 - 17:22 Uhr
QRT:
Die 285gtx ist ja Verhältnissmäßig teuer zur Konkurenz, und warten macht da wohl auch wenig Sinn.
Ich bin ratlos.

Die GTX 285 ist momentan recht teuer, weil sie in ihrer Leistungsklasse relativ allein ist und den Marketingvorteil von der schnellsten Single-GPU hat.
Warten ist hier aber in jedem Fall eine Option:
http://www.hardware-infos.com/news.php?news=2629
Wenn der GT212 (GTX 380/360) raus kommt purzeln die Preise der GTX 285 ganz schnell gewaltig in den Keller, doch sie bleibt attraktiv, die GT212-Karten werden wegen der 144 Shader mehr eine höhere Rechenleistung haben, doch die Speicherbandbreite wird gleich bleiben, wodurch der GT212 meiner Meinung nach ausgebremst werden wird! Und die GTX 285 soll sich perfekt übertakten lassen...

Ich persönlich glaube aber, wer in 1680x1050 spielt und eine Nvidia-Karte mit min. 128 Shadern hat (8800 GTX/Ultra; 8800 GTS 512; 9800 GTX(+), denn mit der Leistung dieser Karten, genaugenommen des G80s, hat Nvidia schon ein hohes und lange währendes Leistungslevel erreicht.) , der kann vermutlich mit einer solchen Karte halbwegs gescheid weiterspielen, bis die GT300-Preise sich auf ein akzeptaples Niveau eingestellt haben (Frühjahr 2010, ansonsten kann OC helfen!) und wenn man dann eine GTX 480-Karte mit der Leistung eines G80 (ich nutze meine 8800 GTX nun schon 2 Jahre zu meiner Zufriedenheit!) bekommt, kann man doch glücklich sein und die alten Karten kann man zur Physix-Berechnung behalten...

Übrigens wer mit spekulieren will über zukünftige ((Nvidia-))GraKas, deren Leistung und Preise, sollte mal hier reinschauen: http://www.hardware-infos.com/forum/vie ... &start=135
12.) N1truX 17.01.2009 - 14:40 Uhr
Zu was. Zu einem entsprechenden Produkt oder zu der Aussage? Letztere kommt von Sapphire selbst (hab ca. 45 min mit denen auf der GC gequatscht ;) )
11.) Luk Luk 17.01.2009 - 14:00 Uhr
N1truX:
kann man z.B. mal ein Blick auf Sapphire werfen, die bei der Toxic Reihe ja immer mal was ganz interessantes ausprobieren und Vapor-X sah sehr vielversprechend aus und man war wohl auch ganz zufrieden.


Hast du einen Link?
10.) N1truX 17.01.2009 - 11:21 Uhr
Bevor wir hier Luft ionisieren (was auch mit Energieverbrauch verbunden ist ;) ), kann man z.B. mal ein Blick auf Sapphire werfen, die bei der Toxic Reihe ja immer mal was ganz interessantes ausprobieren und Vapor-X sah sehr vielversprechend aus und man war wohl auch ganz zufrieden.
Noch simpler wäre es natürlich einen Chip zu entwickeln der einfach maximal 140W verbraucht ;)
9.) Luk Luk 16.01.2009 - 23:40 Uhr
Ich glaube, da hat einer zu viel Geld :D

Seehr spannend, was NVIDIA da vorbereitet. Hoffentlich werd ich nicht wieder beleidigt, weil meine Karte im Ranking runterrutscht :D

Außerdem bin ich auf die Transistorenzahl und den Stromverbrauch gespannt. Vielleicht muss sogar eine neuartige Kühlung erfunden/gebaut werden, die sogar noch effizienter ist, als die der GT200 Reihe (deren Kühler teilweise schon am Limit sind im Verhältnis zur Lautstärke). Es gab doch mal eine Technik, die Luft per Ionisierung bewegen soll, habe das bei Tomshardware gesehen.......Ich bin gespannt.
8.) Duplex 16.01.2009 - 23:31 Uhr
ich z.b warte ggf. auf eine 9800GTX+ für 80€ bei ebay oder so und baue mir dann ein 3Way-SLi system , zwei karten hab ich schon =)

und erst ab GT300 werden zwei neue gekauft *freu*
7.) QRT 16.01.2009 - 22:43 Uhr
Da wird wohl das Problem begraben liegen. Ich brauch momentan nicht wirklich was. :)
6.) Duplex 16.01.2009 - 22:39 Uhr
kauf dein zeugs dann wen du es brauchst ;-)
5.) ConVuzius 16.01.2009 - 22:38 Uhr
Wenn der GT300 und Windows 7 draussen sind, und die Kinderkrankheiten im großen und Ganzen ausgemerzt, dann hol ich mir mal wieder ein richtig dickes neues system. ich freu mich drauf ;-)
4.) QRT 16.01.2009 - 22:16 Uhr
Hm, eigentlich wollte ich mir eine 285gtx zulegen.
Wenn ich jetzt aber lese, macht mich der gt300 schon hippelig.
Theoretisch sollte ich mit einer 8800gts 320mb noch bis dahin auskommen, aber man will ja immer mehr.
Ein knappes Jahr iss nicht wenig, und wie werden sich die Preise der verfügbaren Last-Gen Karten bis dahin entwickelt haben?
Die 285gtx ist ja Verhältnissmäßig teuer zur Konkurenz, und warten macht da wohl auch wenig Sinn.
Ich bin ratlos.
3.) Cartman 16.01.2009 - 22:12 Uhr
Wird bestimmt teuer...aber klingt gut.
2.) N1truX 16.01.2009 - 21:24 Uhr
Naja der R800 wird schätzungsweise nicht so extrem viel schneller, da die R700 Architektur schon extrem optimiert ist und AMD erst nach dem R800 eine "komplett neue" Architektur präsentieren mächte. Man darf gespannt sein.
1.) eXEC 16.01.2009 - 21:22 Uhr
Hört sich verdammt gut an! Hoffen wir das ATI was anständiges entgegenzustellen hat, damit ich eine richtig fette Nvidia zum bezahlbaren Preis kaufen kann =)
Wenn der Sprung wirklich so enorm wird, müsste eigentlich eine GTX-380(?) schneller sein, als die GTX-295 - So war es zumindest damals beim G80