Löst Nvidia den GT200 bereits im September ab?

NvidiaDie Gerüchteküche "The Inquirer" wartet am heutigen Donnerstag, kurz vor dem Wochenende, mit weniger guten Nvidia-Nachrichten auf. Demnach ist der GT200 zwar weiterhin eine "Hausnummer" und dürften sich leistungstechnisch vollzüglich gegen den RV770 schlagen, aber scheint man insgesamt zu viel riskiert zu haben. Der Chip sprengt jede bekannte Hürde; angefangen vom Stromverbrauch über die Transistoren bis zur daraus resultierenden Chipfläche.

Der GT200 soll nach aktuellen Gerüchten rund 1,4 Millarden Transistoren schwer sein und damit mehr als doppelt so viele wie der G80 besitzen, der bereits damals als "Riesen-Chip" mit 484 mm² in die Geschichte einging. Nun wird der GT200 zwar in 65 statt 90 nm gefertigt, dennoch ist die Chipfläche auf 576 mm² angewachsen, was sehr geringe Margen bedeutet. Bereits vor einigen Tagen wusste man zu berichten, dass Nvidia pro Wafer vermutlich nur 100 Chips unterbringen könnte. "The Inquirer" berichtet nun, dass die Ausbeute lediglich 40 Prozent betrüge. Für gewöhnlich kostet ein Wafer rund 5000 US-Dollar, weswegen man einen Chippreis von rund 125 US-Dollar (5000/40) prognostiziert.

Zwar erscheint die Gewinnmarge noch in Anbetracht der Tatsache, dass die Chips später für 449 (GTX 260) respektive 649 US-Dollar (GTX 280) verkauft werden sollen, hoch, jedoch sind es anscheinend allen voran die Speicherchips, die den Preis in die Höhe schießen lassen. Genaue Angaben zum Preis liegen aber nicht vor.

Die Kosten summieren sich dann durch ein komplexes PCB und leistungsstarke Kühler sowie Heatpipes, die bei beiden Chips aufgrund der hohen Verlustleistung von 182 bzw. 236 Watt TDP notwendig sind. All' diese Teile müssen natürlich auch immer hin und hergeschickt werden, Nvidia fertigt ja im Grunde genommen nichts aus eigener Hand. Schlussendlich kommt noch hinzu, dass Nvidia die Entwicklungskosten, die dieser Chip über Jahre genommen hat, irgendwie wieder reinholen muss und die Board-Partner bekanntlich auch noch einen Teil vom "Kuchen" abhaben wollen.

Die Lösung soll daher GT200b - ein prinzipiell lediglich in 55 statt 65 nm gefertigter GT200 - heißen und angeblich auch schon greifbarer sein als man sich denken könnte. Offenbar hat Nvidia schnell erkannt, dass der GT200 sehr unrentabel ist und daher bereits früh die Vorbereitungen für einen so genannten GT200b getroffen.
So soll der GT200 praktisch mehr oder minder ein Chip fürs Museum werden. Lediglich vier Board-Partner sollen den Chip überhaupt liefern und das auch nur in begrenzten Stückzahlen. Mit einer Verfügbarkeit zur Produktvorstellung Ende Juni ist aber - zumindest laut "Fudzilla" - trotzdem zu rechnen. Man sollte nur schnell bestellen oder eben besser auf den GT200b warten.

Der GT200b reduziert die Chipfläche theoretisch um knapp 30 Prozent, womit der Chip auf rund 414 mm² kommen sollte und damit etwas kleiner als der G80 wäre aber beispielsweise noch immer größer als der G92, der rund 330 mm² groß ist. Ob Nvidia den Refresh auch dazu nutzen wird, die Taktraten anzuheben - schließlich fallen diese beim GT200 relativ gering aus -, bleibt abzuwarten und könnte unter anderem davon abhängig sein, wie schnell AMDs Dual-Lösung HD 4870 X2 wird. Man scheint jedoch entschlossen, die 1000-GFlops-Marke mit dem GT200b zu nehmen, die beim GT200 durch die hohe Wärmeentwicklung nicht mehr möglich war - bei 933 GFlops ist die GTX 280 "stehengeblieben".

"The Inquirer" berichtet, dass der GT200b erst gestern sein Tape-Out hinter sich gebracht hätte und im selbem Atemzug, dass ein Launch für den späten Sommer bzw. frühen Herbst anvisiert ist. Sollte die Entwicklung in der Tat schon soweit vorangeschritten sein, ist eine Veröffentlichung im September durchaus realistisch. Für gewöhnlich rechnet man nämlich zwischen Tape-Out und Launch 100 Tage.
Nvidia kündigte erst jüngst an, dass der GT200 der letzte, große Chip gewesen sei. Künftig wird man wie AMD eher kleinere Chips produzieren und diese durch Verdopplung zu einer High-End-Lösung biegen.


Kommentar schreiben

  • Loggen Sie sich oben mit ihren Benutzerdaten ein, um Kommentare zu verfassen.
  • Falls Sie noch kein Mitglied sind, können Sie sich in unserem Forum registrieren.

10 Kommentare

10.) Cartman 30.05.2008 - 14:54 Uhr
Oh man Nvidia...Was macht ihr bloß ?

Das der GT200 Chip nicht lange hält ,wussten wir , aber schon im september ? Na da bin ich ja mal gespannt .
9.) Duplex 30.05.2008 - 12:58 Uhr
nunja man sagt ja das die GTX280 alleine 50% mehr shaderpower als die alte architektur hat , dazu noch doppelte shader ect. ich klaug der R700 wird noch leicht hinterherhinken und eine GTX290 mit noch mehr power dürfte glaub auch schell realisiert werden du weist ja wie schnell sowas geht wen plötzlich konkurenz da ist
8.) KodeX 30.05.2008 - 12:52 Uhr
Hmmm... ich bin sehr gespannt darauf wie sich die neuen Grafik-Chips schlagen werden. Ich denke, dass AMDs R700 schneller sein wird als nVidias GTX 280. Leider ist der GT200 viel zu groß um eine Dual-Lösung anzuvisieren, weswegen nVidia wohl schnell einen Nachfolger auf den Markt bringen muss.

Wenn man bedenkt, dass der R700 eine mehr als doppelt so hohe theoretische Shader-Leistung als nVidias GTX haben wird (weil ja schon die HD 4870 eine höhere hat) kann man stark davon ausgehen, dass der R700 ab August das Zepta in die Hand nehmen wird und nVidia nachziehen muss.

Allerdings gefallen mir Multi-Core GPUs nicht so wirklich. Man müsste dich Technik verbessern und verfeinern. Alle Cores müssten zum Beispiel auf einen gemeinsamen Speicher zugreifen können. Außerdem wäre es sehr sinnvoll, wenn diverse Cores verschiedene Aufgabenbereiche hätten und es einen "Haupt-Kern" gibt.

Naja, jedenfalls warte ich mal gespannt ab...
7.) Duplex 30.05.2008 - 12:50 Uhr
warum ein einfacher die shrink auf 45nm oder 40nm wären doch genau so gut möglich dann wäre selbst der chip GT-200 kleiner wie ein G92
6.) hmd 30.05.2008 - 11:20 Uhr
Für mich sind diese Infos keine Überraschung. Das passt ins Bild mit dem überteurten GT200 Chip und den neuaufgelegten 8800er Karten die jetzt einfach unter dem Deckmantel 9800 laufen. Man hat nix Neues für den Massenmarkt der "normalen" Gamer. Die 5% die sich einen Exoten für 500 Euro kaufen, zahlen sich für NVIDIA ganz bestimmt nicht aus. ATI hat gute Chancen Marktanteile zurück zu gewinnen.
5.) Phenocore 30.05.2008 - 00:54 Uhr
Also gibt es von nVidia wieder pünktlich zum Weinachtsgeschäft starke Grafikkarten mit 55nm Chips. Bis dahin kann man sich ruhig zurücklehnen und auf Hybrid-SLI-Fähige Boards für Intelprozessoren warten. Wenn man eine schwächere Grafikkarte als ein GeForce 8800 GT hat und nicht mehr warten kann/will, gibt es ja immer noch die HD 4850 und HD4870

GTX280 in 65nm wird so wie es aussieht noch unattraktiv als die 8800 Ultra.
4.) Streamline 29.05.2008 - 22:45 Uhr
Es ging ihn wohl mehr um die zu geringe Yield-Raten, die aktuell generell bei den neuen Prozessoren vorliegen.

Der andere Grund ist: Ein optischer Shrink ist immer noch einer der günstigsten...
3.) touly 29.05.2008 - 22:10 Uhr
wieso wird die yield rate kleienr wnen ich mehr chips auf nen wafer packen kann?
2.) Civilizatior 29.05.2008 - 22:09 Uhr
weil der GT200 dafür zu komplx ist und damit die jildrate (ausbeute) zu gering wäre.
1.) Duplex 29.05.2008 - 21:56 Uhr
wen schon denschon warum stellen die net einfach auf 45nm oder 40nm TMCS macht doch sowas auch ?