Nvidia GF100 - Chipfläche und Zahlenspiele

NvidiaWir hatten schon vor einiger Zeit über die Größe des GF100-Dies - also der benötigten Siliziumfläche - spekuliert und daraus die möglichen Kosten für Nvidias neue GPU abgeleitet. Nun hat sich unsere Schätzung weitgehend bestätigt. Expreview hat Bilder von GF100-Dies veröffentlicht, die die GPUs ohne Heatspreader zeigen, und anhand dieser Bilder nachgemessen. Demnach misst die neue GPU 23 x 23 mm und benötigt folglich 529 mm² Fläche auf dem Wafer.

GF100 - Chips ohne Heatspreader

Damit lagen wir mit unserer Schätzung nur 1 mm daneben, unsere Rechnung Die/Wafer gilt aber nach wie vor.
Mit 529 mm² liegt der GF100 allerdings nicht an der Spitze von Nvidias größten Grafikchips. Der GT200 in 65 nm war noch ein kleines Stück größer, nämlich 576 mm² und hatte demnach eine Kantenlänge von 24 x 24 mm, der G80 war mit 22 x 22 mm und 484 mm² Kantenlänge dagegen etwas kleiner. ATIs neues Flaggschiff, der RV870, ist mit 18,3 x 18,3 mm nochmals etwas kleiner und belegt demnach auch nur 334 mm². Dieses "nur" bezieht sich übrigens auf GPUs, denn die CPUs sind allgemein deutlich kleiner. So misst der neue Sechs-Kern-Prozessor Gulftown - Core i7-980X - von Intel lediglich 248 mm², ist allerdings auch schon in 32 nm gefertigt.

Diesize - GF100-RV870

Dagegen belegt der GF100 bei der Transistorzahl mit Abstand den neuen Spitzenplatz unter den aktuellen Chips überhaupt. Er kommt auf 3 Milliarden, während ATIs RV870 aus nur 2,1 Milliarden Transistoren besteht. Nvidia hat damit die Transistorzahl gegenüber dem GT200 mit seinen 1,4 Milliarden Transistoren mehr als verdoppelt. Hier weisen die GPUs wiederum eine deutlich höhere Transistorzahl auf als die aktuellen (Desktop-)CPUs. Intels Gulftown kommt nur auf 1,17 Milliarden, AMDs Phenom II X4 lediglich auf 0,76 Millarden Transistoren. Nur Intels Server-CPUs reichen zumindest an ATIs Flaggschiff heran. So hat der neue Itanium Tukwila 2 Milliarden Transistoren, worauf Intel auch recht stolz ist, und der kommende Acht-Kern-Prozessor Beckton - Nehalem EX - wird sogar aus 2,3 Milliarden Schaltungen bestehen. Allerdings sollte man im Auge behalten, dass das Verhältnis von Kernlogik zu Cache bei den GPUs deutlich stärker zugunsten der Kernlogik ausfällt.

Wegen TSMCs Problemen mit dem 40 nm-Prozess fällt diesmal die Größe der Chips besonders ins Gewicht und vermindert die Ausbeute enorm. Allerdings hat Nvidia nach eigenen Aussagen deutlich mehr Wafer bei dem taiwanischen Unternehmen geordert und kann so die Schwierigkeiten zumindest abmildern.


Kommentar schreiben

  • Loggen Sie sich oben mit ihren Benutzerdaten ein, um Kommentare zu verfassen.
  • Falls Sie noch kein Mitglied sind, können Sie sich in unserem Forum registrieren.

7 Kommentare

7.) Kellerkind 20.03.2010 - 12:22 Uhr
SunBlack:
Nunja, ich denke mal schon das ATI das gemacht hätte, wenn es möglich gewesen wäre, denn wer erst eine neue Grafikkarte hat (geringerer Preis->mehr kaufen es), der wird sich nicht gleich wieder eine neue bei Nvidia holen. Problem war aber bei der Produktionsmenge der Karten. Mein Kumpel hatte sich Anfang Dezember eine HD5850 bestellt (wenn ich mich recht entsinne). Mein letzter Stand war, dass sie Mitte Februar geliefert werden sollte. Wenn man so lange warten musst, weißte ja wie die Verfügbarkeit ist. Und bei geringer Verfügbarkeit kann ATI den Preis halt hoch ansetzen, denn bei einem geringeren Preis würden die ja auch nicht mehr loswerden.

Genau das ist das Problem. TSMCs 40nm-Fertigungs-Kapazitäten sind einfach zu gering. Wenn fast 6(!) Monate nach dem Launch die Verfügbarkeit noch immer so schlecht ist, dass alle günstigeren 58x0-Angebote ständig nicht auf Lager sind, spricht das für sich.

Allzuviel wird sich meiner Einschätzung nach durch die neuen Geforces da auch nicht ändern. Wenn die bisherigen Angaben stimmen, ist deren P/L-Verhältnis nämlich nicht wirklich besser, so dass es für AMD keinen wirklichen Grund gibt, die Preise zu senken, da die Nachfrage vermutlich auch weiterhin hoch genug sein wird.
Das einzige, was ich mir vorstellen kann, ist dass sich durch die neuen Geforces die Nachfrage etwas gleichmäßiger verteilt, und die Händler die 58x0 nicht mehr zu so überhöhten Preisen anbieten können wie es aktuell noch der Fall ist (AMDs empfohlener Verkaufspreis liegt umgerechnet nämlich ne Ecke unter den Preisen, zu denen die 58x0 momentan verfügbar sind).
6.) SunBlack 20.03.2010 - 01:14 Uhr
hmd:
Finds auch gut dass Fermi endlich kommt. Gebs auch zu, primär damit die Preise der HD5870/5850 fallen, dann gibts für mich auch endlich eine. :) Ich hab ja etwas naiv geglaubt, dass ATI mit günstigen Preisen den Markt mit ihren Karten überschwemmt, ist nicht wirklich so gekommen. :D Solang keine Konkurrenz da ist, bleiben die Preise stabil im oberen Segement, leider. Wenn man bedenkt wo dazumal die HD4870 nach einem halben Jahr nach dem Release (mit Konkurrrenz von Nvidia) preislich gelegen hat, ist das schon ganz schön schräg was jetzt eine HD5870 immer noch kostet.

Nunja, ich denke mal schon das ATI das gemacht hätte, wenn es möglich gewesen wäre, denn wer erst eine neue Grafikkarte hat (geringerer Preis->mehr kaufen es), der wird sich nicht gleich wieder eine neue bei Nvidia holen. Problem war aber bei der Produktionsmenge der Karten. Mein Kumpel hatte sich Anfang Dezember eine HD5850 bestellt (wenn ich mich recht entsinne). Mein letzter Stand war, dass sie Mitte Februar geliefert werden sollte. Wenn man so lange warten musst, weißte ja wie die Verfügbarkeit ist. Und bei geringer Verfügbarkeit kann ATI den Preis halt hoch ansetzen, denn bei einem geringeren Preis würden die ja auch nicht mehr loswerden.
5.) hmd 19.03.2010 - 18:42 Uhr
Finds auch gut dass Fermi endlich kommt. Gebs auch zu, primär damit die Preise der HD5870/5850 fallen, dann gibts für mich auch endlich eine. :) Ich hab ja etwas naiv geglaubt, dass ATI mit günstigen Preisen den Markt mit ihren Karten überschwemmt, ist nicht wirklich so gekommen. :D Solang keine Konkurrenz da ist, bleiben die Preise stabil im oberen Segement, leider. Wenn man bedenkt wo dazumal die HD4870 nach einem halben Jahr nach dem Release (mit Konkurrrenz von Nvidia) preislich gelegen hat, ist das schon ganz schön schräg was jetzt eine HD5870 immer noch kostet.

@Redaktion
Sonst möcht ich mal ein Lob an die Redaktion aussprechen. Ich find ihr macht eure Sache wirklich super. Eine Zeit lang hatte ich den Eindruck dass ihr Dreamland Nvidia reportiert, find aber mittlerweile dass ihr wirklich das berichtet was ist und nicht das wo man das Herz halt verloren / haben möchte. Das sollte man als Journalist zumindest versuchen beseite zu lassen, was in letzter Zeit sehr gut gelingt. Ich lese sehr gerne eure Infos.

Thx.
4.) Daedalus 19.03.2010 - 16:50 Uhr
@eXEX & QRT
Also gaaanz so negativ würde ich das nicht sehen mit dem GPGPU. Prinzipiell hat das seine Berechtigung. Was die ganze Sache einfach im Moment nicht zum Durchbruch bringt ist die nervige Compilierung / das Debuggen von CUDA / OpenCL-Code.
Wenn das mal einigermaßen funktioniert wird es schon voran gehen und nVIDIA kann mit Berechtigung Fermi vermarkten. Leider befürchte ich das ATI da aber schon aufgeschlossen haben wird. Eigene Performancetest zeigen schon jetzt eine ordentliche Leistung der 4000er Serie, Obwohl die noch nicht optimiert ist. Die 5000er von ATI wird nVIDA auch nur schwer im Bereich rohe GPGPU Leistung schlagen können. Aber: Die Treiberprogrammierung inkl. aller sonsiger Features von Fermi (C Code - Assembler etc.) können das Ruder zumindest stark in Richtung nVIDA drehen.
Früher oder Später (eher Früher ;-) werden auch Spiele einfach nur auf fertige Physik zurückgreifen. Da wird das GPGPU massiv benötigt.
Na ja, jetzt freu ich mich erstmal auf hoffentlich günstigere ATI Karten :lol:
3.) QRT 19.03.2010 - 15:30 Uhr
Stimm ich eXEC zu.

Selbe Problematik wie beim gt200. Zu spät, zu groß...wird warscheinlich auf kurz oder lang wieder mit Verlust verkauft...und das der GF100 bei verdoppelter Transitoranzahl nur marginal mehr performt, ist schon fast peinlich.
Nvidias Desktop Karten werden von Generation zu Generation uninteressanter. Diese Gpgpu Scheisse brauch der Normal Anwender 0%.
2.) eXEC 19.03.2010 - 15:18 Uhr
Diese Generation hat Nvidia keine Chance, nicht nur im Preiskampf. Auch die Leistung floppt und der Chip kommt viel zu spät auf den Markt. Dafür ist der GF100 anscheinend relativ gut in GPGPU - Etwas das keinen normalen User auch nur im geringsten Interessiert.
1.) Daedalus 19.03.2010 - 11:52 Uhr
Hui, damit bekommt AMD dann doppelt so viele auf Chips auf einen Wafer. Wenn man dann noch an die geringere Boardkomplexität denkt so sieht es ganz dünn aus für NVIDIA. Den Preiskampf wird NVIDIA haushoch verlieren.