GF104: Die größer als erwartet

NvidiaZwar sind Nvidias GF104-basierte Grafikkarten GTX 460 768 MiB und 1.024 MiB bereits seit über einer Woche am Markt, verlässliche Informationen zur Die-Größe gab es bisher trotzdem keine. Nun äußerte sich der gewöhnlich gut informierte Charlie Demerjian zu Wort und berichtet von gerundeten Abmaßen von 24,9 mm x 14,7 mm. Rechnerisch ergibt dies 366 mm², mit den exakten Messwerten sollen es 367 mm² sein. Dies entspricht den bisherigen Schätzungen, welche im Allgemeinen zwischen "etwa gleich groß wie Cypress" (334 mm²) und "kleiner als 400 mm²" lagen, jedoch eher Richtung Cypress tendierten.

Wir können die Angaben zwar nicht bestätigen, halten diese allerdings für realistisch. Bedenkt man den deaktivierten, achten Shader-Cluster sowie die bei Nvidia traditionell geringere Packdichte, sind 367 mm² gar noch realistischer als die zuvor favorisierte Cypress-Die-Größe. Die geringere Packdichte bietet für Nvidia den Vorteil, einen "robusteren" Die produzieren zu können, denn mit der Packdichte der Transistoren steigt auch die Stromdichte und somit schlussendlich die Temperatur.
Es ergeben sich - bezogen auf die 1,95 und 2,15 Milliarden Transistoren im GF104 respektive RV870 - 5,31 und 6,44 Millionen Transistoren je mm² für den GF104 beziehungsweise RV870. AMD hat in diesen Bereichen aktuell also weniger Probleme und versucht mit einer höheren Packdichte Platz auf dem Wafer und damit letztendlich Geld zu sparen. Und der Preis könnte wieder einmal der wunde Punkt des Fermi-Abkommen sein.

Nvidia Geforce GTX 460

Selbst wenn man die wahrscheinlich schlechteren Yields des GF104 nicht berücksichtigt, denn immerhin hat Nvidia ein Jahr weniger Erfahrung mit TSMCs 40 nm-Prozess, wird es für Nvidia wohl schwer, mit dem GF104 Gewinne zu erzielen. Abgesehen von AMDs HD 5830, welche eher in homöopathischen Mengen den Markt erreicht, liegen AMDs ASPs (average selling price, durchschnittliche Verkaufspreise) für HD 5850 und HD 5870 gut 100 Euro über den der beiden GTX 460-Modelle. Ein weiteres Beschneiden des GF104 zugunsten höherer Yields dürfte für Nvidia ebenfalls wenig rentabel werden, muss man sich doch noch möglichst deutlich von der HD 5770 mit Juniper-Die absetzen. Letztere "lauert bereits", zwar mit 15 bis 20 Prozent Abstand, aber einem lediglich 166 mm² kleinen Die, günstiger Kühlung und 128 Bit-Speicherinterface.

Nvidias einzige Chance könnte es dementsprechend sein, eine teurere Version mit den vollen acht Shader-Clustern auf den Markt zu bringen - laut ersten Gerüchten als GTX 468 bezeichnet. Da dies nicht direkt zum Start geschehen ist, scheinen die Yields noch zu schlecht zu sein. Auf der anderen Seite wäre mit einem entsprechend hohen Verkaufspreis die Nachfrage geringer und somit die schlechte Lieferbarkeit gegebenenfalls gut zu kaschieren. Aus wirtschaftlicher Sicht ist es allemal Zeit für Nvidia, denn dass man mit "HD 5000 Preisen" und dem verhältnismäßig teuren Design der GF100-Urväter kaum Geld verdienen kann, steht außer Frage. Lediglich die teuren Tesla-Karten helfen hier aktuell die mehreren hundert Millionen US-Dollar Entwicklungskosten wieder einzufahren.


Kommentar schreiben

  • Loggen Sie sich oben mit ihren Benutzerdaten ein, um Kommentare zu verfassen.
  • Falls Sie noch kein Mitglied sind, können Sie sich in unserem Forum registrieren.

6 Kommentare

6.) Duplex 22.07.2010 - 14:24 Uhr
cooler beitrag Kellerkind

ich hatte den 1ghz auch nur als anhaltpunkt genommen um zu sagen sie sollen mal die Taktraten höher setzen

aber stimmt wohl , die taktraten verbrauchen viel ...
5.) Kellerkind 22.07.2010 - 13:56 Uhr
Nö, Taktprobleme sind's mMn nicht, außer du meinst eben Stromverbrauchs-bedingte Taktprobleme. Das Problem vor allem beim GF100, teilweise aber auch beim GF104 ist einfach der Stromverbrauch. Die GTX 460 scheinen ohne Spannungserhöhung mindestens ~750, meistens über 800 MHz zu schaffen. Bloß liegen sie dann verbrauchsmäßig schon fast im Bereich der 5870. Um Karten mit sagen wir mal 800 MHz Kern- und 1600 MHz Shadertakt ohne eine Verringerung der Yields rauszubringen, müsste Nvidia zusätzlich die Kernspannung auf einen Wert erhöhen, mit dem jeder Chip die Taktraten auch unter extremsten Bedingungen schafft, dann hätten sie eine Karte die vielleicht so schnell oder etwas schneller als eine 5850 ist, aber teurer herzustellen, schwerer zu kühlen und mit ~1,5 mal so hohem Stromverbrauch.


@Duplex: Um derart hohe Taktraten zu erreichen wird zwangsläufig mehr Spannung benötigt, deutlich mehr Spannung (auch bei AMD, was IMO auch der Grund ist warum es keine 5890 gibt).
So, was passiert wenn man bei einem Chip der bereits jetzt ~20W mehr zieht als die 5850 um 48% höher taktet und die Spannung sagen wir von 0,9875 auf 1,1V erhöht? Die Spannung wirkt sich ² auf den Stomverbrauch aus, du musst den Takt also mit Spannung² multiplizieren um die Auswirkungen auf den Stromverbrauch zu sehen. Einfache Gleichung:
GTX 460 1GB:
(675 * (0,9875)²) = 140W (in 3D-Spielen)
658,23 = 140W

Beispiel: (1000 * (1,1)²) = 1210

140W * 1210 / 658 = ~257W (ca. GTX 480-Niveau)

Der eine deaktivierte Cluster senkt den Stromverbrauch dann maximal um 1/7 (eher weniger, da ja nicht nur die SM Strom verbrauchen), das wären aber immer noch mind. 220W.
http://www.xbitlabs.com/images/video/ga ... _power.png

Und die Abwärme würde sich auf eine Fläche konzentrieren die nur 2/3 so groß ist wie beim GF100. Man bräuchte also vermutlich ein Kühlsystem, welches die Abwärme schneller und effektiver abführt als das Kühlsystem der GTX 480.
Für eine Karte, wie von der Leistung her vermutlich höchstens auf 5870-Niveau kommt, wenn überhaupt.

Ich denke, damit ist alles gesagt ;)
4.) N1truX 22.07.2010 - 13:08 Uhr
Das die damit gut skalieren würde ich auch nicht bestreiten, ob nicht einige Modelle für die Tests selektiert wurden ist eine andere Sache. Zumindest lesen sich einige Nutzermeinungen bei gängigen Shops nicht wie "locker 800 MHz" sondern eher im Bereich um 760+ MHz.
Die Sache ist ja, das du mit höheren Taktraten die Anzahl der verwertbaren Chips (Yield) immer weiter senkst. Nvidia wird schon entsprechende Tests unternommen haben um zu Checken welche Taktrate man mit einem gewissen Puffer im Mittel erreichen kann - ohne viel Ausschuss zu produzieren.
Die Taktraten werden im allg. ja eh immer mit als letztes festgelegt. Allerdings dürfte bis zu diesem Zeitpunkt das PCB etc. bereits designed worden sein und entsprechend hätte vielleicht auch nicht mehr die Leistungsaufnahme gepast.

Kurz: Die werden die nicht zum Spaß so getaktet haben ;)
3.) Duplex 22.07.2010 - 13:01 Uhr
Taktproblemen ??
der GF-104 kommt in jeden test mit leichtigkeit über 800mhz

und der GF-100 ähnlich , jedoch macht dann der stromverbrauch etwas grosse sprünge und macht alles zurnichte , jedoch skalieren die chips hervorragend mit dem mehrtakt
2.) N1truX 22.07.2010 - 12:30 Uhr
Ich denke Nvidia würde Die Chips höher takten, wenn sie denn könnten. Der GF100 leidet ja auch unter Taktproblemen, beim GF104 ist das allem Anschein nach nicht viel anders.
Dahingehend können wir wohl erst mit dem 28 nm Prozess mit Besserungen rechnen.
1.) Duplex 22.07.2010 - 12:01 Uhr
wieder mal zu konservativ , die sollen einfach die shader auf 280 belassen und die taktraten mal auf den 1 Ghz steuern , wie es AMD macht ...
damit senkt man die preise net so dolle wen die karte schon jetzt für 200€ rausgeht ist das ja bereits recht niedrig angesetzt