Was kostet Nvidias GF100-Chip?

NvidiaViel liest man derzeit über die schlechten Yields bei TSMCs 40 nm-High-Performance-Prozess, in dem die aktuellen GPUs von ATI und Nvidia gefertigt werden. Verschiedene Gerüchte machen hierbei die Runde, wobei die Zahlen sehr stark voneinander abweichen. Besonders interessant scheinen die Überlegungen zu Nvidias kommendem Grafikchip GF100 zu sein, denn dieser ist mit seinen 3 Milliarden Transistoren recht groß (>= 550 mm²) und leidet dadurch umso stärker unter einer schlechten Fertigung.

Zunächst muss man sich bei der Betrachtung der Ausbeute klar machen, dass die Chips bei der Fertigung auf Wafern angeordnet werden. Das heißt, der Hersteller versucht, möglichst viele rechteckige Chips auf eine runde Scheibe zu bekommen. Standardmäßig sind die Wafer derzeit 300 mm im Durchmesser (12 Zoll). Nun weiß man inzwischen recht genau, dass Nvidias GF100 2,4 cm auf 2,38 cm groß sein wird. Man kann also durch eine einfach Überlegung zumindest errechnen, wie viele Chips theoretisch überhaupt pro Wafer möglich sind.

Wir haben hier der Anschaulichkeit halber ein kleines Bild vorbereitet, das zeigt, wie sich die Situation in etwa darstellen dürfte.

Theoretischer Wafer des GF100

Die GF100-Dies sind im Verhältnis zur Wafergröße angeordnet, wobei der hellere Kreis in der Mitte den Wafer darstellt. Hier sieht man, dass ein großer Teil Wafer-Fläche an den Rändern wegfällt, weil die Chips dort angeschnitten und somit funktionsunfähig sind. Alle zwangsläufig kaputten Chips sind mit einem roten X gekennzeichnet. Dieses Problem wird umso schlimmer, je größer die Chips sind. Fraglich bei der kleinen Skizze ist, wie große der Abstand zwischen den einzelnen Chips ist. Wir haben hier ältere Nvidia-Wafer als Referenz herangezogen.

Somit kommt man nach unserer Rechnung auf maximal 94 Chips. Das würde bedeuten, dass bei einer Ausbeute von 100 Prozent und geschätzten Kosten pro Waferstart von 5.000 Dollar jeder Chip etwa 53 US-Dollar kosten würde. Erreicht man eine Ausbeute von nur noch 40 Prozent, dann steigen die Kosten demnach auf 133 US-Dollar pro Chip. Was passiert, wenn die Ausbeute des GF100 tatsächlich bei nur noch 20 Prozent liegen sollte, wie dies bei Fudzilla kürzlich zu lesen war, darf sich jeder selbst ausrechnen.
Das wären allerdings lediglich die nackten Chipkosten. Hinzu kämen noch die Kosten für das PCB, die Kühlung etc. Und dann wollen im Normalfall auch noch mehrere Stellen Geld mit den Karten verdienen.

Vergleicht man unser Bild mit älteren Nvidia-Wafern, dann sieht man sehr schnell, dass der GF100 in seiner Größe etwa dem GT200 in 65 nm entspricht. Damals waren ebenfalls knapp 90 Chips pro Wafer möglich. Allerdings hat Nvidia dieses Mal das Problem, dass keine kleinere Fertigung greifbar ist.
Somit steht Nvidia letztlich wieder vor dem gleichen Problem wie bei der letzten Chipgeneration, nämlich dass ATI die Preise diktieren kann, wenn der GF100 nicht signifikant schneller wird. Und selbst wenn dies der Fall sein sollte, ist dieses Mal die späte Markteinführung für Nvidia von Nachteil, die ATI genug Zeit gelassen hat, einen Refresh des Cypress' vorzubereiten.
Zunächst muss Nvidia also auf steigende Yields und die gute Performance seines neuen Sprösslings hoffen. Das sollten auch alle, die auf einen harten Preiskampf warten.


Kommentar schreiben

  • Loggen Sie sich oben mit ihren Benutzerdaten ein, um Kommentare zu verfassen.
  • Falls Sie noch kein Mitglied sind, können Sie sich in unserem Forum registrieren.

18 Kommentare

18.) isigrim 22.01.2010 - 10:23 Uhr
Ja, guter Hinweis mit der Tesselation. Ich denke da wird man dann die Tests abwarten müssen, wann der GF100 da an seine Grenzen stößt. Momentan ist die Auswahl an Benchmarkergebnissen ja noch nicht annähernd repräsentativ bzw. objektiv belegt.
Theo hat jetzt übrigens seine Aussagen nochmals weitestgehend an unsere angeglichen. Er spricht jetzt ebenfalls von ca. 130 Dollar Kosten bei einer zu erwartenden Yieldrate von 40%. (Vielleicht war das auch der Dreher den er drin hatte am Anfang. Statt 130 Dies pro Wafer, 130 Dollar Kosten pro Die).

Übrigens bin ich sehr gespannt, ob das neue Prozess-Management beim GF100 auch dazu führt, dass die Karten nicht mehr das System zum Stocken bringen, wenn sie CUDA-Berechnungen durchführen. Momentan ist es nämlich vielfach so, dass eine Karte, die CUDA-berechnungen durchführt nicht gleichzeitig für eine ordentlich Bildschirmausgabe sorgen kann. Das könnte unter Umständen auch einer der Gründe gewesen sein, warum bei den Präsentationen mehrere Fermis im System waren. ;) Aber ich bin guter Dinge, dass es da auch Fortschritte gibt.
17.) N1truX 22.01.2010 - 09:14 Uhr
Die reine Tesselationsleistung des Fermi dürfte höher sein, ja. Aber nich in spielen. Denn bei Nvidia wird Tesselation nicht wie bei AMD in Hardware sondern über die - nennen wir sie Cuda-Cores - ausgeführt.
Somit dürfte man bei Tesselation in Spielen folgendes erreichen. Prinzipiell eine recht hohe Einheiten-Auslastung (sprich Stromverbrauch in Furmark regionen) sowie bei steigender Tesselationsanforderung allgemein weniger Power für die restliche Grafikberechnung => weniger FPS.
Zudem ist so die Tesselations-Leistung an die Anzahl der Shader gebunden und nicht wie bei AMDs "kleinem" Hardware-Tesselator konstant.
16.) isigrim 21.01.2010 - 16:23 Uhr
Bright Side of News hat inzwischen seine Aussage von 130 Dies pro Wafer korrigiert und folgt uns jetzt dahingehend, dass nur 94 Dies auf den Wafer passen.
Theo rechnet mit Kosten pro Chip von ca. 200 Dollar. Er fügt allerdings hinzu "Fermi würde die 5870 und 5970 bei Tesselation überholen (er verwendet das Wort kill) und bräuchte weniger Strom". Das ist dann wiederum wohl höchstens gegenüber der 5970 zutreffend....wenn überhaupt ;)
Auch er rechnet damit, dass die Geforce zunächst für Nvidia keinen Gewinn bringen, wenn sie preislich konkurrenzfähig gegenüber den Radeons platziert werden, allerdings glaubt er, dass Nvidia das mit den Quadro- und Tesla-Verkäufen subventionieren wird.
15.) Undergroundking 21.01.2010 - 14:45 Uhr
ich vermute mal, fermi wird erst in 28nm wirklicht gut. 40nm scheinen doch zu viel strom zu verbrauchen und zu viel hitze zu erzeugen. ist halt zu groß alles. aber das wird eben dauern. es kommt ein hartes jahr für nvidia. N1truX hat alles wunderbar erklärt.
14.) N1truX 21.01.2010 - 08:31 Uhr
saint-ch:
Erstens ist die Form nicht entscheident ob etwas in unwucht ist oder nicht. Vielmehr ist entscheident ob die Drehachse durch das Massezentrum [...]
EIn Wafer ist eine extrem homogene Silicium-Scheibe. Das ist etwas anderes als eine "Kirmes Schaukel" ;) Zumal runde Wafer auch nicht in den Transportboxen verkanten können als eckige (hast du ja später selbst erwähnt).
Quote:
Also ich kenne keine Kristalle die rund wachsen, oder hast du schon mal einen runden Bergkristall gesehen, oder ne runde Schneflocke.
Ich kenne Kristalle die rund wachsen, das kommt immer auf den Kristallisationsprozess und den Kristallisations-Keim drauf an. Eine Anwendung davon sind eben SIlicium-Einkristalle für Waferherstellung. Die kann man nicht wirklich eckig züchten. Rund ist nunmal eine energetisch äußert günstige Form (siehe Seifenblasen).

PS: Natürlich gibt es auch eckige Kristalle, das hängt aber von der Kristallstruktur ab (wie z.B. die zyklisch-hexagonale Anordnung der Wasser-Moleküle im Eis die zu den entsprechenden Schneeflocken führen). Bei metallischen Einkristallen ist das eben etwas anderes, da ja nur ein einziges Element vorhanden ist.

Madbomb:
Und ich sage mal so, die Ausbeute der 40nm Produktion hat ATI auch nicht abgeschreckt die 5er Reihe auf den Markt zu schmeissen.
Was TSMC mit Massenfertigung meint ist wohl eher das was ATi mit dem RV740 Anfang 2009 gemacht hat. Und um da Chips raus zuwerfen muss die Produktion schon nen paar Monate gelaufen sein.
Quote:
Und dabei muss man sagen das es halt wegen Problemen länger gedauert hat bis die Produktion stabil lief, das muss aber nicht direkt heissen das die 28nm Produktion ebenso schlecht anläuft.

Muss nicht, aus Branchenkreisen ist aber eben leider zu hören das es eben noch schlechter läuft, was wohl vor allem an den von isigrim angesprochenen Gate-Last-Prozess liegen dürfte. Selbst Intel hat da lange gebraucht das zu beherrschen.
Quote:
Und auf den aktuellen Fermi Chip würde sich das auch nicht auswirken, es entwickeln ja nicht alle an einem Chip, die Entwicklung findet ja paralell statt.

Die haben aber nicht unendlich viel Geld um unendlich viele Entwickler einzustellen und es gibt auch nicht unendlich viele Fachkräfte ;)
Klar gibt es immer eine gewisse Parallelität, das hat aber auch grenzen. Und wie bereits erwähnt, ein Shrink von 40 nm auf 28 nm ist extrem aufwendig.
Quote:
Und grade dann, wenn Nv sieht die Kosten werden nur schwer in einem Preiskampf mit ATI zu decken sein oder die Kosten an sich sind wegen der Leistungsaufnahme zu hoch, (Kühler, entsprechend teurere Bauteile, teureres PCB) wird Nv darauf erpicht sein die Kosten schnell zu senken.

Du siehst das unter dem Gesichtspunkt das es kaum was kostet auf 28 nm zu protieren. Beim GT200b war das was anderes. 55nm ist ein Halfnote-Verfahren vom 65 nm-Prozess und dementsprechend "simpel" war da noch die Portierung. Von 40 auf 28 nm ist das extrem kostenintensiv und im Gegensatz zu 55 nm seiner Zeit ist 28 nm nicht mal ansatzweise erprobt, geschweige denn ausgereift. Und neue prozesse kosten idr. das 2-3 fache als die "alten".
Deswegen hat AMD z.B. nie die K8 auf 45nm Geshrinkt und auch sehr spät auf 65nm. Es wäre einfach teurer gewesen die längst abbezahlten Prozesse zu verlassen und auf neue zu wechseln als mit dem Kostennachteil bzgl. DIE-Fläche zu leben. Ähnlich könnte das auch Nvidia ergehen.
Ich glaube eher das wir recht schnell (~1 Jahr) eine Fermi-Evolution sehen als einen Refresh in 28 nm vom GF100.
13.) isigrim 20.01.2010 - 22:30 Uhr
@madbomb
Also zunächst besteht ein großer Unterschied diesmal darin, dass Nvidia und ATI auf gleicher Strukturbreite fertigen, nämlich 40nm. Bei der letzten Generation hatte Nvidia zunächst - statt auf 55 nm wie ATI - zunächst noch konservativ auf die 65nm-Fertigung vertraut. Man war also ein Halfnode hinterher und konnte das in gewisser Weise mit dem GT200b aufholen, indem man auf die gleiche -damals dann schon erprobte - 55 nm-Fertigung, wechselte. Das ist diesmal eben nicht möglich, weil man fertigungstechnisch gleichauf ist.
Im dritten Quartal läuft im besten Falle also die Volumenproduktion in 28 nm bei TSMC an. Das heißt es würde mindestens ein dreiviertel Jahr dauern, bis in dieser Fertigung Produkte erscheinen. Da wäre ATI beinahe schon wieder mit der nächsten Generation (Northern Islands) da, weshalb ein Shrink zu diesem Zeitpunkt sehr viele Resourcen seitens Nvidia binden würde, ohne einen Markt-Vorteil daraus ziehen zu können. Das war es was ich mit damit meinte, eine kleinere Fertigung sei nicht greifbar.

Ein weiteres Problem ist der komplette Umstieg in der Fertigung bei TSMC in 28 nm. Denn TSMC setzt für 28 nm auf Gate-Last, während Global Foundries auf Gate First setzt. Gate Last ist extrem schwer zu handhaben und wenn Intel nicht die Finger im Spiel hat, dann wird das für TSMC zumindest eine erhebliche Herausforderung. Zudem wäre es dann für nvidia eher ein Redesign als ein Shrink, also zumindest mit enormem Aufwand verbunden.
Ich bezweifle zudem ehrlich gesagt ein wenig die Ankündigung, dass TSMC ab dem 4. Quartal in die Massenproduktion gehen kann, wenn ich mir Meldungen zum Prozessfortschritt bei TSMC ansehe. Aber das ist nur eine persönliche Einschätzung. Selbst wenn die sehr optimistischen Schätzungen seitens TSMC zutreffen, bleibe ich bei meiner Aussage, dass eine kleinere Fertigung nicht so schnell greifbar ist.
2010 wird das Jahr der 40nm GPUs und damit hat Nvidia ein Monsterdie am oberen Ende der Skala und will offenbar sogar eine Dual-Karte bauen.

Im übrigen hat auch Global Foundries schon 28nm Testwafer gezeigt, allerdings weitgehend unkommentiert.
12.) ledmaster 20.01.2010 - 22:09 Uhr
Moin, die Reihen mit den Chips (Dies) werden deshalb nicht versetzt angeordnet, weil sie ja noch irgendwie gesägt werden müssen, dies würde sich bei versetzten Reihen schwiergi gestalten.
11.) Madbomb 20.01.2010 - 21:30 Uhr
Naja, wenn TSMC sagt sie sind im Q3 tauglich für die Massenfertigung, dann gehe ich halt auch davon aus das sie Produzieren können. Und ich sage mal so, die Ausbeute der 40nm Produktion hat ATI auch nicht abgeschreckt die 5er Reihe auf den Markt zu schmeissen. Und dabei muss man sagen das es halt wegen Problemen länger gedauert hat bis die Produktion stabil lief, das muss aber nicht direkt heissen das die 28nm Produktion ebenso schlecht anläuft.
Für Nv wäre es ja kein kleinerer Zeitraum als damals mit dem GT200.
Nv wird ebenso früh wie damals beim GT200 wissen, wie es um dem Fermi gestellt ist und was sie ggf. unternehmen um Probleme zu lösen.
Und auf den aktuellen Fermi Chip würde sich das auch nicht auswirken, es entwickeln ja nicht alle an einem Chip, die Entwicklung findet ja paralell statt.
Und grade dann, wenn Nv sieht die Kosten werden nur schwer in einem Preiskampf mit ATI zu decken sein oder die Kosten an sich sind wegen der Leistungsaufnahme zu hoch, (Kühler, entsprechend teurere Bauteile, teureres PCB) wird Nv darauf erpicht sein die Kosten schnell zu senken.
Also meiner Meinung nach sollte man die 28nm Fertigung nicht in allzu weiter Ferne rücken, wie es im Artikel der Fall ist!
10.) saint-ch 20.01.2010 - 20:27 Uhr
@N1truX

Guter Artikel.

Nur deine Erklährung warum der Waffer rund ist wage ich zu bezweifeln. Erstens ist die Form nicht entscheident ob etwas in unwucht ist oder nicht. Vielmehr ist entscheident ob die Drehachse durch das Massezentrum geht oder nicht, sonnst währen ja alle Kirmes schaukeln sowas von unwuchtig. Und ob die Sizilium KIRSTALLE Rund wachsen?? Also ich kenne keine Kristalle die rund wachsen, oder hast du schon mal einen runden Bergkristall gesehen, oder ne runde Schneflocke.

Ich denke aber das es was mit dem von dir erwänten Fertigungsprozess zu tun hat, eine Runde form ist nun einmal leichter (und vorallem platz und volumesparender) zu verarbeiten als ein viereckiger Klotz.

PS: habs mal nachgelesen

"Beim Tiegelziehen (Czochralski-Verfahren) wird das im Siemensverfahren erhaltene Solarsilicium in Quarztiegeln geschmolzen. Ein Impfkristall aus hochreinem monokristallinem Silicium wird in diese Schmelze gebracht und langsam unter Drehen aus der Schmelze herausgezogen, wobei hochreines Silicium in monokristalliner Form auf dem Kristall auskristallisiert und dadurch fast alle Verunreinigungen in der Schmelze zurückbleiben."
http://de.wikipedia.org/wiki/Silicium
9.) N1truX 20.01.2010 - 16:39 Uhr
Naja in Q3 könnten sie anfangen 28 nm zu Rampen, allerdings braucht es seine Zeit bis die Produktion eine gewisse Konstanz und auch ein nennenswertes Volumen hat. Zudem soll der 28 nm Prozess bei TSMC immernoch schlechter laufen als der 40nm Prozess seiner Zeit in der Entwicklung.
Auch Nvidia scheint ja bzgl. Entwicklung des Fermi genug Probleme zu haben. Jetzt noch einen Refresh in 28 nm zu Entwickeln würde wohl endgültig das Chaos bzgl. Release bedeuten. Ein AMD-Techniker hatte das mal gut ausgedrückt, ein Shrink eines Chips ist etwas anderes als sich das viele vorstellen. Das ist nicht wie bei einem Kopierer, wo man mal schnell auf "75%" drückt.
Da muss sowas wie Signalwege, Hot-Spots etc. wieder neu berücksichtigt werden. Das ist ähnlich komplex wie ein neues Design was die Fehlerbereinigung betrifft.

AMD wird den Wechsel schätzungsweise auch nicht forcieren. 28nm will/wird man bei GF fertigen, da dürften sich die Kosten kaum lohnen extra für TSMC nochmal was zu entwickeln. Eher ein Testprodukt bei GF und die sind wohl etwa ein Quartal später dran.

Ich bin da zwar etwas pessimistisch, aber ich glaube nicht das wir 2010 noch eine 28nm GPU für den oberen Leistungsbereich in Serienfertigung sehen werden. Höchstens AMD (oder auch mal Nvidia) setzen einen kleineren CHip als Test auf (ähnlich dem RV740).
8.) Madbomb 20.01.2010 - 16:00 Uhr
Auf ht4u lässt TSMC verlautbaren das zum einen die 40nm Produktion jetzt auf Höhe der 65nm Produktion liegt und außerdem haben sie die 28nm Massenfertigung für das dritte Quartal angekündigt.
Somit hätte Nv doch die Möglichkeit, im etwa gleichen Zeitrahmen wie damals mit dem GT200, auf eine kleinere Fertigung zu wechseln.
Wobei das natürlich nicht positiv wäre wenn Nv wieder auf solche Mittel zurückgreifen müsste um die eigenen Produkte überhaupt attraktiv positionieren zu können.

PS: Danke für die Erklärung bzgl der Wafer!
7.) isigrim 19.01.2010 - 18:32 Uhr
Das Ausfüllen war nur ein Beispiel, weil es hier immer wieder zu Missverständnissen kommt. Bei der Berechnung der Fläche kamen zum Beispiel gerade im Falle des GF100 einige Seiten auf 130 Exemplare pro Wafer, was mathematisch völlig unmöglich ist.
Alle Chips die komplett außerhalb des Wafers liegen sind demnach völlig zu vernachlässigen (und existieren auch gar nicht). Das ist aber sowieso unerheblich, da es hier ja nur um die funktionsfähigen Exemplare innerhalb geht.

Wieso deckt sich die Überschrift nicht mit dem Inhalt? Es geht ja darum, was ein GF100-Chip in de Fertigung bei einer bestimmten Yieldrate kostet. Es geht hier nicht um die Kosten der fertigen Grafikkarten.
6.) MacTen 19.01.2010 - 18:12 Uhr
Also was das Fertigungsverfahren betrifft darf ich mich selbst auch als noob bezeichnen, doch wir haben hie rja sicher jemanden der sich damit auskennt. Das mit den unwuchten leuchtet mir ein. Das Wafer rund sind ebenfalls.Das angeschnitte Chips funktionsunfähig sind ist auch plausibel, aber was ich nicht verstehe, wieso wird tatsächlich das komplette quadrat ausgefüllt?Ich meine, man könnte doch zumindest in jeder Ecke 3 Chips einsparen die nichtmal vom wafer angeschnitten werden( jedenfalls nach der zeichnung hie rim artikel). Nur dadurch würde man die Menge der funktionsunfähigen Chips ja schon um 25% senken. Wäre schön wenn das mal jemand erklären könnte.

Aber mal was anderes, der Inhalt des Artikels deckt sich doch eher weniger mit der Überschrift, oder?
5.) N1truX 19.01.2010 - 16:14 Uhr
Die Wafer rotieren teilweise beim Auf- bzw. Abtragen bestimmter Flüssigkeiten im Produktionsprozess. Bei Eckigen Wafern hättest du da eine Unwucht.
Zudem werden Wafer aus Silizium-Einkristallen geschnitten - und die wachsen beim Züchten nun einmal rund ;)
4.) Madbomb 19.01.2010 - 15:59 Uhr
Najo, denke auch das es auf G80 Preisregionen hinausläuft wenn der Leistungsvorsprung ebenso groß ist wie damals, ansonsten würden sie die Preise nicht so hoch ansetzen können.

Aber mal ne andere Frage die vielleicht etwas dumm klingt, wieso ist der Wafer eigentlich Rund und nicht Rechteckig, man würde doch so viel mehr Chips unterbringen können?
3.) isigrim 19.01.2010 - 13:38 Uhr
Ja, ich hatte länger überlegt, wegen des Verschiebens einzelner Reihen, aber allgemein scheint das nicht üblich zu sein, wenn man sich die G80 oder GT200-Wafer ansieht. G80 und GT200
Insgesamt sind es jedenfalls wohl kaum mehr als 100 Chips pro Wafer.

Ähnliche Preise, wie du sie angibst, hatte ich auch im Kopf. Das mit den PCB-Kosten hatte ich ursprünglich mit drin, habs dann aber wieder rausgenommen, weil die PCB-Fertigung doch eine Sache für sich ist. Man muss sich ja nur ansehen, wie Nvidia nachträglich bei der GTX 260 an den PCB-Kosten geschraubt hat.

AMD hat wohl erstmal kein großes Interesse, die Preise zu weit zu senken, weil sie selbst auch sehen müssen, dass sie Geld verdienen. Bei der Vorgängergeneration (RV770) hatte AMD ja verscuht durch niedrigere Preise einen höheren Marktanteil zu ergattern, wobei dann eben die ASPs litten. Diesmal dürften sie schon durch den früheren Produktstart deutlich bessere Marktanteile erreicht haben. Momentan scheint mir der für Februar vermutete Start der 5830 eher darauf hinzudeuten, dass AMD versucht die Preise der 5850 und 5870 in erträglichen Regionen zu halten.
2.) Undergroundking 19.01.2010 - 13:32 Uhr
hast recht. karten für 500-600€ dürften in heutigen zeiten eh nur noch arg schwer an den mann zu bringen sein.
der 200€ bereich ist für die meisten die grenze. und die dürfte ati mit der 5850 bei bedarf schnell unterschreiten können. und würd wohl immer noch gewinn machen.

eine 5850 für 190€ dürfte sich dann flott zur "gamerstandardkarte" entwickeln, wie seinerzeit die 8800GT.
1.) N1truX 19.01.2010 - 13:21 Uhr
Das Bild ist ganz anschaulich, allerdings müssen die Chips nicht zwingend alle in Tabellen Form angeordnet sein, sondern können auch minimal verschoben werden.
Wenn man z.B. wie oben in der 2. Reihe an beiden enden etwa nur 10% Verschnitt am jeweils äußeren Die hat kann man die Reihe verschieben und somit da zumindest einen mehr raus holen. Macht sich schon bezahlt.

Trotzdem sind die Kosten je DIE aufgrund der Größe und der mit der Größe abnehmenden Yield sicherlich allein um Faktor 2,5-3 höher als die eines RV870 (zudem kann man kleinere Dies eben effizienter auf dem Wafer anordnen).
Dazu noch die höheren PCB-Kosten (384- statt 256 Bit ist ja komplexer) und sollte die finale Version wirklich über 225 W brauchen auch eine teurere Spannungs-Versorgung und Kühlung (auch wenn die HD58x0 Kühler auch nicht gerade günstig sein werden). Dann noch + Importgebühren, Gewinnmargen, Mwst usw. ist das schon ne nette Stange Geld. Mal sehen was am Ende rauskommt, aber unter 500-600 Euro für den großen Fermi und weniger als 350-400 für den "kleinen" kann ich mir kaum vorstellen.

Muss man natürlich sehen ob/wie aggressiv AMD die Preise senkt und ob Nvidia dann mitzieht. Aber viel spannender ist für mich eh der Bereich um 200 Euro - Also sozusagen nochmal den 8800 GT-Hype^^