Nvidia GF100: 512 SPs, aber nur 384 Bit

NvidiaZurzeit deutet alles darauf hin, dass Nvidia seine neue Grafikkartengeneration zumindest noch in diesem Jahr ankündigen wird. Passend dazu sickern auch allmählich offizielle Informationen durch, die klarstellen, dass der Chip intern nicht unter dem Codenamen G(T)300, sondern GF100 läuft, wobei spekuliert wird, dass das F für Fermi steht - so offenbar ein weiterer Codename des Nvidia DirectX 11-Monsters.

Die neusten Informationen bestätigen, dass Nvidias Next-Generation-Chip, wie wir bereits exklusiv berichteten, über 512 skalare Shadereinheiten verfügen wird, die Nvidia übrigens jetzt als CUDA cores betitelt.
Wie wir schon berichteten, sind die Shadereinheiten dabei in 16 Shaderclustern organisiert, wobei jeder folglich 32 Streamprozessoren enthält. Ausgehend davon, dass es pro Shadercluster weiter 8 TMUs geben wird, könnten in Summe 128 (8*16) stehen.

Überraschend ist, dass Nvidia das Speicherinterface kurzerhand von 512 auf 384 Bit gestutzt haben soll. Wie man uns mitteilte, sei diese Entscheidung relativ kurzfristig getroffen worden und man schließt nicht aus, eine Karte mit 512 Bit breitem Speicherinterface nachzulegen. Dank schnellem GDDR5-Speicher sind für das High-End-Produkt um die 230 GB/s Speicherbandbreite realistisch.
Weil am Speichercontroller auch der Speicher selbst hängt, wird es die neuen Geforce-Karten wohl mit ungewöhnlichen Speichergrößen wie etwa 1,5 oder 3 GiB geben. Insgesamt sollen bis zu 6 GiB möglich sein, wobei hier die Nvidia-Dokumente bereits potentielle Workstation-Karten miteinschließen könnten.

Der GF100 soll über rund 3 Millarden Transistoren verfügen - ein erheblicher Teil ist erneut für GPGPU-Computing draufgegangen - und voraussichtlich um 500 Quadratmilimeter groß sein. Weitere Informationen sind in den nächsten Stunden zu erwarten.


Kommentar schreiben

  • Loggen Sie sich oben mit ihren Benutzerdaten ein, um Kommentare zu verfassen.
  • Falls Sie noch kein Mitglied sind, können Sie sich in unserem Forum registrieren.

15 Kommentare

15.) CaptainCosmotic 01.10.2009 - 13:11 Uhr
@ eXEC
Falsch ich habe 489€ und 359€ getippt
Das mit dem Benutzerbild und der Signatur ist okay.
Top die Wette gilt.
14.) KiTT 01.10.2009 - 01:55 Uhr
Herrjeh ... Ihr wollt doch nicht ernsthaft PCGH und CB als glaubenswürdige Referenzseiten hinstellen! Das ist doch ein offenes Geheimnis, dass gerade diese beiden Seiten die Testsetups oft nicht sehr genau nehmen und bei dem einen oder anderen Hersteller mal etwas besseres RAM oder dergleichen eingesetzt wird.

Die x2 wird auf keinen fall unter 550 Euro weggehen, um auch hier mal meinen Senf dazuzugeben. Ich schließe ich da der Gerüchteküche an und tippe auf 550-600Euro. Wird sicherlich nur die ersten paar Tage so sein und sich letztendlich bei ~525 einpendeln. Mein Tipp :p
13.) KonKorT 01.10.2009 - 00:51 Uhr
1.) Fermi verbraucht deutlich weniger als 300 Watt
2.) Fermi wird auch mehr als 50 Prozent schneller im Vergleich zur GTX 285 sein
12.) eXEC 30.09.2009 - 22:40 Uhr
Die HD5870 ist im Schnitt schon so 30% schneller, je nach Test sind es ein bisschen mehr oder ein bisschen weniger Prozente.
Der renormierteste Test ist imo der von Computerbase und hier liegt die HD5870 wie folgt vor der GTX-285:
25% bis 29% ohne AntiAliasing / AF (Je nach Auflösung)
20% bis 32% mit 4xMSAA / 16x AF (Je nach Auflösung)
41% bis 44% bei 8xMSAA / 16x AF (Je nach Auflösung)

Also war ich mit 35% Mehrleistung im Durchschnitt imo sehr sehr nahe an der Realität dran. Und wir werden sehen, wie weit ich mit der GTX-3x0-Generation recht behalten werde. Die HD5850 selbst ist im Mittel etwa 5-10% vor einer GTX-285. Also war ich, den CB-Test als Referenz genommen, bei meinen Schätzungen um lediglich 5-10% zu hoch. (Ich hab 35% für die HD5870 und 15% für die HD5850 geschrieben). Ich finde auch meine Prognosen für die GTX-3x0-Generation äußerst realistisch. Beim Preis auch immer beachten, dass ich UVP (Nicht Straßenpreis!) geschrieben habe, der liegt bei der HD5870 bekannterweise bei 350€. Wenn bereits die GTX-360 schneller, als eine HD5870 ist und dabei 1,5GB vRAM hat, sind 400€ ein durchaus realistischer UVP, das TopModel wird nochmals 150€ teurer, so wie es bisher auch immer war. Also ich für meinen Teil finde meine Einschätzung äußerst korrekt, aber gebt doch selber Tipps ab ;)

PS: Die HD5870 X2 soll etwa 600€ UVP kosten, zumindest laut aktuellen Gerüchten. Außerdem war es bisher auch stets so, dass die Dualkarte so ziemlich exakt das doppelte der einfachen Version gekostet hat. Da die X2 niedriger taktet, halte ich hier 600€ UVP für realistisch.

CaptainCosmotic: Wie wärs damit: Der Gewinner bestimmt für 4 Wochen, welche Signatur und welches Benutzerbild der Verlierer verwenden muss. >:-/)
Ich hab UVP 550/390€, du hast 449/349€ getippt. Der wo näher dran ist, gewinnt.
Deal?

€dit: Es sind nun weitgehende Infos bekannt:
http://www.computerbase.de/news/hardwar ... rmi_gt300/

Imo sieht das für Gamer ziemlich mieß aus. Irgendwie scheint sich Nvidia viel zu viel um GPGPU zu kümmern. Ich will Zockerleistung und keinen CoProzessor...
10.) Kellerkind 30.09.2009 - 20:48 Uhr
@Weiser: Dass die 5870 nur 20% schneller als die GTX 285 ist kann man so pauschal nicht sagen, das ist eher der worst-case. In Risen z.B., wo immerhin eine GTX 260 schneller als eine 4870 1G und eine GTX 275 schneller als eine 4890 ist, Nvidia in der alten Generation also eher leicht im Vorteil ist, ist die 5870 satte 50% schneller als die GTX 285 (und wir reden hier von einem DX9-Titel). Auch in vielen anderen Spielen beträgt der Vorsprung eher 30-40%, im Durchschnitt dürften die 35% schon hinkommen. Mehr als 20% sind es jedenfalls.

Bei den simulierten 5850-Tests muss man bedenken, dass einfach eine 5870 beschnitten und runtergetaktet wurde. Es ist aber möglich, dass die Retail-5850 mit engeren Speichertimings an den Start geht und so noch das eine oder andere Prozent gegenüber den Simulationen hinzugewinnt.

Die Preise schätzt eXEC aber auch meiner Meinung nach zu hoch ein, wenn die 5870X2 mit 499 an den Start geht muss der G3.. ääh GF100 schon schneller sein um für 550 verkauft werden zu können.
GTX 380 - 449$
GTX 360 - 349$
halte ich für realistischer.
9.) Weiser 30.09.2009 - 19:00 Uhr
@eXEC:
Ich möchte dich mal auf nen Posts von dir aufmerksam machen, dass heißt erst auf einen von mir und schließlich auf einen von dir!:
http://www.hardware-infos.com/forum/viewtopic.php?f=5&t=4586#p31328
Deine Antwort:
http://www.hardware-infos.com/forum/viewtopic.php?f=5&t=4586#p31336

Bei den von dir genannten Specs lagst du falsch, und die HD 5870 ist nicht 35. sondern nur knapp 20% schnller als die GTX 285 (hier lagen wir beide falsch!). Die HD 5850 ist nur knapp (ca. < 5%) schneller als die GTX 285 und keine 20%. Sicherlich lag ich noch etwas "falscher", aber falsch ist falsch!
(Nein, ich bin nicht kleinkarriert, nur genau!)

Also immer schön bodenständig bleiben und nicht den Hellseher spielen! ;)
Andererseits, wettet ruhig gegen ihn! :D


Ich persönlich kann mir übrigens kaum vorstellen, dass Nvidia eine Karte mit 512 Bit nachschiebt, da man quasi ja einen neuen Chip aufsetzen müsste.
Man hat ja jetzt nicht einen Chip, bei dem nur 128 Bit halt "abgeschaltet" sind, die dann nur aktiviert werden müssten, sondern einen, der einfach nur 384 Bit hat, denn nur das bringt ja auch Vorteile bei den Produktionskosten.
8.) CaptainCosmotic 30.09.2009 - 18:38 Uhr
@ eXEC Die 550€ werden es wohl nicht sein, da dann ATI mit einer HD5870 X2 für unter 450€ Kontern würde. Nvidia ist vorsichtiger mit überzogenen Preisen geworden, seitdem sie viele Käufer mit dem starken Preisnachlass geärgert haben, als der RV770 auf den Markt kam. ich gehe mal von 489€ und 359€ aus.
Wetteinsaz: Wer recht hat bekommt von den Verlieren öffentliche Demuts Posts.
7.) eXEC 30.09.2009 - 17:35 Uhr
Naja, das 512bit SI hat durchaus etwas gebracht, aber wahrscheinlich stimmte für den GF100 die Preis/Leistungs-Rechnung hier nicht. Wenn 512bit SI im Vergleich zu 384bit SI die Karte um ~10% beschleunigt, aber man für den selben Preis noch 4 Shadercluster hinzufügen kann und dort am Ende etwa 20% mehr Leistung hat, ist letzteres einfach die intelligentere Wahl.

Du siehst ja bei der Taktskalierung des GT200/RV770 Tests, dass eine 20% Erhöhung des Speichertakts eine etwa 4% Leistungssteigerung erwirkt. 512bit anstatt 384bit ist eine Erhöhung um 33%, also sollte sich hier die Leistung etwa um 6-7% verbessern.

Nachdem bereits meine Prognose zur HD58x0-Generation nahezu 100% korrekt war, gib ich hier mal meine Glaskugel zum GT300 ab:

GTX-380
Das Topmodell "GTX-380" wird etwa 65% schneller, als eine GTX-285 und wird eine TDP von etwa 240 Watt haben. Die Taktraten werden etwa 600/1350/2500 Mhz betragen, der UVP wird bei 550€ liegen.

GTX-360
Die "GTX-360" wird etwa 40% schneller, als eine GTX-285 und damit noch ein kleines Stückchen schneller, als die HD5870 sein. Im Gegensatz zur GTX-380 wird sie mit 2 Shaderclustern weniger bestückt und eine TDP von 200 Watt besitzen. Die Taktraten werden hierbei etwa 575/1300/2400 Mhz festgesetzt, der UVP wird bei 390€ liegen

Wetten werden direkt bei mir und meinen zahlreichen ausländischen Konten angenommen
6.) Duplex 30.09.2009 - 17:25 Uhr
300W ist schwachsinn

jedoch würde mich interessieren warum man das SI gekürtz hat , ich bin wirklich fast davon überzeugt , das es wohl sogut wie keine performance gebracht hat
und da man sich im vergleich zu AMD knapp sieht man eben vorgesorgt hat für einen möglichen preiskampf

unteranderen hies es doch das der chip unter der grösse eines GT-200b sein sollte

also Konkort , du solltest uns doch zumindest etwas verraten =D
5.) eXEC 30.09.2009 - 17:08 Uhr
300 Watt als Stromverbrauch ist ein absolutes 100% NoGo. Es gibt irgendwo auch Grenzen. Klar, Leistung ist sehr wichtig, aber selbst wenn sie 50% schneller als die ATI ist, disquallifiziert sie sich imo durch einen Stromverbrauch von 300 Watt. Das ist selbst für HighEnd zuviel, irgendwo muss auch mal schluss sein. Ich hoffe stark, dass diese Informationen falsch sind...
Ich behaupte aber jetzt mal ganz frech, dass hier irgendwo ein Übersetzungsfehler vorlag. Ich bin mir fast sicher, dass die Dual-Variante vielleicht die 300 Watt Grenze knackt, aber die SingleKarte allein dies nicht tut. NVidia ist doch nicht total blöd, in jedem Test würde der Stromverbrauch und die unvermeidbare Lautstärke mit einem Fettstift im Fazit markiert sein und Käufer abschrecken. Lieber weniger Leistung und dafür konkurrenzfähige Leistungsaufnahme. Ich versteh so oder so nicht, warum der Chip über 500 mm² groß sein muss. Damit dürfte je nach Leistung der Verkaufspreis wieder im Bereich von 650€ sein. Welcher Käufer mit ein bisschen funktionierendem Verstand kauft sich eine Grafikkarte für 650€, wenn eine HD5850 für 200€ zu haben ist??
4.) Markus91 30.09.2009 - 16:28 Uhr
Hmm,
ich frag mich was das kosten soll....
Aber es hieß doch mal, dass die weit weniger als 300 Watt ziehen soll.
3.) atrox 30.09.2009 - 16:12 Uhr
Das wird wohl so ein Teil wie die 8800 Ultra, die noch 2 Jahre später zu den Top Grafikkarten gehörte :). Aber ob sich das lohnt dafür einen 500mm² Chip zu produzieren ich weiß nicht.
2.) Weiser 30.09.2009 - 16:12 Uhr
Auf PCGH steht was von ner Verlustleistung von 300 Watt und mehr.
@KonKorT: könntest du diesbezüglich mal bitte nachforschen. Auch was es mit dem Speicherinterface auf sich hat würde mich interessieren. Wenn noch eine entsprechende Karte mit 512 Bit nachgereicht wird, hätte diese ja dann auch einiges mehr an ROPs und würde doch einiges mehr leisten können (siehe GTX 285 vs. 275).
1.) SirGollum 30.09.2009 - 16:06 Uhr
Also wieder so ein Monster, da bin ich ja mal sehr gespannt wie der Stromverbrauch dieses "Monsters" ist. Allein von den Rohdaten müsste es einer HD5870 locker das Wasserabgraben aber genaueres kann man halt nur sagen wenn die ersten unabhängigen Tests auftauchen. Auf solch eine Größe hätte ich hingegen auch nicht getippt, ich hätte so eher an 400mm² gedacht. Das GPGPU-Computing im kommen ist weiß man ja aber ob es sich wirklich für Nvidia lohnt dafür solch ein Monster aus dem Hut zuzaubern... ich weiß ja nicht...