GF100: The wait will be well worth it

KOLUMNE » Weiterempfehlen

GF100: The wait will be well worth itDas Warten wird sich Lohnen“. Mit diesen Worten bereitete Nvidia-Sprecher Bryan Dell Rizzo seine Jünger und potentielle Kunden auf eine längere Wartezeit für Fermi vor. Wohl mit dem Hintergrund nicht zu viele Kunden und Endverbraucher an den Erzrivalen AMD zu verlieren. Fermi liefert viele neue Technologien, womöglich aktuell einfach zu viele.

Features wie eine ECC-Fehlerkorrektur für den GDDR5-Speicher sowie hohe Double-Precision-Leistung sind zwar nützlich für Anwendung abseits von Grafikberechnung (Stichwort GPGPU), für den Spieler allerdings schlichtweg uninteressant. Auch die eingekaufte Physik-Initiative PhysX hat mittlerweile wieder an Fahrt verloren und das trotz „Vorzeigespielen“ wie Batman Arkham Asylum. Abseits von diesen Features, welche sich mit AMDs Bemühungen um offene Computing- sowie GPU-Physik-Standards und Eyefinity duellieren, bleiben für die GTX 480 wie GTX 470 etwa 10 bis 15 Prozent mehr Gaming-Leistung gegenüber AMDs HD 5870 respektive HD 5850. Unter DirectX 11 sieht die grüne Welt aktuell zwar besser aus, mangels langsamer Verbreitung spielt letzteres allerdings weiterhin eine eher untergeordnete Rolle.

Doch warum diese Kolumne? Ich möchte Ihnen hier einige neue Fakten rund um die Fermi-Generation erzählen und aus meiner Sicht in einem stimmigen Zusammenhang zeigen. Sozusagen ein verbales Gesamtbild hervorbringen. Denn so viel sei bereits vorab verraten: Es gibt rund um Fermi einige Dinge, die den meisten von Ihnen wohl noch nicht bekannt sind. Beginnen wir also recht weit vorne.

Bereits im September letzten Jahres berichteten wir unter dem Titel Schlechte Yield-Raten bei GT300-Samples? über (damals) angebliche Probleme Nvidias mit den ersten Fermi-Chips. Vorsichtig brachten wir bereits die Möglichkeit ins Spiel, dass ein Fermi-Launch im ersten Quartal 2010 gefährdet sein könnte. Ob die Zahlen von lediglich sieben funktionsfähigen DIEs (Yield ~1,7 Prozent) korrekt waren oder nicht, werden wir wohl nie erfahren. Angesichts des frühen Produkt-Stadiums sowie der Tatsache, dass es bis heute keine Fermi-basierte Grafikkarte mit den vollen 512 Shadereinheiten gibt, schwingt aber immer noch ein Fünkchen Wahrheit mit. Anscheinend hat man bei Nvidia schlichtweg TSMCs Probleme mit dem 40 nm-Prozess unterschätzt – oder anders gesagt die Erkenntnis kam wohl zu spät. Spätestens als bekannt wurde, dass Nvidia den GT212 gestrichen hatte, wurde langsam deutlich, dass der 40 nm-Prozess wohl noch zu schwer zu beherrschen war, um komplexe Designs zu fertigen. Denn der GT212 wäre im Vergleich zum RV740 (HD 4770) sowie GT215/216/218 extrem groß geworden. Letzte Spekulationen sprachen von 384 Shadereinheiten mit einem 256 Bit GDDR5-Speicherinterface.
Im Nachhinein stellt sich die Frage, ob es nicht besser gewesen wäre, den GT212 fertig zu entwickeln, Fermi ein komplettes Jahr zu verschieben und die gewonnen Erkenntnisse aus dem GT212 für Fermi zu nutzen. Zwar wäre der GT212 wohl nicht so performant wie der GF100 geworden, mit sehr hoher Wahrscheinlichkeit aber effizienter zu fertigen sowie höher zu takten als der Fermi jetzt. Aber wie heißt es so schön: Im Nachhinein ist man immer schlauer. Hoffen wir, dass dies auch auf Nvidias Firmenspitze zutrifft.

Nvidia Tesla-Karte (Fermi-Architektur)

Am 1. Oktober 2009 torpedierte letztere AMDs HD 5000 (Paper-)Launch mit der Ankündigung Fermis, zumindest probierte man das Feld nicht gänzlich AMDs Evergreens zu überlassen. Dazu präsentierte Nvidia-CEO Jens-Hsun Huang persönlich die erste Fermi-Karte den Journalisten. Wie sich schnell herausstellte, war die Karte allerdings nur ein Dummy mit zurecht gesägtem PCB. Damals war auch noch die Rede von einem möglichem Launch zu Weihnachten. Hätte Nvidia einen Großteil der Probleme mit dem A2-Stepping beseitigen können, wäre dies wohl sogar möglich gewesen. Heute wissen wir, dass erst das A3-Stepping den gewünschten Erfolg brachte. Mehr oder minder zumindest.

Wirklich interessant wurde es allerdings erst etwa fünf Tage später, als Nvidia über die Flexibilität des Fermi sprach. Von „Einheiten deaktivieren“ bis zu speziellen Designs für den Gamer-Markt war die Rede. Auch die gute Skalierbarkeit der Fermi-Architektur wurde angepriesen, wodurch sich schnell kleine „Designs“ herstellen ließen. Ab etwa hier beginnt der wirklich interessante Teil der Story. Denn wirklich viel Spannendes ist rund um den „großen“ Fermi nicht mehr passiert. Abgesehen von Horrormeldungen, vielen Versprechungen ala „Befindet sich seit xyz in Massenproduktion“ und „ist spätestens ab xyz verfügbar“ sowie dem Bekanntwerden der Spezifikationen (keine Karte mit allen 512 SPs), gab es nicht mehr viel vor dem "echten" GF100-Launch zu berichten.

Zotac GeForce GTX 480

Von den kleinen Fermi-Designs fehlt bis heute jede Spur. Zugegeben, erst im Februar bestätigte Nvidia überhaupt, dass es solche Karten geben wird und kündigte (inoffiziell) diese auch erst für Mitte dieses Jahres an. Ein etwas ungutes Gefühl bleibt allerdings, denn auf der Computex gab es bis auf die GTX 465 (GF100-Verschnitt) keine neuen Nvidia-Grafikkarten zu bestaunen, noch nicht einem wurden offiziell kleinere Ableger angekündigt. In nächster Zeit bleibt somit nur noch die E3 als passendes Release-Event, denn für gewöhnlich ist die Einführung der Mittelklasse das beste Geschäft (hohe Stückzahlen sowie Margen) und wird dementsprechend nicht minderwichtig zelebriert.
Neben den großen Verzögerungen beim Ur-Design GF100 kann allerdings auch noch ein weiterer Faktor für die Verzögerung verantwortlich sein. Und dies sind die Restbestände an GT215/216/218-Grafikkarten, auf welchen man durch den Launch einer neuen Generation Gefahr läuft, sitzen zu bleiben. Im Foundry-Bereich ist es üblich den Bedarf an Fertigungskapazitäten früh zu melden. Wie ich aus Nvidia- sowie AMD-Boardpartner-Quellen zu hören bekam, sind die von Nvidia, sozusagen, reservierten 40 nm-Fertigungskapazitäten um einiges höher als jene von AMD. Diese wurden wohl unter der Annahme getroffen, dass der GF100 früher die Produktionsreife erreicht. Als letzterer sich allerdings weiter verzögerte, mussten die Kapazitäten entsprechend genutzt werden. Und die einzigen 40 nm-Designs von Nvidia waren zu diesem Zeitpunkt nun mal die GT21x-Derivate, welche aufgrund der verhältnismäßig kleinen DIE-Größe in hoher Stückzahl produziert wurden und wahrscheinlich noch werden.

Dies erklärt auch die Geschäftspraktiken beim Verkauf von GTX 400-Karten. Wie der österreichische Online-Shop hi-tech.at berichtete, müssen meist je GTX 480 20, je GTX 470 10 „kleinere“ Karten mit erworben werden. Für große OEMs ist dies nicht weiter problematisch, gerade für kleinere Computershops kann dies allerdings zum Problem werden. Für Nvidia ist der Nutzen klar. Die Nachfrage an GTX 400-Karten ist – auch mangels geringer Verfügbarkeit – groß und die kleinen Modelle lassen sich über die „Zwangskopplung“ leichter aus dem Lager bekommen. So müssen wir uns vielleicht noch ein paar Wochen länger gedulden, bis Nvidias Mittelklasse endlich den Weg in die Läden findet.

AMDs 11 Millionen DirectX11-Beschleuniger

Bis dahin hat die Konkurrenz bereits mehr als elf Millionen DirectX 11-Grafikchips abgesetzt – und dies mit stark steigender Tendenz. Ende Dezember verkündete AMD insgesamt 800.000 ausgelieferte Cypress- sowie Juniper-Dies (300.000 zu 500.000), Mitte April bereits sechs und Ende Mai bereits mehr als elf Millionen DirectX 11-fähiger Dies – aufgeteilt auf mittlerweile 20 Grafikprodukte aus dem Desktop- und Mobile-Markt.

Nvidia hingegen fristet mit Blick auf Marktanteilen bei DirectX 11-Beschleunigern bisher eher ein Schattendasein. Zur Verteidigung muss gesagt werden, dass große Architektur-Verbesserungen – denn weniger, aber vor allem mehr ist Fermi nicht, entgegen hartnäckigem „Alles-Neu-Fanboy-Gerede“ in vielen Foren – oft zu Problemen führen. Dies musste beispielsweise auch AMD beim R600 sowie K10 feststellen; neue Designs mit neuen Fertigungsprozessen und vor allem große Dies sind nicht rentabel. Und auch Intel hat wohl aus dem Larrabee seine Lehren gezogen. Das eine anfangs „verkorkst“ wirkende Architektur noch zu spätem Glanz kommen kann, hat wiederum AMD mit der R700- sowie R800-Generation bewiesen. Alle Hoffnung ist also noch nicht verloren.

Naja, was für Nvidia bleibt sind Reviews, bei denen die teils immens hohe Leistungsaufnahme und damit verbundene Lärm- sowie Temperaturentwicklung der Fermi-Karten bemängelt wird. In Foren sind Liebkosungen ala Thermi, Grillforce sowie „Föhn 2.0“ an der Tagesordnung. Denn für viele stellt sich nach dem missglückten Start nun die Frage: War es Fermi Wert, zu warten? Sagen Sie mir Ihre Meinung im Kommentar-Bereich.

Kommentar schreiben

  • Loggen Sie sich oben mit ihren Benutzerdaten ein, um Kommentare zu verfassen.
  • Falls Sie noch kein Mitglied sind, können Sie sich in unserem Forum registrieren.

12 Kommentare

12.) Elandur 08.06.2010 - 14:54 Uhr
Tja, tolle Kolumne. Sie beschreibt ziemlich viel die vergangenen, aktuellen und zukünftigen Probleme die aber die Wissenden sich auch schon gedacht haben.

Ich bin ja auch der Meinung, dass die Architektur noch viel Potenzial hat und wenn die Fertigung optimal läuft, sind vielleicht alle Karten so gut wie bei der Zotac GeForce GTX 470 AMP! - denn so hätte ich mir eher eine Fermi gewünscht: Etwas besser und dazu noch eine niedrigere Leistungsaufnahme als eine normale GTX470. Die höhere Leistungsaufnahme im Gegensatz zur 5000er Serie wird als Negativ-Punkt mit den besonderen GPU Computing Funktionen aufgehoben. :)

Und meiner Meinung nach, lässt sich durch diesen Punkt NVidias großen Fehler ja ordentlich aufzeigen:

Quote:
Zwar wäre der GT212 wohl nicht so performant wie der GF100 geworden, mit sehr hoher Wahrscheinlichkeit aber effizienter zu fertigen sowie höher zu takten als der Fermi jetzt. Aber wie heißt es so schön: Im Nachhinein ist man immer schlauer. Hoffen wir, dass dies auch auf Nvidias Firmenspitze zutrifft.


Wenn man es richtig gemacht hätte, wäre man sowieso nicht an einem High-End 200er Chip in 40nm vorbei gekommen oder eben die alte Architektur mit DX11 überarbeiten, in 40nm fertigen und sich damit auf Fermi vorbereiten. NVidia hat sich mit ihren Ziel übernommen: Neue Architektur und direkt anderes Fertigungsverfahren und trotz 40nm eine so riesige Chipfläche. Die haben auch noch nicht mal 40nm richtig ausprobiert. Man könnte sagen, die haben mitunter alles falsch gemacht. :?

NVidia hat GPU Computing angepeilt und man sieht ja schon bei den Benchmarks, dass Fermie auch im Vorteil ist. Als Spieler profitiert man daran aber noch recht wenig - da es erst wenige DX11 Titel gibt die die Funktionen richtig ausnutzen - und die Firmen bekommen wahrscheinlich nicht genug Karten weil die Chips durch die vielen Probleme nicht in ausreichenden Mengen produziert werden können. Deshalb hätten die eher klein Anfangen sollen.
Die Entwicklung an Fermi hätte wegen weniger Kapazitäten zwar länger gedauert, aber am Ende hätte man die gewonnenen Erfahrungen und die mehr Zeit positiv einsetzen können um ein ausgereiftes Produkt anbieten zu können. ;)

Die Ironie der ganzen Sache ist, dass AMD diesen Schritt gegangen ist und bald auch schon den Nachfolger der 5000er Serie raus bringt obwohl sie noch gar nicht so alt - wenn auch ein bisschen Abgespeckt im Form eines Hybrides. Die 400er Serie dagegen von NVidia ist noch nicht mal in allen Leistungsklassen verfügbar.
11.) LoRDxRaVeN 08.06.2010 - 14:44 Uhr
Daedalus:
Die verkaufen ihre Fire-Karten wie warme Semmeln und haben dazu noch bei den Hybriden Clustern ordentlich zugelegt.


Das hört sich äußerst interessant an. Gibt es dazu auch irgendwelche weiterführenden Information bzw. Links/Quellen?
10.) core 08.06.2010 - 10:50 Uhr
Ob sich das Warten gelohnt hat? Naja für alle die auf die potenteste Single-GPU-GraKa mit spitzen Performance im DX11 Berich gehofft haben wohl schon. Leider wird sich diese Leistung halt teuer, laut und heiß erkauft. Jeder muss selbst entscheiden, inwiefern das für ihn in ordnung geht. Mein "Grünes Gewissen" und meine diesjährige Nachzahlung sagen NEIN!
Das es auch anders geht zeigt ATI, die wie ich finde zum angemessenen Preis eine absolute Gamerkarte,ohne GPGPU schnick schnack,den eh kein Gamer braucht, an den Start gebracht haben.
Schade ist mmn nur, dass Cypress und Co nicht mit der Tesselations-Leistung mithalten kann.

Das der GF100 Potential hat steht wohl außer Frage.Bleibt zu hoffen das NV diesen "Thermi" noch in den Griff bekommt...
9.) Luk Luk 08.06.2010 - 10:32 Uhr
Das ist Hardware-Infos, eine sachliche und nette Community ;)
8.) N1truX 08.06.2010 - 10:22 Uhr
THX für die bisherigen Kommentare. Genau deshalb macht es mir Spaß hier auf HWI solche Artikel zu veröffentlichen. Man kann provokante Themen anstoßen und das ohne zu befürchten, gleich einen verbalen Kleinkrieg auszulösen. Stattdessen kann man eine sachliche Diskussion mitverfolgen - Einfach toll.

Macht weiter so Leute :)
7.) elwood_b 08.06.2010 - 09:58 Uhr
Der neue Prozessor ist momentan sicher kein tolles Produkt. Ich finde aber, daß man den Chip doch nicht unterschätzen sollte. Die haben jetzt vorgebaut für zukünftige Anforderungen. Und von dem her meine ich, daß das Konzept des Chips einfach ein wenig zu früh dran war, und seine Stärken nicht richtig ausspielen kann.
Man merkt ja jetzt schon, daß der ATi-Chip bei aktuellen Sachen (DX11, GPGPU) an seine Grenzen stösst. Wenn mal GPGPU stärker an Gewicht gewinnt, dann wird auch der Fermi besser aussehen als der aktuelle ATi-Chip.
Bleibt abzuwarten, ob ATi im nächsten Design die "Mängel" des alten ausbessern kann, und wie's dann aussieht. Momentan 1:0,5 für ATi, würde ich mal sagen...

Abgesehen davon: Die Lestungsaufnahme und Wärmeentwicklung des nVidia-Teils sind inakzeptabel, und der ATi-Chip ist auch irgendwie nicht mehr ganz aktuell und auf der Höhe der Zeit und könnte mehr können, als er kann.
6.) Daedalus 08.06.2010 - 09:51 Uhr
@eXEC Natürlich ist Fermi größer als Cypress. Dafür umfasst Fermi um einiges mehr Funktionseinheiten als Cypress (Fehlerkorrektur, C Interpreter etc) die für Zocker uninteressant sind. Wenn die Verlustleistung nicht so schrecklich wäre ist der Chip ein Riesenwurf. Insofern kann ich dem Author nur Recht geben: Potential für die nächsten Generationen gibt es genug.

Und was die Preise von Fermi und Cypress anbelangt: wenn Fermi super funktionieren würde wäre die ATI genau so teuer wie heute, da nVIDIA jeden Chip im Profibereich versenken würde. Da braucht man sich nichts vormachen.

Ansonsten würde ich nVIDIA nicht so stark kritisieren. Sie haben mit hohem Einsatz gespielt und durch TSMC hoch verloren. Aber sie konnten nicht anders.

Begründung: http://www.hardware-infos.com/kolumnen.php?kolumne=16
5.) eXEC 08.06.2010 - 00:44 Uhr
Der eigentliche Hammer ist ja, dass AMDs Cypress längst nicht am Limit läuft. AMD hat auf dem PCB sogar Lötstellen für einen 8pin und einen 6pin vorgesehen, nur sind zwei der Kontakte eben brach. Eine HD5890 war ziemlich sicher ein Planprodukt, sollte NVidias Generation zu schnell sein. Mit einer höheren Leistungsaufnahme könnte eine HD5870 mit 1Ghz Chiptakt ausgestattet werden und wäre damit einer GTX-480 vollkommen ebenbürtig (Außer bei der Tesselation, hier ist architekturbedingt die NV uneinholbar) - Bei Wohlgemerkt 1/3 kleinerer Fläche.
4.) Homie 07.06.2010 - 20:43 Uhr
Aufgrund der hohen Fertigungskosten bzw. geringen Yield-Raten des Fermi hat Nvidia im Gegensatz zu ATi offensichtlich deutlich weniger Spielraum mit ihren Preisen. Und da der Cypress zudem praktisch ebenbürtig zum G100 ist, hat es ATI nicht nötig ihre Preise zu senken.
Insofern ist es für den Endverbraucher natürlich unvorteilhaft, da die aktuellen Highendkarten wahrscheinlich nicht vor dem nächsten Generationswechsel das Preisniveau der beiden letzten Chips von ATI und Nvidia erreichen werden.
3.) Luk Luk 07.06.2010 - 20:10 Uhr
Ich finde, dass der Fermi, ähnlich wie damals die HD 2000 Serie von ATi eine Fehlkonstruktion ist. So langsam aber sicher überschreiten die Grafikkarten das Leistungsaufnahmelimit für die gebotene Rechenleistung. Weiter so ATI, die empfehle ich in letzter Zeit immer weiter.
2.) Daedalus 07.06.2010 - 18:16 Uhr
Es ist sogar noch viel schlimmer für nVidia. Mit CUDA haben sie das GPGPU gepuscht ohne Ende. Jetzt könnten sie die Lorbeeren ernten, aber da vergeigen sie die Fertigung als auch die Performance / Watt-Rate. Damit setzt sich ATI ins gemachte Nest. Die verkaufen ihre Fire-Karten wie warme Semmeln und haben dazu noch bei den Hybriden Clustern ordentlich zugelegt.
1.) eXEC 07.06.2010 - 17:28 Uhr
GF100 ist schlichtweg FAIL.
Und zwar ein richtig bitterer Fail für alle, außer AMD. Der Kunde ist auch der gearschte, er darf nun für eine schnelle HD5870 satte 350€ bezahlen - Bei guter Konkurrenz gäbs die Karte wohl für etwa 200€...