Nvidia und der Griff nach den Sternen

NvidiaNachdem wir kürzlich über AMD und deren Umgang mit OpenCL berichtet hatten, scheint es
angebracht, auch Nvidias Bemühungen in dieser Richtung genauer unter die Lupe zu nehmen. Nvidia zeigt schon länger sehr offen, dass man in GPGPU-Anwendungen eine der großen oder vielleicht größten Chancen für die Zukunft sieht.
Nach der gestrigen Ankündigung des GF100/GT300, der nun allgemein als Fermi bezeichnet wird, zeichnet sich noch wesentlich deutlicher als bei vorherigen Generationen ab, dass Nvidia neue
Marktsegmente erobern möchte. Im Fokus: HPC-Systeme (High Performance Computing).

Die Fermi-Architektur ist speziell darauf zugeschnitten, die Karte im professionellen Umfeld einzusetzen. So werden nun hierarchische Cache-Strukturen, wie man sie eigentlich eher von CPUs gewohnt ist, genauso verbaut wie Speichercontroller, die mit ECC-Speicher umgehen können - ebenfalls eher aus dem Server-Umfeld bekannt. Zudem werden umfangreiche Code-Standards unterstützt. Am wichtigsten für eine gute Aufnahme der Karten im Serverumfeld ist aber wohl die native Codeausführung von C++, weshalb nun von cGPU die Rede ist. Ferner die Unterstützung des IEEE 754-2008-Standards für die Darstellung von Gleitkommazahlen.

Gleich nach der Präsentation wurde bekannt, dass das Oak Ridge National Laboratory einen Supercomputer auf Basis des neuen Nvidia-Beschleunigers bauen will, der mehr als die 6-fache Leistung des bisherigen Top-Rechners der Welt erreichen soll (Jaguar: 1,5 Petaflops; Fermi-Supercomputer: > 10 Petaflops). Dabei darf man davon ausgehen, dass der Stromverbrauch gleichzeitig erheblich niedriger ausfallen wird. Bei
einigen Berechnungen zeigt sich, dass Fermi etwa 30-mal so effizient rechnet wie aktuelle CPUs - dieser Wert ist sicherlich ein grober Wert, der stark von den verwendeten CPUs abhängt und gleichzeitig sicherlich den Optimalfall darstellt.

Aber die Präsentation hatte auch Schattenseiten, denn man muss feststellen: Für Spieler scheint sich Nvidia momentan erstmal reichlich wenig zu interessieren. Die ganze Präsentation beschäftigte sich mit Double-Precision-Leistung, High Performance Computing, IEEE-Standardkram etc. Für viele Gamer nicht umsonst böhmische Dörfer, was primär zwei Fragen aufwirft: Wie wird Fermi im Spielebereich und wieviel wird so eine Monsterkarte an Strom verbrauchen?

Man darf davon ausgehen, dass die Karte eine sehr hohe Spieleleistung hat, was sich allein schon aus der Verdoppelung der Ausführungseinheiten im Vergleich zum GT200 ergibt. Allerdings würde eine eins-zu-eins Umsetzung der jetzt präsentierten Karte für Spielezwecke wohl ziemlich viel Ballast mitschleppen, der dem heutigen Spieler kaum nützt. Cache-Hierarchie und ECC-Speicher sind eben einfach für Spieler momentan kaum interessant und teils teuer erkauft. Die Cache-Hierarchie und -Kohärenz erinnert übrigens an die Ankündigungen von Intel mit ihrer Larrabee-Karte. Nvidia sagt nun deutlich, dass auch Raytracing eine mögliche Anwendung für den Fermi ist. Die Möglichkeit, mehrere Kernel parallel auszuführen, ist hingegen bereits eine Forderung von DirectX 11, DirectCompute und OpenCL. Dementsprechend können dies auch AMDs neue DirectX 11-Grafikkarten.

Nvidia hat mit Fermi offenbar ein recht modulares Design geschaffen, das es erlaubt, auch kleinere Versionen der Karte zu fertigen. Dies ist wichtig, weil man mit einem einzelnen, derart großen Die unmöglich den Desktopmarkt abdecken kann. Gleichzeitig dürften abgespeckte Versionen aber noch genug Leistung für aktuelle und zukünftige Spiele haben und wären gleichzeitig deutlich günstiger zu produzieren.
Nvidias primäres Problem ist das Zeitfenster. ATI hat seine großen DirectX 11-Karten schon am Markt und wird gerüchteweise bald auch die ganz großen (alias Hemlock oder HD 5870 X2) und kleineren Versionen (alias Juniper oder HD 5750/5770) nachschieben. Damit hätte ATI das komplette Marktsegment mit DirectX 11-fähigen Karten abgedeckt.
Nvidia muss zusehen, dass man den Gamer-Bereich nicht vernachlässigt, der zwar geringere Margen verspricht, dafür aber einen großen Absatzmarkt. Man sollte nämlich nicht vergessen: Die hohe Leistung der Grafikkarten heutzutage verdankt sich primär den Spielern, die in den letzten Jahren bereitwillig immer neue und immer schnellere Karten in großen Stückzahlen gekauft haben und so die Entwicklung mit vorangebracht und gleichzeitig rentabel gemacht haben! Verliert man die Spieler aus den Augen, dann verliert man einen breiten Absatzmarkt für seine Chips. Aber Nvidia weiß offensichtlich sehr genau, wie man sich auf diesem schmalen Pfad bewegt.
Man wird auch deshalb nicht zu viel von der Spiele-Performance preisgeben wollen, weil sonst ATI sehr viel Zeit hätte, darauf zu reagieren und der Vorteil der Überraschung ist im Grafikkartengeschäft nicht zu überschätzen (Siehe den RV770-Launch, wo ATI Nvidia kalt erwischt hatte). Aber durch die Präsentation gestern hat man sicher bei einigen Hoffnungen geweckt, die auch dafür sorgen, dass die Radeon-Karten wieder aus dem Warenkorb geflogen sind. Mission erfüllt! (Frei nach dem Motto: Jetzt wissen wir zwar immer noch nicht viel mehr, aber wir sind zumindest schonmal gespannt).

Die Leistungsaufnahme wird wahrscheinlich niedriger ausfallen, als von vielen zurzeit angenommen wird. Bei der Präsentation hielt Jen-Hsung Huang eine Fermi-Karte in die Kameras und dabei zeigte sich, dass ein 8 sowie 6-Pin Stecker der Stromversorgung dient. Theoretisch sollte die Karte damit im 225 bis 300 Watt-TDP-Rahmen liegen, allerdings liegen uns Informationen vor, wonach die Leistungsaufnahme der späteren Desktop-Karte in etwa auf GTX 285-Niveau liegen soll.
An dieser Stelle ist es vielleicht auch nicht unangebracht, zu erwähnen, dass AMDs HD 5870 bei ihrer Erstsichtung ebenfalls noch über einen 8- sowie 6-Pin-Stecker verfügte; in den Handel hat sie es bekanntermaßen mit zwei 6-Pin-Stromsteckern und 188 Watt TDP geschafft.

Mindestens bis Jahresende soll es dauern, bis die Karten verfügbar sind und frühestens dann zeigt sich, ob Nvidia die hohen Erwartungen auch erfüllen konnte.


Kommentar schreiben

  • Loggen Sie sich oben mit ihren Benutzerdaten ein, um Kommentare zu verfassen.
  • Falls Sie noch kein Mitglied sind, können Sie sich in unserem Forum registrieren.

9 Kommentare

9.) KiTT 02.10.2009 - 16:10 Uhr
Mensch, Lucid Hydra! Ich pack all meine alten Grakas rein, die ich noch rumliegen hab - da schaff ich selbst nen Fermi :p.
Der Fermi wird rattenschnell werden, da zweifel ich garnicht. Meine Vermutung ist, dass nVidia gerade soviel Wind um die Tesla Karte macht um gratis PR zu bekommen. Die ganze Fachpresse spricht eben nur von GPGPU bzw HPC, da nVidia gerade diese Infos freistellt. Jetzt weiß selbst der Unbelesenste von nVidias neuen Marktplänen. In ner Woche wird es heissen, dass die Gamervarianten ohne ECC, usw daherkommen. Die Leistung wird (meiner Einschätzung nach) auf gewohntem Niveau liegen. Schneller als der Hemlock wird sie sicher nicht - brauchts aber auch nicht. Beide fertigen bei TSMC im selben Verfahren. Falls das mit der Modulierung stimmt, werden sicher auch die Preise interessant werden. Laut anandtech sagte nVidia, dass so ein Preisgestaltungsfehler wie mit GT200 nicht nocheinmal passieren werde, man habe daraus gelernt. Ergo glaube ich an funktionierende, leichte, Gamervarianten. Persöhnlich bin ich eher ATI zugeneigt, doch sehe ich nVidia noch im Rennen. Doch wirds Zeit, dass sie zu Potte kommen.
8.) w0mbat 01.10.2009 - 16:51 Uhr
Ich glaube nicht, dass Fermi der Überflieger in Sachen 3D-Grafik wird den hier einige erwarten. Schneller als Cypress schon, aber in bezweifle dass man hier mehr als +50% sehen wird.
7.) Ares-06 01.10.2009 - 16:19 Uhr
@Duplex
ganz einfach ^^ ich bin bereit für ne "GF300" 400-500 € zu geben aber!!! im gegenzug muss es für mind 3 bis eher 5 jahre reichen und vor allem in spielen...xD wollte mir im weinachten nen komplett neuen pc holen... denn die ATI MOBILITY radeon x600 und ne intel pentium 4 630 reicht logischer weiße nicht mehr omq ( crysis- 800x600 alles low krasse 18bilder xD, das nen ich spasss )

die gerüchte das die "GT300" (noch damals) so um die 100~120% schneller sei ist gestorben ^^ naja abwarten...
6.) isigrim 01.10.2009 - 14:43 Uhr
@Ares
man darf nicht vergessen, dass GDDR5 verbaut wird, im Gegensatz zu GDDR3 beim GT200. Von daher kommt geht da schon einiges mehr durch.

@Duplex
So, ist geändert, der link sollte gehen.
Das mit dem Vergleich mit GF-100 gegen 5870 X2 muss man einfach noch abwarten, da sind zu viele Unbekannte im Spiel.

@wombat
Der Cypress ist IEEE 754-2008 kompatibel, siehe post vor mir. edit: Ich war zu spät ;)

Ergänzung: Wegen des Supercomputers meldet Heise übrigens etwas anderes als Bright Side of News, nämlich, dass sogar Exaflops Leistung angepeilt sei, aber noch keine konkreten Planungen vorliegen. Die offizielle Pressemitteliung spricht allerdings konkret von Plänen und auch von der 10fachen Leistung des aktuell schnellsten Systems, das wie oben erwähnt 1.5 Petaflops liefert. (Man darf sich noch streiten ob der Roadrunner schneller ist als der Jaguar ;)) Aufgabengebiet des neuen Supercomputers sollen demnach z.B. Energieforschung und Klimaveränderung sein.
5.) Phenocore 01.10.2009 - 14:43 Uhr
w0mbat:
Ist Cypress nicht auch IEEE 754-2008 kompatibel? Ich meine AMD hat ihm auch größere Cache-Stufen verpasst und gut DP-Werte.


Ja, Cypress ist auch IEEE 754-2008 Kompatibel: http://www.hardwareluxx.de/images/stori ... tec_07.jpg

Ja, Cypress hat auch gute DP-Leistung und kann Fused Multiple Add: http://www.hardwareluxx.de/images/stori ... tec_04.jpg

Ja, Cypress hat auch größere Caches: http://www.hardwareluxx.de/images/stori ... tec_05.jpg

Nein, Cypress hat keine Koherenz zwischen den Caches und die Cachehirarchie ist anders.
4.) Duplex 01.10.2009 - 14:38 Uhr
der "supercomputer" link geht nicht , da kommt "bad request"


zur karte, kann es sein das diese geschrumpft ist auf 24-26cm ? die scheint doch recht kleiner als die alten mit ihren 28cm ?

schade jedoch das die verkleidung der Teslas so schick ist und net die fürn desktop =D

@Ares-06

warum enttäuscht , wir wissen alle nicht wo die grafikkarte stehn wird , und wo der unterschied zwischen 512bit und 384bit in performance liegt , da nvidia das kurzfristig geändert hat , nehm ich an das die die latenzen verbessert haben und wohl sachen gefunden haben wo sie selbst nicht geahnt haben wo ein 512bit SI einfach oversized ist


und der GF-100 sollte nie gegen der 5870X2 bestehn den diese wird eig fast sicher schneller , er sollte nur 20-30% langsammer sein , dann würden nemlich viele ehr die Geforce nehmen als die AMD...
3.) w0mbat 01.10.2009 - 14:29 Uhr
Ist Cypress nicht auch IEEE 754-2008 kompatibel? Ich meine AMD hat ihm auch größere Cache-Stufen verpasst und gut DP-Werte.
2.) Ares-06 01.10.2009 - 13:45 Uhr
ich bin mal enteuscht von den 384bit, hatte gehofft das es 512 wären...
ich nehm mal an das die "GF100" jetzt keine chance gegen die 5870x2 haben wird... auserdem wann oder wierds über haubt eine 512bit version kommen ??? wollte mir die grakka kaufen jetzt schankt es
1.) CaptainCosmotic 01.10.2009 - 13:05 Uhr
Sollte Nvidia nicht in den nächsten zwei Wochen erste Karten für Benchmarks rausgeben, dann wird das nichts mehr mit diesem Jahr denke ich. Nur so könnten die Käufer auf Wartestellung hingehalten werden. Irgendwie habe ich das Gefühl, dass ATI weit vorne lieg mit Gaming Karten. Gerade wei diese quasi nur zum zocken entwickelt wurden. (Ich klinge ja fast wie ein Fanboy)