Was steckt in Nvidias G92?

NvidiaWenn es darum geht, der Öffentlichkeit Informationen vorzuenthalten, dann ist zur Zeit Nvidia die absolute Referenz: Während Intel über kommende Produkte relativ offen berichtet und von AMD ab und zu doch noch einmal Informationen veröffentlicht werden, versteht es Nvidia gut, über eigene Produkte nur in sich widersprechende "Infohäppchen" erscheinen zu lassen. Neu ist dieses Phänomen beim G92 aber keineswegs: Schon zum G80 war die eventuelle (Nicht-)Unterstützung der Unified-Shader-Architektur ein Thema.

Nun steht bald ein neuer Chip von Nvidia ins Haus: der G92. Und obwohl eine erste Karte auf Basis des G92 noch in diesem Monat erscheinen soll, ist über diesen sehr wenig bekannt. Auf der "Haben-Seite" wäre da als erstes der Produktname der Grafikkarte zu nennen: GeForce 8800 GT. Und auch das Speicherinterface dieser Karte darf mit einer Größe von 256-Bit als bestätigt angesehen werden, jedenfalls gibt es hier keine Informationen, die von anderer Größe sprechen. In den letzten Tagen wurden außerdem Angaben über die Taktraten veröffentlicht, nach denen die GeForce 8800 GT mit 600 MHz Kerntakt, 1500 MHz Shadertakt und 900 MHz Speichertakt ausgeliefert wird. Diese Informationen wurden durch einen heute von VR-Zone veröffentlichten GPU-Z-Screenshot bestätigt. Die Bandbreite der GeForce 8800 GT beträge demnach 57,6 GB/s - einem Wert etwas unterhalb der GeForce 8800 GTS, was die Namensgebung bestätigen würde.

Doch die zuletzt veröffentlichten Informationen zum eigentlichen Kern der Grafikkarte, passen nicht zu dem Namen: Inzwischen wird vielerorts davon ausgegangen, dass der G92 128 Streamprozessoren besitzt und einen Shrink des G80 in 65nm darstellt. Dazu passt auch eine Die-Größe von 289 mm², welche in den letzten Wochen bezüglich des G92 manchmal genannt wurde. Ein vollständiger G92 käme demnach mit den bereits genannten Taktraten fast auf das Niveau einer GeForce 8800 Ultra - er läge zumindest über einer GeForce 8800 GTX, sofern keine Verbesserungen an der Architektur gegenüber dem G80 selbst durchgeführt wurden. Mit acht Clustern auf G84/86-Basis könnte die Performance des reinen Chips sogar über einer GeForce 8800 Ultra liegen - wobei die Grafikkarte dann wohl durch Speichergröße und Bandbreite stark eingeschränkt wäre.

Mit einer Deaktivierung von Einheiten könnte nVidia dem Namen des Chips gerecht werden, und dies scheint zumindest in kleinen Maßen auch geschehen: Nach geleakten Folien kommt die GeForce 8800 GT voraussichtlich mit 7 Clustern aus, statt den vollen 8 Clustern (112- statt 128 Streamprozessoren). Das dürfte zwar die Namensgebung gegenüber dem absoluten High-End rechtfertigen, eine GeForce 8800 GT wäre dann aber immer noch schneller als eine 8800 GTS, auch wenn letztere leicht mehr Speicher und Bandbreite besäße. Hier passt die Information, dass nVidia wohl eine neue GeForce 8800 GTS vorbereitet - eventuell auch auf G92-Basis. Diese könnte dann auch sieben höher getaktete Cluster - oder sogar acht - besitzen, ob sich dann allerdings noch eine GeForce 8800 GTX rechtfertigen ließe, muss abgewartet werden.

Falls dem so ist, stellt sich aber die Frage: Wieso bereitet nVidia keine neue Serie vor, sondern versucht krampfhaft, die 8800er-Serie an den neuen Chip anzupassen? Fehlen etwa über den G92 noch Informationen, die dieses Vorgehen rechtfertigen? Diese Frage wird wohl nur mit fortschreitender Zeit beantwortet werden können. Wir halten Sie auf dem Laufenden.


Kommentar schreiben

  • Loggen Sie sich oben mit ihren Benutzerdaten ein, um Kommentare zu verfassen.
  • Falls Sie noch kein Mitglied sind, können Sie sich in unserem Forum registrieren.

17 Kommentare

17.) Streamline 16.10.2007 - 12:57 Uhr
OK, zur Geforce FX vielleicht ... aber deren Bildqualität war ja gegenüber der Geforce 4 eh ein Debakel...
16.) KonKorT 16.10.2007 - 12:18 Uhr
@ Streamline

Ja, die Bildqualität der GeForce 6 war "gut". Sogar unbeschreiblich viel besser als noch auf der GeForce FX, die man als Referenz nahm. Im Vergleich zur Radeon Xxxx Serie gab es glaube ich keine wesentlichen Unterschiede. Wie KodeX schon schrieb, hat sich dann erst mit der GeForce 7 das Blatt klar zugungsten von ATi gewendet.
15.) Lumi25 16.10.2007 - 09:32 Uhr
Da bin ich doch ehrlich gesagt froh, dass ich nicht zur 8800GTS 320MB gegriffen habe. Der Stromverbrauch der Karte hat mich einfach zu sehr abgeschreckt. Jetzt bin ich mal gespannt was 8800GT und 2950pro so alles auf dem Kasten haben.
14.) Streamline 16.10.2007 - 01:32 Uhr
Die Bildqualität der Geforce 6 war gut? Habe ich anders in Erinnerungsmal ... hatte aber auch nie eine, von daher kann ich selber nichts zu sagen. Muss ich mal an den PC nebenan springen, da ist noch eine 6200 eingebaut, für Bildqualitätsbetrachtungen sollte das ja ausreichen.
13.) KodeX 16.10.2007 - 00:19 Uhr
Die Bildqualität ist da immer so eine Sache. Hmmm, die Radeon 9xxx Serie war da besser als die GeForce FX Serie. Die GeForce 6 Serie war da stärker als die Radeon XX00-Serie. Die Radeon X1X00 Seria war wiederum besser als GeForce 7... ich glaube dass die GeForce 8 Serie ein wenig besser ist als die Radeon HD Serie, habe aber auch schon Vergleichsscreens gesehen, wo man klar gesehen hat, dass die AMD Grafikakrte einfach das bessere Bild hatten (glättere Linien, weniger Treppenbildung)...
12.) Streamline 15.10.2007 - 23:36 Uhr
Es kann aber auch sein, dass das jeweilige Spiel vielleicht gar kein AA unterstützt.
11.) Phenocore 15.10.2007 - 22:53 Uhr
@8) bingomatik
Wenn du Treppchen siehst, dann scheint wohl das vom Spiel ausgewählte AA für dich nicht auszureichen. Genau für diesen Zweck kann man AA und AF direkt für die Grafikkarte und nicht "Anwendungsgesteurt"=Originaleinstellung einstellen.

Du kannst dich nicht über die Grafikkarte beschweren, wenn du nicht ihr Potential ausnutzt. Das AA von "Anwendungsgesteuert" auf z.B.: "x4" zu setzen ist ja jetzt nicht so schwer, oder?

Übrigens, für eine 1600er Auflösung hättest du dir wohl eher die 640MB Version hättest kaufen sollen, die 320MB Version bricht bei dieser Auflösung ein. Es gilt wie üblich: Augen auf beim Grakakauf.
10.) Luk Luk 15.10.2007 - 20:03 Uhr
Ich merk davon eh nichts, da ich ja ein VGA Anschluss an meinem TFT habe :(
Aber der G92 hört sich immer attraktiver an! Scheint ja durch 7 Cluster doch schneller zu sein als eine 8800GTS 640! Ob nVidia eine neue High-End Karte bringen wird, durch den 65nm Shrink ermöglicht?
9.) Sennahos 15.10.2007 - 19:32 Uhr
also seit der 8er serie is ins sachen bildquali. nvidia klar im vorteil.... wenn au nur minimal, es is aber besser, bin auch umgestiegen von der x1000er serie.
8.) Luk Luk 15.10.2007 - 19:23 Uhr
Vielleicht ist ja die GeForce sowas von scharf, dass du immernoch Träppchen sehen kannst, wobei die ATI alles unscharf macht und so auch die Kanten verwischt :D :D :D :D
7.) bingomatik 15.10.2007 - 19:20 Uhr
AA und AF sind bei mir so wie es der Treiber Installiert hat. Das heisst ich habe daran nicht verändert sondern alles so belassen wie es Original ist. Diese Sachen ändere ich NUR in den Spielen. So habe ich es auch mit meiner letzten ATI auch gemacht.
Treppchenbildung in der 1600er auflösung, ZZZzz(was solls).
6.) Phenocore 15.10.2007 - 18:31 Uhr
@6) bingomatik
Du hast wohl vergessen AA und AF bei der GeForce anzumachen.
5.) bingomatik 15.10.2007 - 18:16 Uhr
Kann nur an AMD liegen das Geforce nur Low- und Mid-End Chips auf den Markt bringt, deshalb die Geheimnisskrämerei.

Seit ich von ATI auf Geforce geändert habe viel mir sofort auf das die letztere mehr Treppchenbildung hat und die Bildqualität schlechter ist. Darum werde Ich mir sobald eine gute DX11 Karte auf den Markt sofort wieder auf ATI ändern.
4.) Streamline 15.10.2007 - 18:12 Uhr
Abwarten bringt wohl in jedem Fall etwas, da ja auch AMD mit dem RV670 nachlegen wird.
3.) masterbratak 15.10.2007 - 17:48 Uhr
oje oje, in der geschichte der grafikkarte gab es niemals so viele spekulationen als mit dem g92, glaube ich. bin noch am überlegen obe ich eine 2900pro hole, oder auf den g92 warten soll?
2.) KonKorT 15.10.2007 - 17:02 Uhr
Nene, es kam schon seit Längerem diesbezüglich Gerüchte.
1.) KodeX 15.10.2007 - 16:59 Uhr
Soweit ich weiß, soll die 8800 GT lediglich mit 64 Streamingprozessoren betrieben werde, was auch wesentlich besser zur theoretischen Speicherbandbreite passen würde. Dass jene neue Grafikakrte mit 128 Streamingprozessoren betrieben werden wird, höre ich jetzt zum ersten mal...