Nvidia Geforce GX2 mit zwei GT200b-Chips?

NvidiaAMDs Dual-Karte HD 4870 X2 hat Nvidia die Performancekrone gekostet. Fortan stellt die schnellste Grafiklösung AMD. Dass dies der Truppe rund um Jen-Hsun Huang ein Dorn im Auge ist, dürfte klar sein. Deswegen werden die Spekulationen um eine Nvidia-Dual-Lösung auch immer lauter. Nähren tun diese Gerüchte nun sogar die Verantwortlichen selbst. In einer Nachbesprechung zu den schwachen Quartalszahlen wurde Huang wie folgt zitiert:

"So you just have to take it case by case and - but we think our approach is the right approach. The best approach is to do both. If we could offer a single chip solution at $399, it certainly doesn’t preclude us from building a two-chip solution at something higher. So I think that having the right price, right product at each price point and the best-performing product at each price point is the most important thing."

Dieses Zitat impliziert, dass Nvidia einer Dual-Lösung, selbst wenn ein einzelner Chip 399 US-Dollar kostet - dies ist zurzeit bei der GTX 280 der Fall -, nicht prinzipiell abgeneigt ist, im Gegenteil: Diese sogar befürwortet, wenn es den richtigen Preis und das richtige Produkt gibt.
Dass Nvidia den GT200 doppelt, darf ausgeschlossen werden. Bereits ein Chip misst 576 mm². Wenn Nvidia in absehbarer Zeit doppelt, so auf jedenfall mit dem GT200b, der durch den 55 nm-Herstellungsprozess die Chipgröße auf rund 470 mm² verkleinern soll. Ein komplexes PCB mit sechzehn Speicherbausteinen, ein 512 Bit-Speicherinterface sowie 32 ROPs bleiben jedoch. Kurzum: Knapp 1,5 Millarden Transistoren zu doppeln, ist kein leichtes Unterfangen.

Blickt man auf die vergangene Grafikkartengeneration zurück, so hat Nvidia eine Dual-Lösung auch erst mit dem Performance-Chip G92 realisiert. Fairerweise sollte man ergänzen, dass man damals nicht so sehr unter Zugzwang stand wie heute. Dennoch: Ein doppelter G80 hätte die kalifornischen Ingenieure womöglich überfordert.

Mit dem Nvidia GT200b, einem reinrassigen High-End-Chip, sieht es da nicht anders aus. Wir vermuten daher eher, dass Nvidia mittelfristig seinen ersten, in 55 nm-gefertigten Performance-Chip doppeln wird. Dies könnte eine Grafiklösung bestehend aus 192 Shader-, 64 Textur- und 16 Rastereinheiten (256 Bit, GDDR5) sein. Gepackt auf unter 400 mm² pro Chip, könnte man der HD 4870 X2 sicherlich die Stirn zeigen. Da eine solche Chiplösung jedoch auch Änderungen am Chip selber bedarf, ist mit dieser frühestens Ende dieses Jahres, wohl eher Anfang nächsten Jahres, zu rechnen.

Die Frage, die sich am Ende dieser News stellt, ist, ob Nvidia bereits jetzt die Brechstange herausholen will: Mit Biegen und Brechen wird man den GT200b schon doppeln können. Ob der Kunde daran jedoch letztendlich Freude haben wird oder Nvidia dann nur wieder behaupten kann, die schnellste Grafikkarte im eigenen Portfolio zu haben, ist eine andere Frage. Die zweite Lösung, mit einem gedoppelten Performance-Chip die Performancekrone zurückzuerobern, ist sicherlich eleganter und sinniger, jedoch bringt diese das Problem mit sich, dass man bis zum Ende dieses Jahres hinter AMD rangieren würde.


Kommentar schreiben

  • Loggen Sie sich oben mit ihren Benutzerdaten ein, um Kommentare zu verfassen.
  • Falls Sie noch kein Mitglied sind, können Sie sich in unserem Forum registrieren.

15 Kommentare

15.) Smok66 24.08.2008 - 21:55 Uhr
Bei ner Graka muss die leistung stimmen und dann der Preis wenn sie zu laut oder zu heiß is baut man halt nen anderen Kühler drauf.
14.) Duplex 19.08.2008 - 12:10 Uhr
die X2 ist auch noch mal ne länge lauter als 4870/GTX280

die 4870 hat den selben kühler der 2900XT und der war alles andere als leise

der vom GTX280 ist auch nicht ganz ohne...
13.) Maulwurf 19.08.2008 - 02:37 Uhr
Also als ich letzten beim Pc fritzen war wollte einer ne 4870 wieder umtauschen er meinte das ding is lauter als mein Föhn da muss doch was kaputt sein. Und da die X2 noch lauter is ^^ Aber Leute nach kurzer zeit hört man das doch nich mehr ^^ ;) spaß
12.) Duplex 15.08.2008 - 11:54 Uhr
der GT-200 ist auch weniger auf dual variante getrimmt sondern ehr auf GPGPU und das kann der sehr gut

nvidia selbst sagte ja das der GT-200 der letzte seiner art ist und in zukunft nur kleine chips hergestellt werden
11.) hmd 15.08.2008 - 10:22 Uhr
Ich find die HD 4870X2 auch zu laut, das ist wirklich nur was für Freaks. Es ist einfach nötig, dass man die Strukturen weiter verfeinert, damit man Dual- oder Quadcore GPUs bauen kann.
ATI ist meiner Meinung nach mit dem RV770 schon in die richtige Richtung gegangen. Nvidia muss vermutlich ihre Philosophie der komplexen Chips mal gründlich überdenken.
10.) eXEC 14.08.2008 - 23:21 Uhr
@Phenocore: Schön erklärt, ich gebe dir 100% Recht! Es gibt so viele Faktoren, welche die Lautstärke beeinflussen, entweder man testet immer gleich (was wohl allein aufgrund der tausend verschiedenen lüfter nicht möglich ist), oder man bewertet subjektiv.
Wobei ich, obwohl ich viel eher ATI kaufe, eine GTX-280 einer HD4870 X2 vorziehe...
Naja, ich würde mir sowieso nur ne HD4850 kaufen :p
9.) Sennahos 14.08.2008 - 23:10 Uhr
Bei Lautstärke messungen ist es standard, das db angaben sehr unterschiedlich sind... kommt wie gesagt drauf an WIE gemessen wird. aber tatsache bleibt, das sie sehr laut/ lauter als ne gtx280 is. Und das IS zu laut.
8.) Phenocore 14.08.2008 - 22:50 Uhr
Man sollte einem Test der Lautstärke, bei dem es keinen Vergleich zur Konkurenz gibt, sondern nur einen Wert, mit dem man nichts anfangen kann, einfach nicht für Ernst nehmen. Lautstärkemässung funktioniert nur Standardisiert, oder im Vergleich zur eben einer anderen Karte. 44 dBA im nicht Standardisiertem Test haben absolut keine Aussagekraft. Ich weiß jetzt auch nicht ob die das Mainboard überhaupt in ein Gehäuse eingebaut haben oder das ganze offen einfach so getestet haben, wo dann die warme Luft viel besser entweichen kann...
7.) KonKorT 14.08.2008 - 22:37 Uhr
Das ist sehr interessant mit der Lautstärke zur HD 4870 X2. In der News "Achtung Kernschmelze! - 4870 X2 im Crossfire", die deinem Zitat entspringt, heißt es wirklich in der verlinkten Quelle:

"At idle you'll hardly hear the card, the FAN RPM is pretty low and results in an overall DBA level of less than 40, which is actually great. The minute though the GPUs start to heat up, the RPM of the fan will increase and you can expect roughly 43-44 DBa when the GPU is fully stressed for both cards. So you'll likely you'll hear the fan blowing during gaming, but really .. not too loud at all."

Andererseits hat Phenocore recht. Bei ComputerBase ist sie sehr laut, das hatten wir auch in der Launch-News mukiert. Dort heißt es:

"Dieser beeindruckenden Performance steht allerdings eine sehr laute und schwache Kühlung im Referenzdesign gegenüber. Tests zeigen, dass der Chip in der Disziplin Lautstärke unter Last jegliche Rekorde sprengt."
6.) Phil123 14.08.2008 - 22:20 Uhr
Wenn du der meinung bist Hardware-Infos schreibt mist ok viewtopic.php?f=57&t=3243

Phil123
5.) Phenocore 14.08.2008 - 22:12 Uhr
44 Dezibel im Idle oder wie? mir doch Schnuppe, wer welche News verfasst hat. Ich schau mir Benchmarks an und da ist die Karte unter Last einfach lauter als die GTX 280, was ich auch schon vorher prophezeit habe, als die X2 so gehypt wurde, obwohl sie noch gar nicht da war.
4.) Phil123 14.08.2008 - 22:03 Uhr
Nein in den Artikel aus den News "Die Kerntemperatur ist entsprechend hoch: Bereits im Idle laufen die Kerne mit 65°C relativ heiß, unter Last wird schließlich die 100°C-Marke geknackt. Immerhin gestaltet sich die Geräuschentwicklung einer X2 mit geradeeinmal 44 Dezibel relativ harmonisch"

Phil123
3.) Phenocore 14.08.2008 - 21:20 Uhr
Welchen Artikel meinst du?

http://www.computerbase.de/artikel/hard ... autstaerke

7,5 Dezibel lauter als eine GTX 280 unter Last. (Bei 10 Dezibel mehr, wäre es Doppelt so laut.)

[Das ganze auch noch bei einer Temperatur von über 90 Grad. Im ungünstigsten Fall (schlecht gekühltes Gehäuse, warmer Tag), wird der Lüfter noch höher drehen müssen um die GPU nicht über 100 Grad warm werden zu lassen]
2.) Phil123 14.08.2008 - 20:52 Uhr
In dem Artikel über die 4870x2 stand doch das der lüfter einigermaßen leise sein soll also warum ohren wegdröhnen?

phil123
1.) Phenocore 14.08.2008 - 17:45 Uhr
AMDs HD4870X2 bringt dem User auch keine Freude. Das Ding ist noch lauter als eine GTX 280, die schon allen die Ohren vollgedröhnt hat. Und mit WAKÜ geht auch GTX260-Doppel.