Nvidia Geforce GTX 280 offiziell

NvidiaNach wochenlangem Rätselraten um die Next-Generation-Grafikchips ist nun zumindest das Geheimnis Nvidias gelüftet. Die kalifornische Grafikchipschmiede präsentierte heute feierlich die so genannte Geforce GTX-Reihe. Neuer Name und diesmal auch wirklich neuer Chip. Unter der Haube versteckt sich ein stark aufgebohrter Geforce 8-Kern, der um diverse Einheiten erweitert wurde und die hiesigen Games teilweise in doppelter Geschwindigkeit über den Bildschirm laufen lässt.

Nvidia Geforce GTX 280

Wie bereits beim letzten großen Launch im November 2006 schickt Nvidia vorerst ein Modell in den Markt, das Topmodell. Dieses heißt Geforce GTX 280 und verfügt über sagenhafte 240 Shadereinheiten, 80 TMUs, 32 ROPs und ein 512-Bit breites Speicherinterface. Alles Zahlen, die Hardwarekenner das Wasser im Munde stehen lassen. Die nachfolgende Liste zeigt den prozentualen Zuwachs zum G80, der in der Vollausstattung bei Geforce 8800 GTX und Ultra Verwendung findet.

  • 88% mehr Shadereinheiten
  • 33% mehr ROPs
  • 33% breiteres Speicherinterface
  • 25% mehr TMUs


Die Liste verdeutlicht, wo Nvidia am meisten Hand angelegt hat, nämlich bei den Shadereinheiten. Diese sind von 128 auf 240 aufgestockt worden. Leider hat es aus Nvidia-Sicht nicht ganz dafür ausgereicht, die magische 1 Teraflop-Marke zu knacken. Bei 933 Gigaflops hat man Halt gemacht, der Shadertakt beträgt also 1300 MHz. Um die magische Hürde zu überspringen, hätten es ungefähr 1390 MHz sein müssen. Wie erste übertaktete Karten zeigen, ist diese Hürde aber mühelos zu nehmen. Nvidia wollte jedoch beim Referenzdesign nicht allzu forsch vorangehen, da man einerseits in dieser Leistungsklasse keine Konkurrenz fürchten muss und andererseits die Verlustleistung - soweit es denn möglich war - im Rahmen halten wollte.

Die Textureinheiten wurden von 64 auf 80 angehoben und damit lediglich um 25 Prozent. Mehr bedurfte es aber auch nicht, da bereits die Texturperformance des G80 mehr als ausreichend war und in Spielen prinzipiell der Trend zu erkennen ist, mehr Shader und weniger Texturen einzusetzen.

Des Weiteren hat man das Speicherinterface von 384-Bit auf 512-Bit aufgebohrt. So erreicht die GTX 280, der ein 1.0 ns schneller GDDR3-Speicher (1024 MiB) zur Verfügung steht, eine Bandbreite von rekordverdächtigen 140,8 GiB/s. Da die ROPs bei Nvidia weiterhin in Abhängigkeit zum Speicherinterface stehen, wurden auch diese um ein Drittel aufgestockt und betragen nunmehr 32 statt 24. Die nachfolgende Tabelle fast die Spezifikationen übersichtlich zusammen, kann jedoch nicht die allgemeinen Architekturverbesserungen berücksichtigen, die in einer separaten News festgehalten wurden.

. 8800 Ultra 9800 GTX GTX 260 GTX 280
Verfahren 90 nm 65 nm 65 nm 65 nm
Chipfläche 484 mm² 330 mm² 576 mm² 576 mm²
Transistoren 681 Mio. 754 Mio. 1400 Mio. 1400 Mio.
Chiptakt 612 MHz 675 MHz 575 MHz 600 MHz
Shadertakt 1500 MHz 1690 MHz 1240 MHz 1300 MHz
Speichertakt 1080 MHz 1100 MHz 1000 MHz 1100 MHz
Speicherinterface 384 Bit 256 Bit 448 Bit 512 Bit
ROPs 24 16 28 32
TMUs 64 64 64 80
Shadereinheiten 128 128 192 240
Speichergröße 768 MiB 512 MiB 896 MiB 1024 MiB
Speichertyp GDDR3 GDDR3 GDDR3 GDDR3
Speicherbandbreite 103,7 GB/s 70,4 GB/s 112,0 GB/s 140,8 GB/s
Texelfüllrate 39.200 MT/s 43.200 MT/s 36.800 MT/s 48.000 MT/s
FLOPs 581 GFlops* 649 GFlops* 715 GFlops 933 GFlops
TDP 171 Watt 156 Watt 182 Watt 236 Watt
Preis - - 399 US-Dollar 649 US-Dollar
Launch 2. Mai 2007 1. April 2008 26. Juni 2008 16. Juni 2008


Die ersten Artikel bescheinigen der Karte eine rund 60-70 Prozent höhere Performance als die 8800 GTX. Somit schafft man zwar nicht den Sprung wie seinerzeit von Geforce 7800 GTX auf 8800 GTX, wo auch die komplette Architektur (Stichwort: Unified-Shader) umgekrempelt wurde, setzt die Messlatte aber dennoch ein gutes Stück nach oben. Man bewegt sich auf ähnlichem Niveau wie die 9800 GX2, der aber bekanntlich zwei Chips inne wohnen.

Neben der blanken Performance hat Nvidia aber auch noch an anderen kleinen Nahtstellen Hand angelegt. So beispielsweise bei der Video- und Physik-Performance. Die Shadereinheiten unterscheiden nun zwischen "Graphics Processing Mode" (3D-Anwendung) und "Parallel Compute Mode". Unter letzterem Begriff fast man eben jene GPGPU-Anwendungen, wie beispielsweise Video- und Physikberechnungen. Dass dies nicht bloße Marketingwischerei ist, sondern tatsächlich von großem Nutzen für den Käufer sein kann, stellten wir erst kürzlich in einer News fest.

Des Weiteren holt der Chip endlich wieder den 2D-Stromsparmodus zurück, der laut Nvidia besser denn je sein soll. So verbraucht das 1,4-Millarden-Transistormonster lediglich 25 Watt im Ruhezustand und damit rund ein Drittel so viel wie das Vorgängermodell 8800 GTX! Unter Last helfen natürlich keine Stromspartechniken mehr und die GTX 280 bewegt sich leider Gottes auch auf 9800 GX2-Niveau. Diese Tatsache und der Preis, der mit 649 US-Dollar bzw. 549 Euro festgesetzt ist, scheinen dann aber auch die einzigen Kritikpunkte.

Nvidia hat die Geforce 8-Architektur konsequent weiterentwickelt: Die Performance um eine gute Portion erhöht, GPGPU-Anwendungen in den Vordergrund gerückt und den langersehnten 2D-Stromsparmodus implementiert. Zu Straßenpreisen ab 525 Euro kann man Besitzer der neusten Nvidia-GPU werden. Da die meisten Shops die Karten vorrätig haben, sollte der geneigte Käufer noch diese Woche in den Genuss kommen. Wer sich noch rund zehn Tage gedulden kann und ein nicht randvoll gefülltes Portmonee besitzt, kann auch auf den kleineren Bruder, GTX 260, warten, der mit 192 Shadereinheiten, 64 TMUs, 28 ROPs und 448-Bit Speicherinterface die Brücke zwischen 8800 GTX und GTX 280 schlägt.

Alles weitere in einem in wenigen Tagen erscheinenden Artikel.


Kommentar schreiben

  • Loggen Sie sich oben mit ihren Benutzerdaten ein, um Kommentare zu verfassen.
  • Falls Sie noch kein Mitglied sind, können Sie sich in unserem Forum registrieren.

15 Kommentare

15.) Phenocore 17.06.2008 - 12:26 Uhr
eXEC:
Die ganze Struktur ist nicht wirklich gelungen und bei Mass Effect gibts keine FPS, sondern Prozentbalken, wie häufig das Spiel in welchem FPS bereich liegt 0o


Da gibt es doch ein Verlaufsdiagramm mit FPS. Das ist gar genauer als bei CB oder sonnst wo. Mit AA gibt es in dem Spiel keine Werte auf der GTX 280 und GX2, weil die Karten mit AA den Dienst verweigerte. Das steht aber auch im Text. Aber egal, wenn man nicht Lesen will...
Das größte Manko an dem Test ist bloß die kleine Spielauswahl.
14.) KodeX 17.06.2008 - 11:54 Uhr
Ich finde es auch besser auf eine schnelle CPU zu setzen. In solchen Tests geht es ja immerhin darum die schnellste Grafikkarte zu kühren...

Die GTX 280 ist ohne AA ein wenig langsamer als eine 9800 GX2. Bei 4x AA ein wenig schneller. Bei 8x AA bricht der G92 jedoch stark ein, was im Test von CB eventuell auch am kleineren Speicher liegen mag.

Ich denke, dass die HD 4870 ohne AA circa 10 Prozent langsamer als eine GTX 280 sein wird. Unter der Verwendung dieses qualitätsverbessernden Features wird der Vorsprung allerdings größer werden. So schätze ich das zumindest ein. Eine HD 4870 X2 wird schneller als eine GTX 280 sein.
13.) KonKorT 17.06.2008 - 10:52 Uhr
@ eXEC

Ich weiß, dass Du einen Quad-Core meintest - schriebst Du ja. ;)
Wenn man aber mal allgemein die Theorie durchspinnt, nämlich starke CPU, die möglichst wenig limitiert, oder eben eine, die "jeder besitzt", so würde man wahrscheinlich irgendwo beim Pentium 4 landen.

Und noch mal speziell zu den 4,0 GHz von CB: Deren Prozessor taktet ja auch "nur" mit 3,2 GHz, sie haben ihn schlichtweg übertaktet. Ähnliches kannst Du ja auch mit einem Q9450 fabrizieren.
12.) hmd 17.06.2008 - 10:03 Uhr
Die Karte bringt nur was für hohe Auflösungen und sehr anspruchsvolle Spiele. 2560x1600 wo sie wirklich klar schneller ist, besitzt praktisch niemand, diesen Markt kann man auch auf absehbare Zeit in den Promillebereich verweisen. Für mich ein klarer Fall von am Markt vorbei produziert.

Und dass die Preise sooo stark fallen, ist wie schon erwähnt wohl kaum möglich, da der Chip und die Peripherie viel zu teuer in der Produktion sind. Ich seh da eher das Problem bei der GTX 260, die müsste sich ja bezüglich Performance in den zukünftigen Standardauflösungen 1680x1050 (vielleicht auch 1920x1200) klar von den HD 48?0 Karten abheben, denn preislich wird man sich ja durch die hohen Produktionskosten nicht gross anpassen können (gleicher Chip wie bei der GTX 280). Richtig übel find ich die hohe Lautstärke, das sollte bei einer solchen Luxuslösung wirklich nicht der Fall sein.

Unter dem Strich seh ich wie der @Kodex das Duell HD 4870 vs. GTX 260 als die entscheidende "Schlacht" bei den neuen Karten. Zusätzlich natürlich HD 4850 gegen die gepimpte 8800er Serie = Massenmarkt (Gamerkarten).
11.) eXEC 17.06.2008 - 09:29 Uhr
@Konkort: äh hallo? Genau lesen!
Ich hab nix von nem P4 geschrieben, ich nannte einen Quadcore mit "nur" 3 Ghz! Das ist der stärkste normal zu erwerbende CPU überhaupt und kostet etwa 1000€!
Das nennt man realistisch! Was juckt es mich, wie hoch die Performance mit einem 4 Ghz Quadcore ist? Der normale Leser will wissen, wie stark sich die Performance auf aktuellen Hochklassesystemen verbessert! Und das ist ein Quadcore mit 3 ghz allemal!

@Phenocore: Danke für den Test, aber ich finde ihn doch sehr mittelmäßig... Die ganze Struktur ist nicht wirklich gelungen und bei Mass Effect gibts keine FPS, sondern Prozentbalken, wie häufig das Spiel in welchem FPS bereich liegt 0o
10.) Phenocore 17.06.2008 - 00:40 Uhr
@eXec
Hier gibt es einen Praxisrelevanten Artikel mit dem schnellen Catalyst 8.5 bei ATI:
http://www.pcgameshardware.de/aid,64749 ... ed/&page=1

Eigentlich ganz gut gemacht, nur die Spieleauswahl ist etwas zu klein geraten. Aber als praxirelevante Ergänzung zu all den anderen Tests, allemal zu gebrauchen.
9.) KonKorT 16.06.2008 - 23:45 Uhr
Naja, was soll CB machen? Die haben auch nicht alle Karten bei sich liegen und können noch mal eben durchbenchen. Soetwas ist ja nicht mal eben getan, sondern dauert Tage.
Ich will CB da keinen Vorwurf machen. Die haben heute wieder einen super Test online gestellt und zwecks des Prozessors:

Diese Frage ist so alt wie es Computer gibt. Ist es besser, einen starken Prozessor zu verwenden, um einer CPU-Limitierung vorwegzugreifen und das Potential des Pixelbeschleunigers hervorzuheben oder sollte man bewusst auf eine schwächere CPU setzen? Ich bin für ersteren Ansatz, ansonsten müsste man nämlich einen Pentium 4-Prozessor wahrscheinlich zu Rate ziehen.

Wir arbeiten übringens zurzeit fieberhaft an einem Artikel. Da wir auf ein komplett neues Testsystem setzen, werden wir auch versucehn, alle Karten mit demselben Treiber durchlaufen zu lassen.
Denke, dass er diese Woche noch online gehen wird.
8.) eXEC 16.06.2008 - 23:23 Uhr
Der Test von CB ist SCHWACHSINNIG!!!!!!!
Es wurden ALLE anderen Karten mit veralteten Treibern getestet! Der 8.5 CCC bringt z.B. eine Leistungssteigerung von 10% bei DX10-Titeln! Außerdem wurde mit einer 1000€ Übertakteten QuadCore-Extreme-CPU @4 Ghz getestet, welche NIEMAND zu hause hat! Unter normalen Bedingungen limitiert die CPU ganz erheblich früher und der Vorsprung wird deutlich geringer, wohlgemerkt beim fünffachen Preis einer 8800 GT 512 MB!

Ein fairer Test sieht für mich so aus:
- Q9450 @ 3 Ghz (einen stärkeren CPU kann man nicht normal erwerben!)
- NV: 8800 GTX/Ultra/GT512, 9600 GT, 9800 GTX --> NEUESTER TREIBER
- ATI: HD3850/70, HD4850/70 @ Catalyst 8.6
- 4 GB RAM, Mainboard für maximal 150€, Vista x86

Das wäre fair und da würde die GTX-280 abfallen ohne Ende, für Ihren Preis hat sie die dann den selben Nutzen wie ein Pimmel beim Papst! ;)
7.) Phenocore 16.06.2008 - 22:54 Uhr
Na-ja. Die GPU ist in der Herstellung recht teuer, wegen dem großen Die. Hinzu kommt noch der große Speicher und das große Speicherinterface mit der entsprechend komplexen Platine.... Ich hab ja früher gesagt, dass die Karte ähnlich unatraktiv sein wird wie die 8800 Ultra seinerseits.

Schaut mal wie viele GPUs man aus einem 5000 Euro teurem Wafer herstellen kann und rechnet dann den Preis aus, wenn davon nur 60 Prozent funktionieren. oder war die Yealt-Rate noch schlechter?

http://scr3.golem.de/?d=0806/Nvidia-GT-200&a=60412&s=20

Der Preis wird für die GTX 280 nicht fallen. Die wird eher wie die Ultra auslaufen und durch eine GTX 290 (oder ähnliches) in 55nm ersetzt.
6.) Cartman 16.06.2008 - 22:24 Uhr
Die 280 ist zwar hammer , aber viel zu teuer . Ich weiche da eher auf die 260 aus . Naja , vielleicht ist die 280 Weihnachten auch billiger :D
5.) Phil123 16.06.2008 - 21:50 Uhr
Mr.Smith:
Oder auf S3 Grafik warten xDD



naja bis die in dem segment mitspielen können mal noch etwas abwarten

phil
4.) Mr.Smith 16.06.2008 - 20:33 Uhr
Oder auf S3 Grafik warten xDD
3.) Phil123 16.06.2008 - 18:08 Uhr
dann warte erst mal die 4870 ab

phil
2.) Fabs99 16.06.2008 - 17:41 Uhr
Den hohen Erwartungen konnte sie leider wirklich nicht gerecht werden!

Ich wollte mir eigentlich eine kaufen, aber da das P/L-Verhältnis selbst für eine High-End-Karte extrem schlecht ist, werde ich wohl zur GTX 260 greifen, . . . mein Portmonee wird es mir danken.
1.) KodeX 16.06.2008 - 17:32 Uhr
Ich finde die Performance der GeForce GTX 280 bei Anti Aliasing zwar sehr beeindruckend, dennoch finde ich nicht, dass die GTX 280 so unglaublich flott ist wie man es zuvor angenommen hat. Ich finde, dass die Grafikkarte im Vorfeld ein wenig zu stark geredet wurde. Ich freue mich jetzt sehr auf den Zweikampf "HD 4870 vs. GTX 260", welcher wohl sehr spannend sein wird.