GT200: Nvidia-Benchmarks im Umlauf

NvidiaNach unzähligen Gerüchten zu den für Mitte dieses Monats angekündigten GT200-Grafikchips, sind nun bei den Kollegen von "VR-Zone" erste Benchmarks aufgetaucht. Anders als beim AMD-Dokument, das den Kollegen von "Tom's Hardware" in die Hände gefallen ist, hat Nvidia es jedoch nicht bei einer graphisch künstlerischen und daher sehr ungenauen Zeichnung belassen, sondern auch eine Reihe von Games aufgelistet und diese in Bezug zur HD 3870 X2, AMDs momentanem Flaggschiff, gesetzt. Die Benchmarks klingen soweit in Ordnung, ein wenig Skepsis sollte - da die Quelle Nvidia ist - jedoch beim Betrachten dabei sein.

Die Ergebnisse bilden sich aus den Titeln 3DMark Vantage, Crysis, Oblivion, Call of Duty 4, Call of Juarez, Company of Heroes, ET: Quake Wars, Fear, UT3 und World in Conflict. Als Referenz wurde für die beiden Nvidia-Chips GTX 260 und 280 besagte HD 3870 X2 bereitgestellt, die einen fiktiven Wert von 1,0 besitzt, um die Unterschiede zu den Nvidia-Beschleunigern besser hervorzuheben.

Nvidia GT200-GPUs im Leistungsvergleich

Fasst man die Ergebnisse zusammen, so ist die GTX 280 rund doppelt so schnell wie die HD 3870 X2; die GTX 260 rechnet rund 70 Prozent schneller als die HD 3870 X2. Stark scheinen die Nvidia-GPUs im 3DMark Vantage. Am Stärksten sind sie jedoch in World of Conflict und allen voran Call of Juarez, wo beide Geforce-Karten mehr als 150 Prozent schneller sind als das AMD-Modell. Dass der HD 3870 X2 in letzterem der VRAM ausgeht, darf ausgeschlossen werden, wenn man sich auf die jüngsten Messungen der Kollegen von "ComputerBase" stützt.

Beim Vergleich GTX 280 versus GTX 260 gewinnt der große Bruder im Mittel mit etwas mehr als 20 Prozent. Der größte Unterschied ergibt sich im 3DMark Vantage, hier klaffen rund 28 Prozent zwischen den beiden Chips. Zieht man die vorläufigen Spezifikationen der Chips zu Rate, so besitzt die GTX 280 30 Prozent mehr Textur- und Shaderleistung und 26 Prozent mehr Speicherbandbreite. Damit passen die Ergebnisse auch sehr gut ins bisherige Bild.

Unklar bleibt das zum Einsatz gekommene Testsystem, die verwendete Auflösung sowie die allgemeinen Qualitätseinstellungen. Lediglich die verwendeten Treiber sind bekannt: Bei den GTX-Chips kam eine frühe Version des Geforce 177 zum Einsatz, bei der HD 3870 X2 wurde der rund drei Monate alte Catalyst 8.3 genutzt.
Einen ersten Anhaltspunkt gibt es nun. Ob sich dieser als wahr erweist, wird man in spätestens drei Wochen wissen.


Kommentar schreiben

  • Loggen Sie sich oben mit ihren Benutzerdaten ein, um Kommentare zu verfassen.
  • Falls Sie noch kein Mitglied sind, können Sie sich in unserem Forum registrieren.

11 Kommentare

11.) KodeX 01.06.2008 - 14:43 Uhr
derguru weiß doch angeblich in welcher Auflösung gebencht wurde...
10.) Duplex 01.06.2008 - 14:17 Uhr
ja schon klar ich spiele ja auch mit 1280x1024 und will denächst auf 1680x1050 pixel umsteigen

aber wo steht den da man auf 2560x1600 gebenchst hat ? steht doch dran

Zitat : "Unklar bleibt das zum Einsatz gekommene Testsystem und die Auflösung sowie die allgemeinen Qualitätseinstellungen."
9.) derguru 01.06.2008 - 14:05 Uhr
es hätte schon gereicht das die tests in 1920*1200 gebencht hätten,da wäre es schon ganz anders augegangen.
8.) KodeX 01.06.2008 - 14:05 Uhr
Ja... aber wer spielt schon in 25600*1600? Ich kenne mehr die mit 800*600 spielen als mit ersterer Auflösung.

Für mich wären 1280*1024 und 1680*1050 viel interessanter.
7.) Duplex 01.06.2008 - 14:03 Uhr
ja bei auflösungen von 800x600 ( die keiner mit soner karte spielt ) sind die ergebnisse meist gleich da diese wohl alle bei 99fps wären oder bis die cpu limitiert
6.) KodeX 01.06.2008 - 13:59 Uhr
Hmmm..... Also in solch einer hohen Auflösung ist die prozentuelle Leistungssteigerung immer größer als in einer niedrigeren, da 10 FPS mehr ja schon oftmals 100 Prozent Mehrleistung ausmachen.
5.) Duplex 01.06.2008 - 13:56 Uhr
welche treiber sind wohl unausgereifter die von Nvidia bei den die karte noch net mal drausen ist oder die von AMD wo die karte schon seit einigen monaten rumschwirrt

also das die karte schnell ist ist ja mal sehr schön und das man crysis mit der auf ultra high und wohl 4aa flüssig spielen kann ist noch besser =)
4.) derguru 01.06.2008 - 13:52 Uhr
dann weiste ja was das heist,max 2-fache leistung einer 8800gtx.und rohpowermässig wo die speicherbandbreite nicht limitiert ganz eindeutig weniger,das man z.b. bei fear und ut3 sieht.
3.) mieze 01.06.2008 - 13:42 Uhr
@ KodeX - richtig, gut aufgepasst ^^

Das lässt doch Vorfreude aufkommen. Allerdings mache ich mir nach wie vor Gedanken um den Stromverbrauch. Wenn Hybrid-Sli mit entsprechenden Boards für Intel-CPUs verfügbar sind, ist der GT200(b!) eine Überlegung wert.

@Guru - hab grad mal auf CB geguckt - die die X2 ist selbst schon bei 1680 meist nur sehr dicht vor der 8800 Ultra.
Zudem sind die prozentualen Angaben in Anbetracht der Leistung nicht so wichtig - es geht hier ja wohl um höchste Auflösungen bei aktuellen und extrem ressourcenhungrigen Spielen. Und ob es da nun 45 oder 48fps sind, spielt da auch keine Rolle. Zudem ist ja auch offen, mit welchen Treibern gebencht wurde, da kann Nvidia auch noch einiges gefpuscht haben. Man sollte diese Werte nur als Wegweiser nehmen.
2.) derguru 01.06.2008 - 13:39 Uhr
so ein mist,die haben absichtlich in 2560*1600 gebencht wo die gt200 reihe ihre speicherbandbreite ausnutzen kann,dazu kommt das gerade in dieser auflösung bug mässig die atix2 total den faden verliert und meist gerade mal auf ultra niveau kommt.dazu gibt es genug benchmarks.so sagt es nichts aus,was die rohpower angeht,kluger schachzug von nv muss man sagen diese auflösung zunehmen.nicht zuvergessen orginal diagramm ist noch lustiger aber das sieht man ja bei der quelle.
das ist marketing scheiss und nichts anderes.
1.) KodeX 01.06.2008 - 13:21 Uhr
Kleiner Fehler: Bei World in Conflict und Call of Juarez rechnen die GPUs 150 und nicht 250 Prozent schneller.