Nvidia G300-Samples mit 700/1600/1100 MHz

NvidiaErst vorgestern hatten wir berichtet, dass Nvidias kommender High-End-Desktop-Chip G300 erfolgreich sein Tape-Out gemeistert hätte und zurzeit im A1-Stepping vorliegt, welches möglicherweise bereits das Finale ist.
Jetzt können wir Ihnen die Taktfrequenzen der Samples präsentieren, mit denen Nvidia bereits sehr zufrieden sein soll, so dass sie ebenfalls final eingesetzt werden könnten.

Demnach werden laufende G300-Samples im A1-Stepping mit 700 MHz Chiptakt, 1600 MHz Shadertakt und 1100 MHz Speichertakt betrieben - letzteres deuteten wir bereits in unserer vorherigen Newsmeldung zum Tape-Out an.
Anhand der schon aufgedeckten Shadereinheiten und der Breite des Speicherinterfaces lassen sich damit erstmalig genaue, quantitative Vergleiche aufstellen.

Wie wir bereits berichteten, wird der G300 über 512 statt 240 Shadereinheiten verfügen. Die grobe Struktur, nämlich, dass es sich weiter um 1D-Shadereinheiten handelt, die pro Takt ein MADD und MUL berechnen können, wird wohl erhalten bleiben, so dass sich bereits aufschlüsseln lässt, dass die laufenden Samples auf eine theoretische Rechenleistung von sage und schreibe 2457 Gigaflops kommen.
Gleichwohl der Vergleich zum G200, stellvertretend GTX 280, etwas hinkt, weil es sich beim G300 nicht mehr um klassische SIMD-Einheiten handeln wird, sondern MIMD-ähnliche Einheiten, offenbart der reine, quantitative Vergleich eine 163 Prozent höhere Rechenleistung.

Auch die Speicherbandbreite kann jetzt mit der Kenntnis über den Speichertakt in Betracht genommen werden. So wird Nvidia bei 1100 MHz Realtakt auf ebenfalls beeindruckende 281,6 GB/s kommen. Rein quantitativ entspricht dies gegenüber der GTX 280 exakt 100 Prozent mehr Speicherbandbreite.

Aussagen über die theoretische TMU- und ROP-Performance können trotz bekanntem Chiptakt noch nicht getätigt werden, weil deren Anzahl noch nicht bekannt ist beziehungsweise im Falle der ROPs gar nicht einmal mehr sicher ist, ob es sich weiter um Fixed-Function-Units handeln wird.

Wir werden Sie in puncto Nvidia G300 auf dem Laufenden halten und in einer der nächsten Meldungen auch auf die Leistungsaufnahme aktueller Samples eingehen.


Kommentar schreiben

  • Loggen Sie sich oben mit ihren Benutzerdaten ein, um Kommentare zu verfassen.
  • Falls Sie noch kein Mitglied sind, können Sie sich in unserem Forum registrieren.

26 Kommentare

26.) eXEC 19.05.2009 - 23:56 Uhr
Die ATI-Karten haben enorme Shaderleistung. Das wars allerdings schon. Speicherbandbreite, Texturleistung, ROP-Leistung - Allesamt den Nvidias mehr oder weniger deutlich unterlegen.
In der Gesamtperformance ist somit eine GTX-260-216 fast gleich schnell, wie eine HD4870 1GB, obwohl sie ziemlich exakt 50% weniger Shaderleistung besitzt. Dafür stehen ihr 41,4 GT/s Texturleistung zur Verfügung, anstatt den 30 GT/s der ATI. Die ROP-Leistung ist ebenfalls deutlich höher und liegt ca. 30% über der ATI.
Insofern ist das Bild insgesamt sehr ausgeglichen
25.) Duplex 19.05.2009 - 22:56 Uhr
war es nicht immer so das die gigaflops leistung der ATIs doch immer ein gutes stück höher war wie die Nvidias aber dann in der praxis versagen ?

mich wunderts schon warum die atis bei so hohen zahlen doch recht mässig auffallen
24.) (th) 19.05.2009 - 22:42 Uhr
@Duplex
siehe hier: http://www.hardware-infos.com/news.php?news=2908

wegen den Shadereinheiten - evtl. koennte das der Grund sein warum die Releases der Karten so drastisch nach hinten verschoben wurden, vllt wusste Ati was da fuer ne Konkurrenz kommt und baut nochmal um. Hoffentlich. Denn waere die 5870 nur ne etwas optimierte und getunte 48xx dann wirds nix gegen GT300
23.) KiTT 19.05.2009 - 20:30 Uhr
Doppelpost, aber es wird der RV870 aka 5870 sein @ Duplex.
@th
ATIs Probleme lagen teilweise an den 5D Shardereinheiten, welche nicht besonders gut ausgelastet wurden. Falls sie das diesmal ändern können, kommt die Praxisleistung auch den Papierwerten nahe.
22.) KiTT 19.05.2009 - 20:27 Uhr
Duplexi ^^ Ich kann deinen Wunsch nach Grafikpower verstehen .)
Wer ohne AA auf 1280x1024 spielt sehnt sich natürlich nach uneingeschränkter Macht ! Zockst du auf nem 16:9 4:3 Format? tze .D

@Topic
Freu Freu ! der 870er kommt auch mit 2,1 TFlops daher. Und dann die ganzen Vermutungen über die 5870x4 mit 2 Dual-Core-GPUs. Also es ist nicht so, als ob nVidia hier das Rad neu erfunden hätte. Wie der Flo schon sagt, es ist wieder Krimitime :D
21.) Duplex 19.05.2009 - 19:28 Uhr
welche ATI soll das sein ? die 2160gf hat ?

@TH
und PCGH ist eigentlich meist doch recht unverschämt wie CB , die schreiben garnicht die Quellen hin , und selbst nachdem Konkort dene sagt sie sollen es machen ändert sich nix
20.) (th) 19.05.2009 - 17:46 Uhr
Oh wow ich denke das sieht doch schlecht aus fuer Ati...
. Chiptakt Interface Speichertakt Speicherbandbriete Rechenleistung
NV 700 512 1100 281.6 2457
ATI 900 256 1100 140.8 2160

Natuerlich nicht direkt vergleichbar. Auf dem Papier sieht es ja nicht so bitter aus, lediglich die Speicherbandbreite faellt auesserst negativ fuer Ati aus. Aber die Rechenleistung der Atis war letztens weit hoeher als Nvidias und die Karten waren teilweise langsamer... wenn Nvidia nun auch noch (offenbar) auesserst viel architekturoptimierungen vorgenommen hat, dann wird es schwer fuer Ati.

Edit: lol PCGH nennt als quelle hardware-info.com...
19.) unLead 19.05.2009 - 15:36 Uhr
Wenn das für deine Auflösung die beste Wahl ist, möchte ich dir nichts einreden ;). Aber wenn man normalerweise nicht das Glück hat eine Graka umsonst zu bekommen macht SLI eigentlich kein Sinn.
18.) Duplex 19.05.2009 - 15:32 Uhr
wetten wir das ich jede GTX280 in meiner auflösung ohne AA schlage ?

wie gesagt ich möchte nichtin Full HD und 8AA spielen
1680x1050 oder 1280x1024 sind mir vollkommen ausreichend , AA mach ich eh nicht an da sich meiner meinung erst was ab 8AA tut und ich automatisch ne menge FPS verliere und kaum besseres bild habe

es gibt eh bis Crysis mit mods kein spiel was ich nicht mit maximalen details spielen kann , mit ausnahem GTA 4 = spiel ich eh nicht und besitze es nicht mal ;-)

im übrigen , ich habe mal ne 8800GTS 512mb gehabt diese ist gestorben und ich habe automatisch eine 9800GTX+ kostenlos als ersatz bekommen , die zweite konnte ich am november recht günstig ( 130€ ) erbeuten , wen du mir nun sagst ich habe nen schlechtes geschäft gemacht , ja dann , dann hast du keine ahnung ;-) ( ist ironisch gemeint bitte nicht sensibel drauf reagieren wie manch andere )
17.) unLead 19.05.2009 - 15:25 Uhr
Auf eine 280, weil eine 280 schneller ist als dein SLI-Verbund. Diese Lösung würde dann wirklich High-end sein, weil die 9800+ sind jetzt low-end und wenn du dir anstatt einer zweiten 9800+ danach eine 280 geholt hättes wäres du noch im High-end Bereich.

Mich würde das einfach störung.... wenn man sein Geld klüger anlegt kann man jetzt auch noch auf 1680 spielen. Mit einem SLI-Verbund baut man sich zuerst einen ungenutzten Puffer an Leistung auf, dieser wird dann aber von den neuen Spielen relativ schnell aufgebraucht. Die aktuelle High-end Karte bietet dir da mehr Leistung pro €

Ich habe auch das Glück in der gehobene Mittelschicht zu leben, grade wenn man sich nicht mehr soviel gedanken ums Geld machen muss, sollte man es tun! Das Geld welches du durch kluges Einkaufen einsparst, könntes du doch spenden?!
16.) Duplex 19.05.2009 - 15:07 Uhr
warum von 9800GTx+ und OC auf GTX260 zusteigen wäre doch dumm da ich kaum mehr performance hab , und ich habekeine lust mir andauernd karten zu kaufen , bei mir kommt einmal highend rein und das bleibt adnn ne weile
15.) unLead 19.05.2009 - 14:57 Uhr
Die SLI Rechnung geht leider wirklich nicht auf. Wenn mann nun z.B. 600 € Hat und eine laufzeit von 2 Generationen einrechnet

Beispiel A - 2x 9800 Gtx+ 600 €
Beispiel B - 1 Generation 9800 GTX+ 300 € / 2 Generation GTX 280 300€

Hat man über die Laufzeit der zwei Generationen das bessere Eergebnis mit Beispiel B, weil man nicht mehr ausgibt - vlt so gar weniger - und man kann immer mit dem großen Motor spielen .... *Da hat sich doch gelohnt Kaufmann zu werden :D
14.) Bohemund 19.05.2009 - 11:37 Uhr
meine fresse, ich möchte nicht wissen was dieses ding aus der steckdose zieht. da müsste ich auch eine kühlung an meinen stromzähler hängen... :lol:

wenn es davon einen ableger gibt der weniger als 150W oder besser 100W zieht und DX11 unterstützt bin ich schon glücklich...
13.) Duplex 18.05.2009 - 23:01 Uhr
nein mit dieser generation ist es einbisle verschoben , meine auflösung ist ja eigentlich 1680x1050 , ich stell die aber auf 1280x1024 und ein spielbares ergebniss zu erziehlen

2.3 sind jeden anderen anders zu zu muten , ich kenn ne menge leute die nie mehr wie 70€ pro graka investieren und sich mit 800x600 zufriedengeben

ich gehöre nicht dazu ;-)
12.) QRT 18.05.2009 - 22:45 Uhr
Punkt1 ist nicht wahr.
Ohne jegliche Einschränkung spielst du mit 2veralteten Karten garantiert nicht, wenn die neue Mittelklasse Karte eine neue Architektur, neues Shadermodell bietet, und dementsprechend auch mit mehr Leistung bei noch besserer Optik aufwarten kann.

2 und3 sind auch nicht wirklich nachvollziehbar, und dabei bin ich auch Technik interessiert und hab gern das Neuste, aber eben im P/L Bereich, indem ich sehr gut gefahren bin bisher.
11.) Duplex 18.05.2009 - 21:32 Uhr
ich kaufe mir ein SLI system aus den besten vom besten aus den grund :

1. ich kann ne weile lang meine spiele ohne jedliche einschränkung spielen
2. ich mag benchmarks und finde es toll wen ich ein paar punkte mehr rauskitzeln kann wie andere ;-)
3.Geld spielt ehr ne minderwertige rolle , solange es mir gefällt , ich habe diesmal bewust auf den G200 verzichtet und bin auf meinen 9800GTX+ SLI geblieben
10.) eXEC 18.05.2009 - 20:16 Uhr
Ich würd mir lieber eine mit 400 Shader für 220€ kaufen. Denn die Leistung deines SLI-Gespanns ist in kurzer Zeit schwächer, als eine einzelne Singlekarte für die Hälfte des Preises. Siehst du ja jetzt, deine GTX+ Karten kacken sogar gegen meine einzelne GTX-280 ab, weil schlicht und ergreifend der vRAM limitiert und nur ein Teil der Games überhaupt SLI unterstützt.
9.) QRT 18.05.2009 - 20:10 Uhr
Darf ich Dich fragen, für welche Spiele du Dir ein SLI-Sys. zulegen würdest, oder bist du ein Benchmarker?
Denn allgemein kann man sagen, dass du damit die Ausnahme bildest in der heutigen Zeit, wo das Geld auch nicht mehr ganz so locker sitzt.
Zudem fehlen die Spiele, die so eine Leistung notwendig machen.
Crysis spielt man nun nicht noch 1000mal durch, um dieses Beispiel zu nennen.
Wobei mich schon interessieren würde, ob es endlich einmal jenseits der 60FPS bei 1920x1200 Auflösung läuft.

Grundsätzlich muss ich aber sagen, dass ich nicht mehr bereit wäre, für eine Grafikkarte mehr als 200€ auszugeben. Denn der Wert-Verfall ist indem Preis/Leistungssegment noch am erträglichsten.
Aber jeder wie er mag.
8.) Duplex 18.05.2009 - 19:36 Uhr
ich wäre bereit mir nen SLI sys zu holen mit zwei von dene für jeweils 550-600€

das ist immer kunden unterschiedlich , das problem was ich hätte wäre ehr das wohl die CPU limitieren würde dann^^
7.) eXEC 18.05.2009 - 18:15 Uhr
Hört sich gigantisch an. Aber auf alle Fälle wird auch der Preis maßgeblich entscheidend sein. Denn ich bin ganz sicher nicht bereit mehr als 300€ für eine Grafikkarte auszugeben.
6.) iNsuRRecTiON 18.05.2009 - 18:14 Uhr
Hi,

also hoffentlich wird es dann auch eine Variante mit 2 GHz in der Shaderdomäne geben, damit über 3 TFlops erreicht werden können ;-)

MfG

iNsuRRecTiON
5.) mieze 18.05.2009 - 17:22 Uhr
Lach, wie geil *davonschweb*
Ich bin ganz Ohr.
Aber ebenso geduldig - ich werde warten bis du uns alle offiziell beglückst. Wenn du deine Sache gut machst, bau ich dir einen Altar, versprochen! ;D
4.) KonKorT 18.05.2009 - 17:14 Uhr
Ja, du wirst leicht wie eine Fliege werden. ;)
3.) mieze 18.05.2009 - 17:09 Uhr
Meine Güte, Florian.
Du hast uns nicht zu viel versprochen, als du gesagt hast, dass es diese Woche spannend wird.
Wahnsinn. Ich bin begeistert, NOCH...Die News über die Leistungsaufnahme wird entscheiden, ob ich im 7. Himmel schweben oder einfach nur wieder Frust schieben werde :P
2.) KonKorT 18.05.2009 - 16:52 Uhr
128 TMUs wären insofern logisch, wenn die 512 Shadereinheiten in 16 Shadercluster organisiert sind und diese weiter Octa-TMUs beinhalten. Aber ich habe noch nicht mehrere Bestätigungen dafür und halte es daher lieber unter Verschluss, ehe ich es sicher weiß.

Durch die MIMD-ähnliche Struktur sollten die Shadereinheiten flexibler werden. Sie erhöhen die Effizienz.
1.) Weiser 18.05.2009 - 16:47 Uhr
Im Vgl. zur GTX 285 mit 1063,76 Gigaflops eine prozentuale Steigerung um bombastische 131%! Bei der Speicherbandbreite sind im Vgl. zur 285er (158,976 GB/s) nur noch plus 77%, aber auch das scheint gewaltig.
In dieser News (http://www.hardware-infos.com/news.php?news=2904) war noch die Rede von satten 128 TMUs, was mit 700 MHz Chiptakt einer Steigerung gegenüber der GTX 285 (51,84 Gigatexel/s) einer Steigerung von 72% gegenüber dem GT300 (89,6 Gigatexel/s) entsprechen würde. Oder hat sich etwas zu den TMUs geändert?

Kann man denn aufgrund der neuen Strukturierung der Shadereinheiten in MIMD-ähnliche Einheiten statt der gewohnten SIMDs eher von einer besseren Ausnutzung der Rohrechenperformance ausgehen als vorher oder was bedeuten diese ominösen MIMDs und was bewirken sie bzw. wie wirken sie sich auf die Leistung aus?