GT300 setzt auf 512 Bit-GDDR5-Interface

NvidiaVor knapp einer Woche berichteten wir in Zusammenarbeit mit Bright Side Of News, dass Nvidias nächster Grafikchip über mächtige 512 Shadereinheiten verfüge, die MIMD-ähnlich seien und dadurch flexibler und effizienter.
Jetzt können wir Ihnen in erneuter Zusammenarbeit mit Bright Side Of News erste, exklusive Infos zum verwendetem Speicher sowie Speicherinterface präsentieren.

Demnach wird Nvidia mit dem GT300 beziehungsweise dem vorläufigen Topmodell der Geforce GTX 300-Reihe auf GDDR5-Speicher zurückgreifen. Dazu hat es Anpassungen am Speicherinterface gegeben, das jedoch weiter 512 Datenleitungen besitzen soll.
Schon Anfang des Jahres berichteten wir über ein verbessertes Speichermanagement im GT300.

Der kleinste, erhältliche GDDR5-Speicher ist zurzeit 0,5 Nanosekunden schnell und damit bis 2000 MHz I/O-Takt spezifiziert. In Kombination mit einem 512 Bit breiten Speicherinterface würde dies satte 256 GB/s Speicherbandbreite bedeuten. Zum Vergleich besitzt die Geforce GTX 280 gerade einmal 140,8 GB/s Speicherbandbreite.

Wie hoch der verbaute GDDR5-Speicher später auf der vermutlich unter der Bezeichnung Geforce GTX 380 anlaufenden Grafikkarte takten wird, ist allerdings noch offen. Erst nach bestandenem Tape-Out wird man hierüber erste Aussagen treffen können. Gleiches gilt für die Speichergröße, die 1024 und/oder 2048 MiB betragen wird.


Kommentar schreiben

  • Loggen Sie sich oben mit ihren Benutzerdaten ein, um Kommentare zu verfassen.
  • Falls Sie noch kein Mitglied sind, können Sie sich in unserem Forum registrieren.

19 Kommentare

19.) hmd 07.05.2009 - 11:02 Uhr
@Bulldozer
Sicher ist, dass eine HD4890 schnell im Preis fallen wird, sobald Windows7 auf dem Markt ist. Jeder möchte doch ne DX11 Karte kaufen und nicht den alten Müll, der in Zukunft kein compute Shader unterstützt). Auch hier seh ich einen klaren Vorteil für AMD, weil man für Komplett-PCs deutlich früher mit DX11 am Start sein wird. Die meisten Karten werden doch komplett mit PCs und nicht seperat verkauft.

Unabhängig davon glaub ich auch, dass Nvidia AMD in Punkto Performance klar schlagen wird. Aber erfolgreicher wird AMD sein, weil sie für die allermeisten Karten kein extremes "Downsizing" betreiben müssen. Deshalb auch mehr Gewinn pro Chip machen können.
18.) derMerc 06.05.2009 - 23:26 Uhr
Sieht ganz danach aus als will Nvidia mit dem GT300 Ernst machen und nicht wie Ati einen billig zu produzierenden Chip im Performance Segment billig anbieten.

Wenn die Daten stimmen kann man sich auf einen knapp 500mm² Chip einstellen, der die Radeon HD5870 leicht schlagen wird. Die X2 Version kann dann nur konkurieren, wenn Ati die Mikroruckler in den Griff bekommt.

Der RV870 ist wohl der letzte Chip der die R600 Architektur verwendet, ich bin sehr gespannt wie die neue Architektur aussehen wird. Weiß jemand hier schon ein wenig darüber?
17.) CaptainCosmotic 06.05.2009 - 18:15 Uhr
Sollt der GT300 zu stark sein für ATI dann muss sie die HD5870 für 250€ anbieten. Die anderen Grafikkarten werden kaum billiger werden und unattraktiv. aber eine HD4870 für 100 € wäre das absolut unterste Ende.
16.) Bulldozer 06.05.2009 - 16:25 Uhr
Undergroundking:
tja, ob nvidia damit glücklich wird? so wirklich glaub ich das nicht, immerhin hat man sich ja vom chefdesigner der monsterchips, kirk, getrennt.
die zeiten sind vorbei, in denen viele leute gerne 500-600€ für ne graka ausgegeben haben.
ich denke ati macht es richtig und mit ner 5870 für 250€ wird man eher den zeitgest getroffen haben.


Die Kunden werden trotzdem die 500 € Karten kaufen, für viele Kunden ist ATI nicht Nvidia! viele wollen einfach nur Nvidia und nur Nvidia, auch wenn eine ATI gleiche Leistung bringt.

Wo steht den das die HD5870 für 250 € haben zu sein wird? Ich denke eher das werden 300-350 €, ATI kann doch nicht die HD4890 für 150 € anbieten? und was wird aus der HD4870, wird man dann diese für 99 € anieten????
15.) Undergroundking 06.05.2009 - 15:42 Uhr
tja, ob nvidia damit glücklich wird? so wirklich glaub ich das nicht, immerhin hat man sich ja vom chefdesigner der monsterchips, kirk, getrennt.
die zeiten sind vorbei, in denen viele leute gerne 500-600€ für ne graka ausgegeben haben.
ich denke ati macht es richtig und mit ner 5870 für 250€ wird man eher den zeitgest getroffen haben.
14.) hmd 06.05.2009 - 15:09 Uhr
Was man verlangen kann, bestimmt der Mitkonkurrent auf dem Markt. Die Frage ist nicht wie schnell der Chip sein wird, die Frage ist, wie schnell ist er realtiv zum Preis ist.
Angenommen man bekommt 50-70% mehr Leistung mit der zukünftigen Generation, dann werden fast ausnahmslos alle Spiele auch in hohen Auflösungen flüssig laufen. Ist das der Fall, entscheidet fast nur noch der Preis.

Meiner Meinung nach stehen wieder alle Zeichen auf massives Eigentor von Nvidia. ATI wird seine schnellste Single-GPU-Karte auch noch für 200 € gewinnbringend verscherbeln können. Wozu soll der Verbraucher mehr ausgeben wenn man es eh in fast keinem Spiel mehr gebraucht wird. So stark wird man die Grafik nicht mehr verbessern können, als das man aus der Verdoppelung der Grafikleistung visuell wirklich grosses Kapital schlagen könnte.

Beispiel: Angenommen Crysis läuft flüssig auf einem grossen Monitor mit allen Details (vermutlich wird das bei ATI und NVIDA der Fall sein)... wozu 200€ mehr ausgeben, wenn man für bescheidene 5% mehr Grafikqualität, aber fast 80% mehr Rechenleistung benötigt und doppelt so viel zahlen muss. Die Grafikqualität lässt sich ab Crysis nicht mehr so simpel steigern. Sieht man ja auch aus den Vergleichsbildern mit der verbesserten Engine (Unterschiede muss man schon anschreiben, sonst merkt mans nicht). Man benötigt relativ zum Resultat unverhältnismässig viel Rechenpower damit ein wirklich besseres Bild entsteht. Das wiederum kommt den Budget-Karten zu gut, mit denen man auch für wenig Geld extrem gute Grafik in jedem Spiel erhält.

Denke das ist die gleiche Tendenz wie bei den CPUs. Man besitzt für die Normaluser derart viel Power, dass man für fast alle Anwendungen genügend Power zur Verfügung hat. Der Markt für die Highend-Produkte wird immer kleiner weil unsinniger für den Käufer.
13.) Duplex 06.05.2009 - 12:49 Uhr
ich werde mir wen die karte toll ist auf jedenfall 2xGTX380 kaufen , wen die AMDs fast gleichschnell sind dann könnte ich warten
12.) Bulldozer 06.05.2009 - 12:48 Uhr
Ich bin mir sicher das die GTX380 ca. 500-600 € kosten wird, wenn jemand die Karte nicht kaufen kann, könnte man immer noch zu der GTX360 greifen, diese wird bestimmt 100-150 € günstiger
11.) Duplex 06.05.2009 - 11:30 Uhr
nein der GT-300 war bereits viel zu weit entwickelt um ihn kleiner zu gestalten

mal abgesehn das der GT-400 ein neuen entwickler bekommt
10.) Like-That 06.05.2009 - 09:25 Uhr
Hatte Nvidia sich nicht selbst mal geäußert, dass der GT200 der letzte Riesen-Chip wird?
9.) Duplex 05.05.2009 - 23:25 Uhr
warum der G80 vertreter 8800GTX hatte damals auch 550-600€ gekostetn und der ging weg wie warme semmel

daran wird nvidia wohl kaum shceitern , wen AMD ein konkurenzwürdiges produkt rausbringt wie zurzeit GT-200 zu RV770 dann könnte die luft für den GT-300 knapp werden , wen aber lücken wie vom G80/G92 zu RV670 dann kann AMD ne zeit lang warten
8.) Daedalus 05.05.2009 - 23:20 Uhr
Wie schon des öfteren werde ich mich an dieser Stelle wiederum negativ über die Gigantomanie des GT300 äussern. Im Moment versucht NVIDIA zwar ein Leistungsmonster zu kreieren (was definitiv auch gelingen wird) aber die Frage ist wer sich das leisten kann und vor allem will. Ich bezahle doch keine 400€ für eine Grafikkarte, nur um ein Jahr später eine ähnlich leistungsstarke Karte für 150€ kaufen zu können.
Für wissenschaftliches Rechnen ist sowas toll (und da wird "mein" Chef die Karte auch einsetzen), aber der Markt dafür ist einfach noch viel zu klein.
Ich verstehe NVIDIA einfach nicht. Die Yields des GT200 sind einfach mieß, da würde ich doch zumindest erstmal probieren die Größe etwas zu verringern, statt die gleichen Abmaße zu nutzen (was auch beim beim Packaging richtig große Probleme verursacht).
Nee, nee, soviel Sand und keine Fömchen.
7.) eXEC 05.05.2009 - 21:44 Uhr
Nach dem RV670 haben auch alle gesagt, der RV770 wird nur ein aufgebohrter RV670 und wird in der Form keine Chance haben, weil die Nvidias zu stark sind...

Und was ist dabei rausgekommen? Ein finanzieller Unfall seitens Nvidia, die den GT200 nun für 150€ verkaufen müssen, sogar mit mehr Shaderclustern, als ursprünglich geplant.
6.) Duplex 05.05.2009 - 20:14 Uhr
naja wen man bedenkt das der GT-300 ne neue architektur ist und shader der 2generation hat und dann solche zahlen ...


der RV870 ist nur ein weiterer aufgewärmter R600 basierender chip der zwar bestimmt optimiert wurde und verbessert dennoch nicht an einer neuen architektur rankommt


aber kann eigentlich auch gut sein das ich mich hier verschätz und es anders kommt =D , bin eben beeindruckt vom GT-300
5.) Like-That 05.05.2009 - 20:02 Uhr
Man weiß noch nichts genaues, weder über den GT300 noch über den RV870, wie willste da sagen, dass harte Zeiten für Ati anbrechen werden? O.o.
4.) Duplex 05.05.2009 - 19:50 Uhr
es werden harte zeiten anbrechen für den RV870, gibts schon nähere infos zur chipgrösse des GT-300 ?
3.) Weiser 05.05.2009 - 15:37 Uhr
Der GDDR5 der HD 5870(X2) soll ja auch mit 1100-1150 MHz laufen und auch hier tippe ich auf 2 GB (pro GPU).
Würde Nvidia diese GDDR5 verwenden, hätte man eine Bandbreite von 281,6 - 294,4GB/s.
2.) KonKorT 05.05.2009 - 15:10 Uhr
Die Taktraten sind wie erwähnt noch nicht finalisiert. Die 1 GHz waren nur ein theoretisches Beispiel und markieren das Mindeste, was man von GT300 erwarten darf.
Wie viel Takt es letztenendes sein wird, wird nicht nur davon abhängig sein, nach wie viel Bandbreite der Chip lechzt (GT200 ist bspw. überhaupt nicht bandbreitenabhängig), sondern auch, wie es um die Speicherpreise bestellt ist. Bei voraussichtlich 2 GiB wird das nämlich kein günstiges Unterfangen. Da kann ich mir schon vorstellen, dass man gerne auf ein paar Megahertz verzichtet. Aber das ist noch Spekulatius und wird sich schon noch zeigen. ;)
1.) Weiser 05.05.2009 - 15:07 Uhr
Ich glaube, wie schon im Spekulationsforumsthread ( viewtopic.php?f=5&t=3260&start=255 ) erwähnt an einen deutlich höheren Takt als 2000 MHz.
Meiner Meinung nach sind mindestens 2,6 GHz drin, also min. eine Speicherbandbreite von 332,8 GB/s.
Wenn man bedenkt, dass der GT300 mehr als doppelt so viele Shader hat wie der GT200, die dann durch ihre Oragnisation und Effektivität auch noch schneller sind, scheint doch mehr drin zu sein, min. die doppelte Bandbreite einer GTX 285 (kanpp 160 GB/s).
Dies wird nötig, da durch das Streaming bei modernen Spielen immer mehr Daten aus dem VRAM schnell in die GPU kommen müssen.
Daher darf auch die VRAM-Größe nicht zu knapp bemessen sein, und wenn man überlegt, dass es schon jetzt 2GB-Varianten der GTX 285 gibt, galube ich, dass dies mit dem GT300, bzw. mit der GTX 380 standardisiert wird.