ATi Radeon HD 2950 XT mit 528 GigaFlops

AMDNachdem wir von AMDs kommender HD 2950 X2X, bei der zwei HD 2950 XT Cores auf einem DIE untergebracht sein sollen, berichten konnten, dass sie eine Shader-Performance von 960 GigaFlops haben soll, können wir nun auch die Leistung einer einzelnen HD 2950 XT einschätzen. Der RV670 soll eine Shader-Leistung von 528 GigaFlops mit sich bringen. Somit ordnet er sich zwischen einer GeForce 8800 Ultra (576 GigaFlops) und einer GeForce 8800 GTX (518 GigaFlops) und vor einer Radeon HD 2900 XT (474 GigaFlops) ein.

Der Chip der Radeon HD 2950 XT wird mit 825 MHz angesprochen, während der Speicher mit unglaublichen 2400 MHz (effektiver Takt) takten wird. Aber nicht nur die Taktraten, sondern auch die Architektur hat einige verbessernde Schliffe bekommen. So sollen die 320 Streamingprozessoren des RV670 gleich zwei Aktionen gleichzeitig ausführen können. Dass AMDs neuer Direct3D10-Grafikbeschleuniger trotzdem nur unwesentlich schneller als der R600 sein wird, mag größtenteils daran liegen, dass ein nur 256-Bit breites Speicherinterface verbaut wird.

Warum AMD dem RV670 nur ein halb so großes Speicherinterface zur Verfügung stellt, hat mehrere Gründe. Zum einen möchte man den Chip für 249 US-Dollar in den Handel bringen. Zum anderen wäre ein 512-Bit Speicherinterface kaum tragbar - die HD 2900 Pro ist eine "defekte" HD 2900 XT und allein deswegen lohnenswert. Zwar ist dieses in der Praxis schneller als ein 256-Bit Speicherinterface, nicht aber so viel schneller, dass es ansatzweise den Mehrpreis auffangen würde. Schlussendlich sollte Berücksichtigung finden, dass die Kanadier den RV670 von vornherein so konzipiert haben, dass er sich auch als Dual-Package Lösung eignet. Dass dafür, um den Chip weiterhin rentabel zu machen, Einheiten/Features gestrichen werden müssten, war abzusehen.


Kommentar schreiben

  • Loggen Sie sich oben mit ihren Benutzerdaten ein, um Kommentare zu verfassen.
  • Falls Sie noch kein Mitglied sind, können Sie sich in unserem Forum registrieren.

20 Kommentare

20.) Luk Luk 13.10.2007 - 21:48 Uhr
Also doch fast gar keine Einsparungen! Außer beim extra Design einer Dual-Core GPU.
19.) Phenocore 13.10.2007 - 20:55 Uhr
Alle Stromeinsparungen vom Dual-Core auf einem DIE zum Dual-Core auf einem Package würden im Bereich der Mess- und Herstellungsungenauigkeit liegen.

Es sei den, man macht ein Redisign. (Man verwendet zum Beispiel einige "Bauteile" nur einmal trotz zwei Cores. ZB. nur einen gemeinsamen L2-Cache statt zwei verschiedener Cache beim Core 2 Duo womit man die Cachegröße effizienter nutzen kann oder man verwendet nur einen Speichercontroller und nicht etwa zwei beim Athlon 64 X2)
18.) Luk Luk 13.10.2007 - 18:44 Uhr
KodeX:
Die Transistoren sind ja nicht die einzigen Elemente die Strom ziehen xD...

Beispiele?
17.) KodeX 13.10.2007 - 12:59 Uhr
Die Transistoren sind ja nicht die einzigen Elemente die Strom ziehen xD...
16.) Luk Luk 13.10.2007 - 01:47 Uhr
Hmm klingt logisch, aber warum wird weniger Energie verbraucht, obwohl dieselbe Menge an Transistoren benutzt werden?
15.) KodeX 13.10.2007 - 01:26 Uhr
jeder DIE hat auch eine eigene Fläche, die größer ist, als die des Cores, der auf ihm sitzt. Sind nun zwei Cores auf einem DIE ist insgesamt weniger DIE-Fläche da, als wären zwei Cores auf zwei DIEs
14.) Luk Luk 12.10.2007 - 23:57 Uhr
Hmmm versteh ich jetzt nicht. Wo ist denn da der Unterschied? Wir haben eine Situation.... Ein Core verbraucht 100mm² an Fläche, wo ist der Unterschied ob 2 Cores in einem DIE (200mm²) oder 2 direkt nebeneinander(links 100mm², rechts 100mm²) "saugen"? Gut, dass mit der Übertragung zwischen den Cores ist ja klar. Erklär mir das (erste) bitte mal näher.
13.) KodeX 12.10.2007 - 22:13 Uhr
Nein. Eben nicht. Ein DIE mit zwei Cores saugt definitiv weniger Strom als zwei DIEs mit jeweils einen Core. Natürlich saugen beide Cores gleichviel Strom, aber auch jeder DIE saugt einzelnd Strom. Außerdem wird keine Energie für die aufwendige Übertragung von DIE zu DIE verwendet...was erstens schneller ist und zweitens weniger Strom benötiogt.
12.) Luk Luk 12.10.2007 - 16:41 Uhr
KodeX:
Wenn zwei Cores auf einem DIE untergebracht sind, ist der TDP deutlich gesänkt, da nur ein DIE Strom saugt... und nicht zwei...


Dies ist wiederum relativ, denn wenn die doppelte Anzahl an Transistoren verwendet wird (egal ob ein oder zwei DIE), dann brauchen sie auch (fast) das doppelte an Ampére, also fast doppelt so viel Strom für den Betrieb. Eine DIE saugt Strom für 2 ;)
11.) KodeX 12.10.2007 - 15:11 Uhr
Wenn zwei Cores auf einem DIE untergebracht sind, ist der TDP deutlich gesänkt, da nur ein DIE Strom saugt... und nicht zwei...
10.) Luk Luk 12.10.2007 - 13:58 Uhr
Wo ist das Problem? Dann isses halt ein Multi-Multicore.
9.) Phenocore 12.10.2007 - 11:57 Uhr
Irgendwie scheint ihr mein Einwand nicht ganz zu verstehen. Eine Grafikkarte ist bereits ein Multicoreprozessor. Von einer DualGPU auf einem DIE zu sprechen, ist doch dann nicht wirklich sinnvoll.
Deswegen bin ich weiterhin der Meinung, dass ATI hier 2 DIEs auf einem Package unterbringen will.

@9) KodeX
Wie soll man dadurch Strom sparen?

@8) Luk Luk:
CPUs waren bisher auch Singlecoreprozessoren. Wenn man zwei davon auf einen DIE packt, hat mein ein Dualcore. Also 2 oder mehr Kerne ist ein Multicoreprozessor. Was Grafikkarten aber schon lange sind.

Nehmen wir zum Beispiel eine GeForce 8800 GTX und GeForce 8800 GTS. Die GeForce 8800 GTX besteht aus 8 Clustern, die ohne die anderen arbeiten können. Einen Cluster kann man somit auch als "Core" bezeichen. Eine GeForce 8800 GTS besteht dagegen nur aus 6 Clustern, weil 2 Cluster oder "Cores" deaktiviert worden sind. Genau so wie AMD zum Beispiel aus einem Phenom X4 einen Phenom X3 machen will, macht nVidia aus einer 8800GTX eine 8800GTS, weil es sich eben in beiden Fällen um ein Multicoredesign handelt.
8.) KodeX 12.10.2007 - 10:51 Uhr
Ich vermute, dass man beide Cores auf einem DIE unterbringt hat hauptsächlich den Grund Strom zu sparen. Ich glaube nicht, dass die Leistung davon stark profitieren wird. Ein wenig vielleicht...
7.) Luk Luk 11.10.2007 - 21:34 Uhr
Die CPU Hersteller alá Intel und AMD haben dasselbe gemacht.
6.) Phenocore 11.10.2007 - 20:00 Uhr
Soll das wirklich auf einem Die untergebracht werden oder auf einem Package?

Früher hat man ja zwei Dies irgendwo auf der Karte platziert und sie durch eine Verbindungsbrücke verbunden. Jetzt sollen die Beiden Dies auf einem Träger (also in einem Package) platziert werden un direkt verbunden werden.

Dualcore GPU auf einem DIE macht doch keinen Sinn, den im Grunde ist eine GPU ein Multiprozessorchip auf einem DIE. Ein Dual-Multiprozessorchip auf einem Die? was soll das sein/bringen? Außerdem wird doch die Ausbeute gerade dadurch gesteigert, dass man zwei kleine Dies baut und sie dann auf einem Package vereint, wenn man mehr Leistung haben will. Man ist dann flexibler.
5.) KodeX 11.10.2007 - 18:43 Uhr
Bisher hatten alle Dual-Grafikkarten beide Chips auf zwei verschiedenen DIEs, welche beide auf der Karte Platz fanden. Dies wird jetzt sozusagen die erste "native Dual GPU"...
4.) Luk Luk 11.10.2007 - 18:12 Uhr
Wikipedia:
"Die (engl. [daɪ] „Würfel, Plättchen“, Plural: dice [daɪs]) ist in der Halbleitertechnik die Bezeichnung eines einzelnen ungehäusten Halbleiterchips. Ein Die wird üblicherweise durch Sägen eines fertig verarbeiteten Wafers gewonnen. [...] Eine Kombination von zwei sich ergänzenden Baugruppen, wie z. B. CPU und Cache auf einem Chip lässt sich mit dem Begriff „on-Die“ umschreiben: Die CPU hat den Cache „on-Die“, also direkt auf dem gleichen Chip, was höhere Taktraten und Busbreiten erlaubt und damit den Datenaustausch deutlich beschleunigt."

Alle Chips (CPU CHIP usw.) werden Die's genannt :)
Folglich hätte die X2 dann 2 Kerne in einem dieser Dies. Der Core 2 Quad hat 2 Dies nebeneinander, mit jeweils 2 Kernen = 4 Kerne / 2 Dies . Phenom: 4 Kerne / 1 Die

EDIT: Wer hat mein Bild geklaut? KonKorT, war was nicht i.O.?
3.) bingomatik 11.10.2007 - 17:34 Uhr
Mal eine Frage : Was ist nochmal ein Die ? Wird hier nicht davon gesprochen eine HD 2950 X2X in einem (PCI-E)Slot unterzubringen ? Wenn ja, dann ist dies mit einem Die gemeint und wenn nein dann weiss ich doch nicht mehr was ein Die ist.
2.) KodeX 11.10.2007 - 16:04 Uhr
Über die Stärke der Architektur lässt sich streiten. Hätte nVidia den Shadertakt nicht vom Chiptakt unabhängig gemacht, wäre der R600 wohl schon wesentlich schneller. Was den RV670 angeht...dieser wird durch seine geringe Speicherbandbreite ausgebremst, vermutlich wäre er schneller als eine 8800 Ultra, wenn die Speicherbandbreite identisch wäre. Das liegt dann wohl an der Änderung der Streamingprozessoren...
1.) Luk Luk 11.10.2007 - 16:00 Uhr
Super Leistung, kommt aber, trotz höheren Taktes nicht and die 8800Ultra ran..... nVidia hat also eine, meiner Meinung nach, starke GPU Architektur, besser als ATI.