Exklusiv: RV770-Spezifikationen gelüftet

AMDTag ein Tag aus werden neue Gerüchte zu sowohl Nvidias als auch AMDs kommender Grafikkartengeneration in die Welt gesetzt. Uns sind nun per Mail sehr glaubwürdige Informationen zum kommenden AMD-Chip aka RV770 zugespielt worden. Es handelt sich dabei um ein vier Tage altes AMD-Dokument, das neben der offiziellen Produktbezeichnung die offizielle Preisempfehlung sowie genaue technische Spezifikationen bereithält. Nachfolgend eine tabellarische Übersicht:

. RV770XT RV770PRO RV770PRO
Handelsname HD 4870 HD 4850 HD 4850 GDDR3
Verfahren 55 nm 55 nm 55 nm
Chiptakt 850 MHz 650 MHz 650 MHz
Shaderdomain 1050 MHz 850 MHz 850 MHz
Speichertakt 1935 MHz 1728 MHz 1143 MHz
Streamprozessoren 480 480 480
TMUs 32 32 32
ROPs 16 16 16
FLOPs (MADD/MUL) 1008 GFlops 816 GFlops 816 GFlops
Texelfüllrate 27.200 MT/s 20.800 MT/s 20.800 MT/s
Speicherinterface 256 Bit 256 Bit 256 Bit
Speichergröße 1024 MiB 512 MiB 256/512 MiB
Speichertyp GDDR5 GDDR5 GDDR3
Speicherbandbreite 123,8 GB/s 110,5 GB/s 73,2 GB/s
TDP 150 W 110 W 110 W
MSPR $349 $269 tba
Release Mai 2008 Mai 2008 tba


Das AMD-Dokument bestätigt zunächst das schon seit längerem Vermutete: So erhöht man beim RV770 die Streamprozessoren von 64-5D auf 96-5D, was im späteren Handel vermutlich als 480 Streamprozessoren angepriesen wird. Weiter wird man die Textureinheiten von 16 auf 32 erhöhen und somit einen der bislang größten Flaschenhälse aus dem Weg schaffen. Um auch die Speicherbandbreite zu erhöhen, wird man - wie bereits angenommen - anders als Nvidia kein 512-Bit Interface verbauen, sondern beim 256-Bit bleiben, dafür jedoch GDDR5 einsetzen. Dies bietet sich bei AMD an, da der Ring-Bus-Controller von vornherein GDDR5-kompatibel war.

Die größte Überraschung, die das Dokument bereithält, ist der zusätzliche Shadertakt. Nvidia spricht bereits seit der GeForce 8-Generation die Shadereinheiten mit höheren Taktraten als den Chip an. AMD folgt nun diesem Muster und erreicht dadurch Taktraten von bis zu 1050 MHz (HD 4870). So kam es dann vermutlich auch in den anfänglichen Gerüchten dazu, dass man von mehr als 1 GHz Taktfrequenz sprach. Hiermit war schlichtweg der Shadertakt gemeint und nicht der Chiptakt, der fast konstant geblieben ist.

Dem Dokument lässt sich weiter entnehmen, dass insgesamt drei Modelle der so genannten HD 4000-Generation erscheinen werden. Neben dem Flaggschiff HD 4870, das mit Taktraten von 850/1050/1935 MHz (Chip/Shader/Speicher) auflaufen wird, wird es die HD 4850 geben. Diese taktet bei Chip und Shader lediglich mit 650- respektive 850 MHz. Der Speicher ist entweder vom Typ GDDR5, dann läuft er mit 1728 MHz, oder vom Typ GDDR3, dann läuft er mit 1143 MHz.

Während die beiden GDDR5-Chips im Mai erwartet werden und zu hochinteressanten Preisen von 349- (HD 4870) respektive 269 US-Dollar (HD 4850) starten, wird die GDDR3-Variante der HD 4850 zu einem noch unbestimmten Zeitpunkt kommen, was sich ebenfalls mit Anfang dieser Woche kursierenden Meldungen deckt.
AMD hat offensichtlich die letzten Monate hart gearbeitet bzw. vermutlich bereits nach dem R600 die Entwicklungen am RV770 aufgenommen. Ausgehend von den vorliegenden, technischen Daten sollte der Chip locker die im Vorfeld versprochenen 40- bis 60 Prozent Performanceboost einhalten.


Kommentar schreiben

  • Loggen Sie sich oben mit ihren Benutzerdaten ein, um Kommentare zu verfassen.
  • Falls Sie noch kein Mitglied sind, können Sie sich in unserem Forum registrieren.

38 Kommentare

38.) Phenocore 24.04.2008 - 15:51 Uhr
Mit einer Skalaren Operation belegst du keine 16 Shader beim G80. Ich weiß echt nicht wie du auf so was kommst. Das ist ja das tolle am G80 und an den SPs. Früher (G70, R580....) war das so, dass man Vektorverarbeitungseinheiten hatte, was dazu führte, dass bei einer skalaren Operation die ganze Vektorverarbeitungseinheit belegt war und somit ineffizient arbeitete. Beim G80 hast du Unified-Shader. Jeder SP kann eine Skalare Operation durchführen und ist damit immer voll auslastbar, (sofern die Grafikkarte nicht an irgend einer anderen Stelle limmitiert) Muss du einen Vektor berechnen, sind an der Berechnung mehrere SPs beteiligt, weswegen auch so viele SPs verbaut werden.
37.) Sophosaurus 24.04.2008 - 12:54 Uhr
Zu den Abhängigkeiten:

RV670 basiert auf 64 skalaren Multi-Operatoren, 770 wird auf 96 solcher voneinander unabhängigen ALUs basieren. Der G80 basiert auf 8 (acht!) ALUs mit je 16 parallell tätigen Operatoren.

D. h. skalar orientierte Operationen sind beim G80 problematisch, weswegen ein erhöhter Shadertakt frühere Verfügbarkeit einer der acht ALUs ermöglicht, die man benötigt, weil jede skalare Operationsfolge gleich 16 Shader belegt, wofür ein Achtel der Gesamtkapazität eingesetzt werden muß.

Deswegen kann ein G80 vergleichsweise globale Effekte enorm schnell darstellen, bricht aber mörderisch ein, sobald eine Mehrzahl komlexer Objekte zu rendern ist. Vorteile des G80 zeigen sich denn auch in Shootern, bei denen keine Spielfigur zu rendern ist, Nachteile in Titeln wie Oblivion oder Call of Juarez, wo schon wenige NPCs den G80 überfordern. Anderes Beispiel CMR DiRT mit maximalen Schatten und mehreren Fahrzeugen, was vom RV670 souverän dargestellt wird, wärend es mit dem G80 zur Slideshow werden kann.

Man darf die Vokabel "unabhängig" nicht falsch verstehen. Jeder Operator einer G80-ALU kann mit eigenen Werten unabhängig von den anderen Operatoren derselben ALU arbeiten, was bedeutet, daß 16 Werte parallell bearbeitet werden können. Setzt man sie skalar ein, hält einer von ihnen bis zu 15 andere auf. ALU-übergreifend lassen sich notwendigerweise keine Operationen skalar abwickeln.

Die fünf Operatoren einer 670/770 sind skalar orientiert und je nach Einsatz voneinander abhängig. Ihre schiere Anzahl ermöglicht, Operationen mehrerer ALUs in Folge ablaufen zu lassen.

G80 = längere, durchaus mächtigere Operationsfolgen mit geringerer Bus- und Cache-Belastung, aber schlechterer Flexibilität.

RV670/770 = kurze, weniger mächtige Operationsfolgen mit hoher Bus- und Cache-Belastung, aber enormer Flexibilität.

Deswegen ist die Situation schon seit dem R600 so, daß ganze kategorien von Games auf dem einen Konzept schneller laufen, wärend andere auf dem anderen aber mindestens ebenso viel schneller sind.

Man durfte sich im letzten Jaht aussuchen, ob man besser damit leben kann, wenn die Karte bei Crysis im Eis einbricht, oder damit, daß sie bei CMR DiRT mit mehreren Fahrzeugen einbricht.

Einen tatsächlichen globalen Leistungsvorsprung gab es nur in der Fantasie der Fans, der Marketing-Leute und der Testfälscher (z. B. Oblivion im First Person View, was den Einbruch des G80 überdeckt).

Wo es keinen Leistungsvorteil gibt, resultiert dieser nicht vorhandene Vorteil natürlich auch nicht aus dem architekturbedingt erhöhten Shadertakt. Hoher Shadertakt bei 96 unabhängigen ALUs ist doch ein bißchen was anderes als bei 8 ALUs.
36.) KodeX 23.04.2008 - 18:20 Uhr
Ja... natürlich ist es sehr erfreulich, dass AMD eine schnelle Single-Core Grafikkarte auf den Markt brngt. Die HD 4870 wird unterm Strich sogar wohl ein wenig schneller als eine HD 3870 X2 sein.
35.) lordZ 23.04.2008 - 14:54 Uhr
Wenn das Ding die schnellste Single-Core Karte am Markt wird, und damit meine ich mit ordentlichen Treibern und ohne diversen bösen Überraschungen, ist das doch mehr als in Ordnung. Die Probleme der Dual-GPU-Karten schrecken halt viele Käufer ab und mich auch. Außerdem sind ja dann auch evtl. Dual GPU Karten mit dem neuen ATI Chip denkbar, welche dann auch die aktuell schnellsten Karten endgültig stehen lassen ;)
34.) KodeX 23.04.2008 - 14:50 Uhr
So schrecklich schnell wird die HD 4870 gar nicht sein. Auch trotz dieser Daten ist die Grafikkarte nicht sehr viel schneller als eine 8800 Ultra und dürfte sich von einer 9800 GX2 schlagen lassen. So schätze ich die Performance in etwa ein.
33.) Luk Luk 23.04.2008 - 14:13 Uhr
Ja mylord, das wurde auch langsam Zeit, dass AMD/ATI endlich mal die Kriegs(-beil-)fertigung ausgräbt!

EDIT: WOW, 33 Posts in weniger als 24 Stunden :D
32.) lordZ 23.04.2008 - 08:18 Uhr
@Luk Luk
Mach dir mal keine Sorgen. nVidia hat seit dem Release der 8800 GTX anno 2006 sicher nicht geschlafen. Nur hätte es zum jetzigen Zeitpunkt kaum Sinn gemacht eine wesentlich schnellere Karte als die 9800 GTX auf den Markt zu bringen.
31.) eXEC 23.04.2008 - 08:15 Uhr
Ein neues Monster ist gebohren und wird wohl ATI mit Abstand an das Podium zurückkatapultieren =)
Die Karte wird alles wegbumsen, was so zu haben ist. Eine 9800 GX2? Pffff!
Der größte Flaschenhals wurde VERDOPPELT, die Streamingprozessoren um 50% erhöht, die Taktfrequenz um 10%, der Speicher um 50%.
Das Ding trau ich mit entsprechendem 45nm Phenom 3 ghz ohne OC mehr als 20000 Punkte bei 3DMark06 zu!
Sollte sich das als wahr herrausstellen, hat AMD endlich den erhoften Erfolg mit ATI.
Und noch besser: Die Treiber! Da hier keine völlig neue Generation auf dem Markt ist, sondern im Prinzip ein extrem überarbeiteter R600, werden die Treiber ähnlich ausgereift sein, wie aktuell der 8.4 bei einer HD3870.
30.) Luk Luk 23.04.2008 - 07:14 Uhr
Das ist ja ein Monster...
Also was nVidia dem entgegensetzen will, da bin ich ziemlich gespannt!
Zum Thema GDDR5:
Heißt das 2x 1935MHz? WOW knapp 4GHz Speichertakt.... Das ist ja mal "etwas" mehr als die aktuelle DDR3 Generation! Geil, hätte ich das Geld, würde ich sie mir holen^^
29.) Phenocore 23.04.2008 - 02:51 Uhr
Sophosaurus:
Es gibt eine Ausnahme: Wenn Shader voneinander abhängig arbeiten, sodaß sie z. T. aufeinander warten müssen. Dann, und nur dann, kann es sinnvoll sein, den Shadertakt anzuheben, um die durchschnittliche Auslastung des Frameworks zu verbessern. Das ist m. W. beim G80 der Fall, aber nicht beim R600, oder seinen Nachfolgern. Anheben des Shadertaktes ist eine Alternative zur Erhöhung der Anzahl, und nutzt nur dann etwas, wenn die Parallelisierung architekturbedingt nicht weit fortgeschritten ist.


Bei G80/G92 arbeiten die Shader nicht abhängig von einander. Jeder Streamprozessor kann kann jede beliebige Funktion ausführen. Beim R600/RV670 ist dagegen eine abhängig vorhanden. Den beim R600/RV670 können vier Streamverabeitungseinheiten (SPUs) alle Operationen eines Vektors berechnen. Aber nur der 5-te kann Sonderfunktionen berechnen. Die 5 SPUs sind jeweils in einer Shadereinheit zusammengefasst, weswegen man bei 320 SPs auch oft von 64 5D Einheiten spricht.

Natürlich erscheint es auf den ersten Blick blödsinnig die Shaderanzahl zu erhöhen und dann auch noch gleichzeitig den shadertakt aber den Rest des Kerns scheinbar zu vernachlässigen. Allerdings wissen wir doch gar nicht, was an dem Kern im Detail verändert wird. Den Kern kann man ja wie gesagt anpassen. Und was bei G80 klappt, kann doch auch beim R600 klappen. Alle deine Bedenken bezüglich des zu hohen Shadertaktes könntest du genauso beim G80 bringen. Und nicht nur da. Auch wurde vom G80 zu G92 das shader zu chiptakt Verhältniss von 2,4 auf 2,5 erhöht, obwohl man weniger ROPs verbaut hatte.

Versteh mich nicht falsch. Ich will jetzt nicht beweisen, dass die Angaben unbedingt stimmen. Das ist mir relativ egal. Ich will hiermit nur sagen, dass deine Argumenation zwar auf den ersten Blick schlüssig erscheint, aber beim genauen hinschauen und dem Vergleich mit dem G80 einfach nicht greift, auf unbestätigten Annahmen beruht und teilweise sogar falsch ist, wie die Behauptung, dass die Shadereinheiten des R600 unabhängiger wären als beim G80.
28.) Sophosaurus 23.04.2008 - 02:04 Uhr
Je mehr Shader-Operationen pro Sekunde stattfinden, desto größer werden die Anforderungen an den Ringbus, die Caches und Pipelines.

Erhöht man die Anzahl der Shader, müßte man entsprechend die Arbeitsgeschwindigkeit der Pipelines, Caches, und des Bus erhöhen. Erhöht man dann auch noch den Shadertakt, steigert man damit diese Geshwindigkeitsanforderungen. Deswegen kann man theoretisch den Coretakt erhöhen, ohne den Shadertakt anzuheben, aber nicht umgekehrt. Es gibt eine Ausnahme: Wenn Shader voneinander abhängig arbeiten, sodaß sie z. T. aufeinander warten müssen. Dann, und nur dann, kann es sinnvoll sein, den Shadertakt anzuheben, um die durchschnittliche Auslastung des Frameworks zu verbessern. Das ist m. W. beim G80 der Fall, aber nicht beim R600, oder seinen Nachfolgern. Anheben des Shadertaktes ist eine Alternative zur Erhöhung der Anzahl, und nutzt nur dann etwas, wenn die Parallelisierung architekturbedingt nicht weit fortgeschritten ist.

Alles unter dem Vorbehalt, daß wir in die internen Abläufe kaum wirklich Einblick bekommen. Es gibt aber eine Reihe von User-Experimenten, die einige Aussagekraft haben. Man weiß, daß ein R600 bei abgesenktem Speichertakt kaum langsamer, ein RV670 aber mit zunehmendem Speichertakt eins zu eins schneller wird. D. h. Schon der RV670 hatte Mühe, seine Shader auszulasten, weil die Speicherbandbreite und das Framework limitierten. Das wird bei mehr Shadern erst recht der Fall sein. Ein Framework bei 650 MHz und 480 SPs wäre vermutlich hoffnungslos überlastet, selbst wenn man die Shader nicht höher takten würde. Taktet man sie aber höher, stellte sich die Frage, warum man ein Framework dieser Strukturgröße so niedrig takten sollte. Für den Shadertakt braucht es die entsprechende Versorgungsspannung doch sowieso, sodaß man mit dem niedrig getakteten Framework nicht mal Strom sparen kann. Zumal die Shader-Arrays m. W. nur unter Last aktiv werden, was einen Teil der Energiesparfunktionen ausmacht, soweit nicht die ganze GPU heruntergetaktet wird, um die Spannung absenken zu können, was aber erst passsiert, wenn so viele Shader abschalten, daß im Framework Leerlauf vorherrscht. Wer sein Framework dynamisch heruntertaktet, hat doch keinerlei Grund dazu.

Zuguterletzt: unterschiedlich getaktete Einheiten können bei großen Strukturgrößen helfen, hohe thermische Belastungen zu vermeiden, sofern die Speicherbandbreite ohnehin begrenzt ist. Das aber sind alles typische G80-Probleme, die es bei der Radeon 4000 doch gar nicht geben kann.

Wenn ich mich mit all dem irren sollte, gestehe ich gern ein, daß mein technisches Verständnis von vorgestern ist, und ich altersbedingt zum überforderten Laien wurde. Versprochen!
27.) Phenocore 23.04.2008 - 01:19 Uhr
Sophosaurus:
Ich zweifle ja auch an den anderen technischen Angaben. Mit mehr Shadern und hoher Bandbreite wird der Core-Takt zum Flaschenhals, und nicht der Shadertakt. Würde man den Shader-Takt und die Shader-Anzahl zugleich erhöhen, käme das Framework nicht mehr nach. Wozu soll man den Core-takt unter dem Shadertakt lassen? Zumal der Core mit diesen läppischen 200 MHz recht gut zurechtkommt.


Das Framework könnte man ja entsprechend anpassen. Die ganzen Caches auf dem Die brauchen sicher nicht mit dem hohen Takt zu laufen. Die ganze GeForce 8-er (und 9-er) Serie macht doch das ganze mit dem höher getaktetem Shader vor.
26.) Sophosaurus 23.04.2008 - 00:21 Uhr
Was ein Hersteller mit GDDR3 macht, wird nicht unbedingt automatisch von einem anderen Hersteller mit GDDR5 genauso gemacht. Es gibt sicher so einige, die sich die X2 gern mit GDDR4 zugelegt hätten, oder die 3870 mit 1024 MB. Die werden aber doch auch nicht gebaut. Letzteres liegt daran, daß ATI seit Einführung des RV670 auf ein 256bit Speicherinterface setzt. Damit wäre der Gesamtaufwand eines neuen PCBs in relativ kleiner Stückzahl zusammen mit teurem GDDR4 oder GDDR5 recht hoch. Mit einem 512 bit Interface kann man leicht den doppelten Speicher verwirklichen.

Ich zweifle ja auch an den anderen technischen Angaben. Mit mehr Shadern und hoher Bandbreite wird der Core-Takt zum Flaschenhals, und nicht der Shadertakt. Würde man den Shader-Takt und die Shader-Anzahl zugleich erhöhen, käme das Framework nicht mehr nach. Wozu soll man den Core-takt unter dem Shadertakt lassen? Zumal der Core mit diesen läppischen 200 MHz recht gut zurechtkommt.

Noch fragwürdiger sind diese absurd niedrigen Taktraten der kleineren Modelle. Warum sollte man die mit 650 MHz betreiben? Ich glaub, ich mach jetzt auch mal so ein Original-AMD-Dokument. Nein wirklich, wenn das echt ist, fress ich 'nen Besen. Aber OK, THG hat ja auch schon CPUs gebencht, die nie gebaut wurden. warum also nicht...
25.) KodeX 22.04.2008 - 23:48 Uhr
Stimmen diese Werte, so sollte die HD 4870 knapp 19 Prozent schneller als eine 8800 Ultra sein - so zumindest habe ich es errechnet. Die HD 4850 GDDR5 würde ca 1 Prozent schneller als nVidias 8800 Ultra rendern während die GDDR3-Variante ungefär 10 Prozent langsamer als erstere sein wird und sich wohl auf 8800 GTX Niveau bewegt.

Verglichen mit einer HD 3870 bedeutet das einen 59 prozentigen Performance-Sprung (bei einer HD 4870). Die HD 3870 liegt außerdem 35 Prozent hinter einer HD 4850 GDDR5, sowie 22 Prozent hinter einer HD 4850 GDDR3.

Diese Werte ergeben zumindest meine Berechnungen, die der Wirklichkeit oftmals sehr Nahe kommen. Ich bin gespannt, wie die Performance tatsächlich ausfallen wird.
24.) lordZ 22.04.2008 - 21:54 Uhr
Ja hier muss man wirklich sagen Sophosaurus hat hier wirklich überdurchschnittlich gutes Insider-Wissen am Start. Ob das nun eine Ente ist oder nicht werden wir sicher in den kommenden Tagen erfahren!
23.) KonKorT 22.04.2008 - 21:07 Uhr
@Sophosaurus
Über deine Aussagen zur HD 3870 ließe sich ebenso gut diskutieren, aber will an dieser Stelle keine neue Diskussion anreißen. Ggf. einen neuen Thread starten.

PS: Vielen Dank für Post 20! ;)
22.) Phenocore 22.04.2008 - 21:05 Uhr
@20) Sophosaurus:
Es gibt doch auch eine GeForce 8800 GT mit 1024MB und zwar mit doppelt so vielen Chips wie auf der Standard 8800 GT. So viel teuerer war aber die 1024MB Version nicht, wie du von einem PCB-Umbau erwartest...

Wenn ich das richtig verstanden habe, hälst du selber auch die 1935Mhz mit großen Chips für realistisch.

Wenn ich mir also die beiden Möglichkeiten anschaue, dann sind beide denkbar.

---

Übrigens war die Geforce 9800 GTX zum Start mit einem UVP von 300 US-Dollar angegeben. Eine HD4870 mit dem hohen shadertakt und erhöhter Texelfüllrate mit Start UVP von 349 US-Dollar halte ich für realistisch. Ich denke die HD4850 wird einen guten Preis-Leistungsverhältniss haben. Die HD4870 wir denke ich mal etwas teuer, solange es keine 9900 GTX oder ähnliches gibt.
21.) Sophosaurus 22.04.2008 - 21:00 Uhr
Ach ja... nicht falsch verstehen! Ich bin mir schon ziemlich sicher, daß da wirklich geile Karten auf uns zu kommen. Ich bezweifle nur, daß die viel höher als 1500 MHz takten werden, glaube nicht daran, daß eine Shaderdomain mit höherem Takt was bringt, und rechne nicht mit einer 1024Mb-Version. Gut werden die trotzdem. Meine HD3870 ist ja schon besser als sie so mancher Testfuzzie darzustellen versucht. Gegen eine GTX oder Ultra würde ich sie nicht tauschen.
20.) Duplex 22.04.2008 - 20:51 Uhr
gerade bei AMD würde ich mich von grossen zahlen net blenden lassen
sowas kenn ihc alzugut von der HD 2900Xt die aufn papier deutlich vor ner 8800Ultra ist und dann net mal an der 8800GTS knabbert
19.) Sophosaurus 22.04.2008 - 20:50 Uhr
Warum keine 1024MB. Es gäbe zwo Möglichkeiten. Zum einen mehr Chips und damit ein weit aufwendigeres PCB zu entwickeln, was bei ATI sehr unwahrscheinlich ist, da man die Kosten durch ein einheitliches PCB in großer Stückzahl niedriger hält. Über 70% der ATI-Karten werden bei PcPartner gefertigt, zum größten Teil mit dem Brandname Sapphire versehen, ansonsten an andere Retailer weitergegeben, die nicht viel mehr daran verändern als das BIOS und den Kühler.

Der andere Weg setzt voraus, bei der gegebenen Packungsdichte mit diesen Frequenzen chipinternes Übersprechen, und thermische Konzentrationen gut genug in den Griff zu kriegen, daß die Chips durch die Endkontrolle kommen.

Samsung hat tatsächlich einen 3000 MHz schnellen Chip angefertigt. Einen. Dazu mußte eine Serie produziert werden, die mehr als 99% Ausschuss lieferte. Zum Vergleich: GDDR4 wurde mit 2000 MHz angekündigt. EINEN solchen Chip hat man gebaut. In der Serienfertigung blieb es bei 1200 MHz. Man arbeitet an einer Front, den Takt zu erhöhen, und erst wenn man das im Griff hat, kann man versuchen, die Dichte zu erhöhen, und größere Chips zu bauen.

BTW bei Qimonda blicke ich sowieso nicht durch, weil die zum einen Ende letzten Jahres Muster versand haben wollen, zum anderen aber weder Taktfrequenzen, noch Serienbezeichnungen angeben können, und seltsamerweise unter ihrer eigenen Meldung per Disclaimer anmerken, daß es sich um eine ungesicherte Prognose handelt, deren zukünftige Verwirklichung ungewiss sei.

Bei Samsung gib es einen Katalog, technische Daten, Serienbezeichnungen, und einen Liefervertrag mit ATI, weswegen deren Darstellung überzeugender ist, als was man von Hynix oder Qimonda hört.

Und letztlich: Wenn Information durchsickert, dann nicht von AMD, weil das die letzten sind, die was erfahren, oder was durchblicken lassen könnten. Die haben ja nicht mal wirklich Mitspracherechte. Entschieden und gefertigt wird bei PcPartner in China, konzipiert und kontrolliert bei Sapphire in Hong Kong. AMD wird nicht mal gefragt.
18.) Phil123 22.04.2008 - 20:35 Uhr
im september hoffe ich wir die 4870 in meinem rechner laufen und ich hoffe der dollarkurs wird noch niedriger da ich sie mir aus den usa besorgen lasse udn ich hoffe schon einen großen schub gegenüber der 3870

phil
17.) Sennahos 22.04.2008 - 20:30 Uhr
@commanderLuca-
vergleiche mal die texelleistung mit karten der vorserie ;) , dann wirst feststellen wie viel prozent mehr davon nun verbaut wird. Und was damit schon möglich war. An Nvidia´s Texel Leistung kommt es lange nicht ran, aber da die Architektur sowieso anders agiert, sollte gerade dieses Upgrade wunder wirken
16.) lordZ 22.04.2008 - 20:23 Uhr
Achso, ist ja kein Prob. Ich dachte, Sophosaurus hat sich verlesen. Na dann sind die 1935 MHz doch absolut realistisch! Und warum bitte sollten 1024MiB nicht möglich sein? 2x 512MiB = :roll:

Einen brutalen Sprung muss sie doch garnicht machen. Wenn das Ding in der Single Core Variante schon so schnell ist wie die aktuellen Dual-GPU Karten (und nicht lächerlicher Weise dann erst wieder mit anderen Kinderkrankheiten daher kommt) dann gibts doch endlich ein Produkt, dass man uneingeschränkt kaufen und empfehlen kann! Und falls die dann sogar noch einen Hauch schneller wäre - Top! :)

/edit: Da war ich doch etwas zu optimistisch. Wenn man sich ein Performancerating zwischen einer 3870 und einer 3870 X2 anschaut - das ist schon ein massives Leistungsplus (zumindest in manchen Games). Da bin ich auch eher skeptisch ob sowas möglich ist. Egal - man darf gespannt sein was kommt! Und ich lasse mich gerne positiv überraschen. Besonders jetzt von AMD ;)
15.) Duplex 22.04.2008 - 20:14 Uhr
ich traue der karte trotzdem keinen brutalen sprung an
hoffe ich zwar damit die konkurenz belebt wird aber bisle mehr shader und texelleistung hiftda net besonderst

sind ja net viele stream gpus mehr
14.) KonKorT 22.04.2008 - 20:10 Uhr
@Sophosaurus

Die Informationen stammen, wie auch in der News erwähnt, von einem vier Tage alten AMD-Dokument. Folglich kann man stark davon ausgehen, dass die Daten den Tatsachen entsprechen. ;)
Wie bereits in der verlinkten News von Phenocore geschrieben, soll bis Mitte 2008 - und das ist Mai so ziemlich - die Massenfertigung beginnen. Dort ist sogar von bis zu 2,5 GHz die Rede.

@lordZ
In den ersten Minuten hatten wir bei Speichertakt 1985 MHz stehen. Es sind jedoch 1935 MHz, ein kleiner Tippfehler, der schon einmal unterlaufen kann, wenn man über 50 Zahlen in eine Tabelle packt. ;)
13.) lordZ 22.04.2008 - 19:55 Uhr
und warum 1985 MHz?
12.) Phenocore 22.04.2008 - 19:54 Uhr
Verstehe ich nicht ganz. Es wurde doch schon GDDR5 mit 2,5 Ghz angekündigt.

http://www.heise.de/newsticker/Hynix-GD ... dung/99035
11.) Sophosaurus 22.04.2008 - 19:43 Uhr
Eine Ente. Es gibt keine GDDR5-Chips für 1024MB. GDDR5 wird mit 1600, 1800, 2000 MHz geliefert, wobei höchst unwahrscheinlich ist, daß jemand die teuerste Serie verbaut, und wenn, dann ganz sicher nicht mit 1985 MHz, also 15 MHz unter dem absoluten Maximum. Zum Vergleich: GDDR4 wird auf der HD3870 bei einem Maximum von 1200 Mhz mit 1126 MHz getaktet.

Dazu passen die fantasievollen Bezeichnungen und der Quatsch mit der Shaderdomain. Bevor man solchen Unfug kolportiert, sollte man sich doch mal bei den Speicherherstellern erkundigen, was derzeit technisch geht, und was nicht.

EDIT:

Pardon, ich las 1985, offenbar brauch ich 'ne Brille.

Nachtrag: Samsung hat als bisher einziger Anbieter GDDR5 im Katalog, allerdings nur bis 512 MB und mit maximal 2000 Mhz. Ankündigen kann man ja viel. Auch Samsung hat schon 3000 MHz angekündigt, bloß eben, in Serie gibt es das noch nicht. Hynix hat ja selbst GDDR4 bisher nicht mit 1024MB im Programm, und derzeit keine laufende Produktion für GDDR5, Qimonda hat nur die Spezifikationen fertig und liefert m. W. noch gar nichts. Es muß also Samsung sein, die ja auch als einzige bisher fertige Muster an ATI und Nvidia versand haben.
10.) lordZ 22.04.2008 - 19:00 Uhr
Das freut mich wirklich sehr. Ich gönne es AMD wirklich. Und vor allem gönne ich es mir selbst, denn die letzten Jahre am Grafikkartensektor waren für mich die reinste Verzweiflung. Als ich noch Schüler war, kauft ich mir ums hart ersparte Geld eine Grafikkarte und wenige Monate später war schon die nächste und wesentlich schnellere Generation verfügbar. Jetzt als Angestellter hab ich mal ein wenig mehr Geld zur Verfügung, aber seit 2006 ist die GF8-Serie quasi Referenz. :(

Gruß,
lordZ

PS: Fudzilla oder The Inquirer als Quellenangabe sagt ja zumindest auch was aus. Man wird immerhin über die mitzubringende Skepsis informiert! :D
9.) KonKorT 22.04.2008 - 18:54 Uhr
Es ist in eigener Quelle, daher keine Angabe. Du kannst Dir sicher sein, dass dies glaubwürdiger ist als wenn unten drunter Fudzilla oder The Inquirer stände. Da haben wir nämlich die Informationen nicht selbst überprüfen können, hierbei schon.
8.) lordZ 22.04.2008 - 18:53 Uhr
Ich hoffe es zumindest! ;)

Bei News ohne Quellengabe sollte man aber trotzdem immer ein klein wenig skeptisch bleiben! :D
7.) KonKorT 22.04.2008 - 18:50 Uhr
Die Quelle ist geheim. Du kannst mir aber glauben, dass sie sehr, sehr glaubwürdig ist.
6.) lordZ 22.04.2008 - 18:46 Uhr
Vom wem/wo ist natürlich geheim? :D
5.) KonKorT 22.04.2008 - 18:45 Uhr
Ja, rund 300 bis 320 Euro.

Der RV770 wird durch den separaten Shadertakt noch einmal ein gutes Stück schneller als gedacht. Bin sehr überrascht, habe erst eben das Dokument zugespielt bekommen.
4.) lordZ 22.04.2008 - 18:44 Uhr
Erfahrungsgemäß hat der Doller Kurs aber für uns - leider - kaum Auswirkungen auf große Teile des IT-Bereichs. Über 300€ werden es deshalb anfangs auf jeden Fall sein. Es sein denn, die $ werden vor dem Release nochmal nach unten korrigiert.
3.) dmo60 22.04.2008 - 18:41 Uhr
bei dem derzeitigen dollarkurs tippe ich eher auf einen preis knapp über 300€
verfügbarkeit vorausgesetzt natürlich
2.) lordZ 22.04.2008 - 18:38 Uhr
Klingt schonmal gut. Auch wenn man über die Leistung in der Praxis jetzt noch nichts sagen kann, gehe ich bei der Preisankündigung von $349 auch von einem Preis von ca. EUR 350,00 aus. Das wiederum ist ja eigentlich recht hochpreisig für aktuelle Verhältnisse, was für AMD nur Sinn macht, wenn eine entsprechende Performance geboten wird! Drücken wir AMD die Daumen!
1.) Sennahos 22.04.2008 - 18:30 Uhr
jaaa das ist ne karte, sehr erferulich