Neue Gerüchte: RV670 Dual-Lösung

AMDDas Rätselraten um ATis Antwort auf die 8800 GTX/Ultra geht weiter. Glaubte man lange Zeit, ATi würde im September mit dem so genannten R650, einem in 65nm gefertigten Chip, versuchen, im High-End Sektor wieder Fuß zu fassen, dementierte Fudzilla diese Annahme vor wenigen Tagen. ATi habe gezielt eine Maulwurfsjagd inszeniert, um herauszufinden, wer gegen vorgegebene Verschwiegenheitserklärungen verstößt, so Fudzilla. Darauf konterte das britische Blatt VR-Zone nur einen Tag später und bekräftigte, dass sehr wohl an einem Nachfolgechip des R600 gearbeitet würde, dieser aber erst zu Beginn des neuen Jahres vorgestellt würde. Interessanterweise tauchte in diesem Zusammenhang nicht mehr der Name R650 auf, sondern R680.

Doch kaum hatten sich diese Informationen in den Weiten des WWW verbreitet, erhob Fudzilla erneut Einspruch und bestätigte seinerseits nochmalig, dass es keine handfesten Informationen gäbe, aus denen hervorginge, dass ATi an einem Refresh des R600 arbeitet. Das Chaos also perfekt? Nein, Fudzilla legte heute nochmal kräftig nach. Demnach soll der R700, welcher bislang als Next-Generation Chip der Kanadier gehandelt wurde, auf das zweite Quartal 2008 vorgezogen werden. Der R700 wird der erste Multi-Core Unified-Shader-Chip sein und höchstwahrscheinlich im 55nm Verfahren gefertigt.

Doch um die Übergangszeit bis zum nächsten Jahr nicht kampflos an nVidia abzugeben, soll man an einer RV670 Dual-Lösung arbeiten. RV670, man erinnere sich, soll laut unbestätigten Gerüchten ein ATi-Chip mit einem 256-Bit Speicherinterface werden, der sich - ähnlich wie der aktuelle RV570 - als Puffer zwischen Mid-End- und High-End-Sektor setzt. Durch den Einsatz der 65nm Fertigungstechnologie und reduzierter Komplexität - im Vergleich zum R600 - soll eine Dual-Lösung auch wirtschaftlich gesehen rentabel sein.

Mit zwei abgepeckten Chips gegen nVidias Elitechips? Performancetechnisch könnte man so die Karten der GeForce-Väter sicherlich einholen, wenn nicht gar überholen. Ob man allerdings dem Kunden seine Lösung nahe bringen kann, dass dieser sie als wirkliche Alternative auffasst, ist fraglich. Sowieso sind wir noch nicht hundertprozentig davon überzeugt, dass diese Lösung tatsächlich irgendwann in den Handel gelangt. Schon jetzt sperren sich die Hersteller bei der Realisierung von zwei HD 2600 XT GPUs. Auch dürften für ATi die Margen relativ gering ausfallen; vergleichbar mit dem AMD 4x4 Projekt, mit welchem man auch um jeden Preis mit Intel performanctechnisch gleichziehen wollte, dabei aber den wirtschaftlichen Gesichtspunkt völlig aus dem Visier verlor.


Kommentar schreiben

  • Loggen Sie sich oben mit ihren Benutzerdaten ein, um Kommentare zu verfassen.
  • Falls Sie noch kein Mitglied sind, können Sie sich in unserem Forum registrieren.

12 Kommentare

12.) UltraXFX-92 11.06.2007 - 19:37 Uhr
In Call of Duty 2 bei 1280x1024 4xAA/16xAF ist die 640-MB-Version 54% schneller als die 320-MB-Version!

In Company of Heroes bei 1280x1024 4xAA/16xAF ist die 640-MB-Version 51% schneller als die 320-MB-Version!

In Splinter Cell 3 bei 1280x1024 ist die 640-MB-Version 22% schneller als die 320-MB-Version!

In F.E.A.R bei 1280x1024 4xAA/16xAF ist die 640-MB-Version 17% schneller als die 320-MB-Version!

Um nur ein paar wenige Beispiele zu nennen.
11.) Streamline 11.06.2007 - 18:16 Uhr
KonKorT:
Inwiefern stört dich das mit den krummen Angaben; Hauptsache Leistung kommt am Ende heraus und die ist bei nVidia momentan wirklich nicht schlecht. Der Stromverbrauch der nVidia-Karten ist sehr gut, besonders, wenn man es ins Verhältnis zur ATi-Karte setzt und bedenkt, dass die GeForce 8800 GTS/GTX/Ultra noch in 90nm produziert wird. 80nm dürfte den Stromverbrauch schon senken - und das wäre schnell zu realisieren -, ganz zu schweigen von 65nm. ;)


Jop. Wobei ich bezweifle das auf 80nm geshrinkt wird, macht vermutlich wirtschaftlich wenig Sinn. Lieber etwas mehr ausgeben und gleich auf 65nm, die man dann auch in Notebooks verwenden kann, höhere Taktraten ermöglicht oder einfach nur die Kosten reduziert.

Quote:
Großen Speicher schön und gut, in Zukunft wird es auch mehr Gewicht finden, aber mit 320 MB sollte man in Zukunft bei seinen Ansprüchen auch noch relativ gut über die Runden kommen


In 1280*1024 stimme ich dazu. In höheren Auflösungen wird man aber eventuell etwas eingeschränkt.
10.) KonKorT 11.06.2007 - 15:50 Uhr
@ p.a.t.r.o.n

Inwiefern stört dich das mit den krummen Angaben; Hauptsache Leistung kommt am Ende heraus und die ist bei nVidia momentan wirklich nicht schlecht. Der Stromverbrauch der nVidia-Karten ist sehr gut, besonders, wenn man es ins Verhältnis zur ATi-Karte setzt und bedenkt, dass die GeForce 8800 GTS/GTX/Ultra noch in 90nm produziert wird. 80nm dürfte den Stromverbrauch schon senken - und das wäre schnell zu realisieren -, ganz zu schweigen von 65nm. ;)

@ UltraXFX-92

Nun mach dem Lumi25 aber mal keine Angst! :D
Großen Speicher schön und gut, in Zukunft wird es auch mehr Gewicht finden, aber mit 320 MB sollte man in Zukunft bei seinen Ansprüchen auch noch relativ gut über die Runden kommen :)
9.) UltraXFX-92 11.06.2007 - 07:32 Uhr
Lumi25:
Ich brauche aber keine 640MB, denn ich zocke keine Hochauflösenden Ego-Shooter wie Crysis. Ich brauche die Grafikkarte für eine Simulation da dort allmählich auf Texturen umgestellt wird. Hinzu kommt noch, dass ich eine Monitorauflösung von 1280X1024 habe. Für mich reicht daher die 320MB-Variante völlig aus.


Selbst bei 1280x1024 bricht die Karte gnadenlos ein, oder möchtest du kein AA verwenden? In Zukunft wird sich das noch verschlimmern.
8.) p.a.t.r.o.n 11.06.2007 - 00:16 Uhr
Man zu zeit bin ich mit beiden unzufrieden (naja ATI mochte ich schon immer nicht)

Aber nVidia mit hohem Storm verbrach und können die nicht normale zahlen raus bringen wie 1GB ram und 512 bit und nicht diese halb Portionen und der G90 ist nur eine überarbeitete und nicht neue Technologie
7.) Streamline 10.06.2007 - 18:42 Uhr
Lumi25:
Ich entscheide aber nach dem Stromverbrauch und da ist Nvidia eindeutig besser im High-End-Bereich und das nicht erst seit heute.


Real ja, aber Performance/Watt hat früher auch schonmal ATI bessen (z. Z. nicht, ist klar).
6.) Lumi25 10.06.2007 - 13:15 Uhr
@Streamline

Ich entscheide aber nach dem Stromverbrauch und da ist Nvidia eindeutig besser im High-End-Bereich und das nicht erst seit heute.

@Ultra

Ich brauche aber keine 640MB, denn ich zocke keine Hochauflösenden Ego-Shooter wie Crysis. Ich brauche die Grafikkarte für eine Simulation da dort allmählich auf Texturen umgestellt wird. Hinzu kommt noch, dass ich eine Monitorauflösung von 1280X1024 habe. Für mich reicht daher die 320MB-Variante völlig aus.

Dual-Lösungen bei Grafikkarten war noch nie so eine Sache wofür ich mich begeistern konnte ansonsten hätte ich wohl beim Alternate-Angebot zugeschlagen wo es die 7950GX2 für 180€ gab. Außerdem weiß ich ja auch nicht ob die Simulation wo ich bin von einer Dual-Lösung profitiert.
5.) UltraXFX-92 10.06.2007 - 10:00 Uhr
Lumi25:
8900GTS 320MB richtig interessant werden

Wenn es diese geben würde, wäre diese auch uninteressant, da sie zuwenig Speicher hat. Wenn dann schon 640 MB.

Lumi25:
Von daher kann mich der R700 mal kreuzweise selbst wenn dieser im 2 Quartal 2008 rauskäme.
...
Vom RV670 halte ich auch nichts.

Wieso? Hast du schon Benchmarks?

---

Meine Meinung:
NVIDIA hat das Jahr 2007 gewonnen, und ich hoffe das AMD 2008 wieder den Anschluss findet.
4.) Streamline 10.06.2007 - 09:35 Uhr
@4) Lumi25: Der R600 ist in 80nm gefertigt. Der Unterschied zwischen 80nm und 55nm fällt eigentlich noch stärker auf als zwischen 90nm und 65nm.
3.) Lumi25 10.06.2007 - 01:31 Uhr
Mittlerweile ist es mir egal was ATI macht. Der R600 hat im High-End-Sektor völlig versagt. Die 2600XT ist einfach uninteressant da zu schwach.

Zum Weihnachtsgeschäft soll der G90 kommen in 65nm und dann könnte eine 8900GTS 320MB richtig interessant werden wenn der Stromverbrauch fällt.

Zwischen 65 und 55nm dürfte dagegen der Stromverbrauch kaum gesenkt werden von daher kann ich auf den R700 getrost verzichten und was man von den Gerüchten oder Versprechungen seitens AMD/ATI halten kann sieht man ja beim R600 und vielleicht auch K10.

Von daher kann mich der R700 mal kreuzweise selbst wenn dieser im 2 Quartal 2008 rauskäme. Anfang nächstes Jahr wenn der Penryn erscheint werde ich entscheiden ob ich mir einen Wolfdale oder KUMA hole und mir dann eine schöne G90-Grafikkarte für 250€ holen.

Vom RV670 halte ich auch nichts.
2.) Streamline 10.06.2007 - 00:23 Uhr
UltraXFX-92:
Schon wieder ein neues Gerücht, was will man damit erreichen?


Verwirrung, was sonst? :D
NVIDIA kann sich jetzt aussuchen, was AMD macht. Eigentlich optimal, so können Produkte nicht auf den Konkurrenz hin entwickelt werden.
1.) UltraXFX-92 09.06.2007 - 23:12 Uhr
Schon wieder ein neues Gerücht, was will man damit erreichen?

Ich kann doch auch einfach so etwas schreiben, was ich erfunden habe.