AMD demonstriert DirectX 11-Grafikkarte

AMDAMD hat heute Morgen im Rahmen der Computex erstmals öffentlich einen voll funktionsfähigen DirectX 11-Chip demonstriert, indem man mehrere DirectX 11-Demos, die sich poe a poe auch in schlechter Qualität beim Videodienst Youtube einfinden, vorführte. Aller Voraussicht nach handelte es sich dabei um den RV870 aka Evergreen, AMDs ersten, DirectX 11-Chip, der schon vor wenigen Wochen sein Tape-Out erfolgreich gemeistert hat.

Rick Bergman, der die Pressekonferenz führte, betonte, dass erste Grafikkarten noch Ende dieses Jahres im Handel wären und negierte damit auch indirekt Gerüchte, wonach ein Launch noch diesen Sommer erfolgen könnte.

In die Kamera wurde auch ein erster Wafer gehalten, den der TSMC-Chef zuvor symbolisch an den Referenten überreichte. Anandtech hat daraufhin die Anzahl an untergebrachten Chips gezählt und mit dem Wissen, dass es sich um einen 300 Milimeter-Wafer handelt, die ungefähre Chipfläche errechnet.
Demnach war der gezeigte Chip - wie eingangs erwähnt wohl sehr wahrscheinlich RV870 - lediglich rund 180 Quadratmilimeter groß und damit sogar noch einmal ein gutes Stück kleiner als RV770 und RV790, die rund 260 Quadratmilimeter messen.

Dies lässt die Schlussfolgerung zu, dass es sich, wie schon mehrfach berichtet, erneut um einen gut ausgewogenen Chip im Performance-Segment handelt, der aber keinerlei Ansprüche stellt, im High-End-Segment mitzumischen - erst die Dual-Variante könnte hier wieder punkten.
Die vor einigen Wochen publizierten, aber bis dato nicht bestätigten Spezifikationen, die dem Chip 1200 Streamprozessoren, 48 TMUs, 32 ROPs und ein 256 Bit breites Speicherinterface zuschrieben, könnten sich anhand der aufgetauchten Chipfläche bestätigen.


Kommentar schreiben

  • Loggen Sie sich oben mit ihren Benutzerdaten ein, um Kommentare zu verfassen.
  • Falls Sie noch kein Mitglied sind, können Sie sich in unserem Forum registrieren.

15 Kommentare

15.) KodeX 04.06.2009 - 08:40 Uhr
@ VinD: Ich habe auch nie bezweifelt, dass es ne GTX 395 und 375 geben könnte, kannst die Karten ja gerne nachtragen :-P. Die kleine Excel-Tabelle (Punktesystem in etwa nach aktuellsten CB-Test geeicht) soll ja auch nur einen groben Überblick über das, was uns erwartet geben. Das Funktionsprinzip ist aber logisch: Man entwirft ein Punktesystem, welches momentane Grafikkarten in (nahezu) richtiger (Performance-)Reihenfolge einordnet und dann kann man kommende Grafikkarten recht gut simulieren - vorrausgesetzt diese haben die gleiche Architektur. Das hat bei in der Vergangenheit immer recht gut funktioniert und die Ergebnisse waren oftmals sehr präzise :-P.
14.) VinD 03.06.2009 - 19:32 Uhr
@6) Duplex:
http://www.pcgameshardware.de/screensho ... 46d0_o.jpg <-- hier ein Bild, aber Viel erkennt man nicht

Ich hoffe das ATI und NVIDIA gleichauf sein werden, wenn einer besser ist gibts nur wieder knatsch^^

@9) Kodex: ich denke da wirds noch ne GTX 395 und ne GTX 375 usw. geben ;)
und ich möchte bitte Nachvollzogen haben wie du die 'GesamtPunkte' errechnest :) Und ein Eis will ich hamm xD
13.) eXEC 03.06.2009 - 19:20 Uhr
Meine GTX-280 hat mich 185€ gebraucht gekostet :D
Wenn ich daran denke, dass eine GTX-260 für 140€ zu haben ist ..... Epic Fail
12.) Undergroundking 03.06.2009 - 19:01 Uhr
auch der GT300 liegt noch im ehemaligen chefdesigner kirk begründet. der aber das unternehmen verlassen mußte. wie in zukunft gehandelt wird kann man noch nicht sagen, aber da schon der GT200 nur verluste brachte, vermute ich mal, beim GT300 wirds ähnlich sein. ati produziert einfach günstiger und wird nvidia wieder mächtig unter druck setzen. ati machte zum schluß gewinn, wenn auch net viel, nvidia hunderte von millionen verluste, weil der GT200 so "veramscht" werden mußte.
11.) hmd 03.06.2009 - 18:21 Uhr
Kommt doch nicht drauf an wer die schnellste Karte hat. :D ATI hat nicht Marktanteile zurückgewinnen können weil sie die Schnellsten sind. Es geht primär drum, das beste P/L anbieten zu können. Oder kauft von euch Nvidia-Usern jeder ne GTX-295. :D;)

Dass z.B. Dell fast ausschliesslich auf ATI setzt, halte ich für viel wichtiger als ein paar Prozentpunkte Leistung. Für den gut ausgerüsteten Standard-PC muss man die richtige Lösung (keinen abgespeckten Monsterchip) parat haben, weil dort am meisten Kohle zu machen ist. Kann man möglichst früh günstige DX11-fähige Grafikkarten bieten, hat man ganz bestimmt im Markt der Komplett-PCs (Windows 7) einen grossen Vorteil.

Obwohl sich Nvidias Daten viel besser lesen, glaub ich nicht so recht, dass sie aufs richtige Pferd setzen. Jetzt bauen sie wieder ein solch komplexes Ding, wo man für 80% der Karten (abgespeckte Derivate) im Wettbewerb wahrscheinlich wieder draufzahlen muss. Ich werd den Eindruck nicht los, dass sie auf Teufel komm raus, die Maxime "schnellster Singlechip" befriedigen müssen. Offensichtlich ihre Käuferschar auch so einschätzen (Schwanzvergleich).

Was mich mehr interessieren würde, wie es mit den Produkte von Nvidia unterhalb des G300er Segments bestellt ist. Bis jetzt haben sie ja nur alte Ware aufgekocht, da muss ja jetzt was Neues kommen (vielleicht das grösste Segment).
10.) KodeX 03.06.2009 - 16:33 Uhr
Allerdings sind 2,5-fach 150 % Mehrleistung und 1,5-fach 50 % Mehrleistung :-P.
9.) Bulldozer 03.06.2009 - 15:56 Uhr
@KodeX
Ich meinte mit 2,5 fach also 150% mehrleistung gegenüber einer GTX295.
8.) KodeX 03.06.2009 - 15:28 Uhr
Das mit den Treibern sollte kein Problem sein. In meinem Rechner hatte ich auch schon eine "HD 4870 X3", sprich eine HD 4870 X2 und eine HD 4870 zusammen drin und Platz wird man auch auf jeden Fall finden (siehe GTX 295 und 9800 GX2 --> Dual-PCB, was bei HD 4870 X2 nicht der Fall war). Lediglich der Stromverbrauch und die Temperaturen gillt es in den Griff zu kriegen^^, alleine von der Größe des Chips funktioniert's. Du hast aber Recht indem du sagst, dass man eine HD 5870 X3 nicht so ernst nehmen sollte :-P.
Der Faktor 2,5 könnte zwischen GTX 280 und GTX 380 liegen, was mir allerdings auch schon weit her gegohlt scheint.

EDIT: Habe mal ein paar kleine Berechnungen bezüglich der neuen Grafikkarten in einer Excel-Tabelle gemacht. Der Download-Link ist HIER ;-).
7.) Duplex 03.06.2009 - 15:21 Uhr
eine X3 halte ich noch bisle weit entfernt , mal abgesehn von den treibern ect.. wo soll man die ganzen speicherbausteine hinpflanzen ? was soll die den verbrauchen ? ....


dennoch faktor 2,5 ist wie KodeX bereits sagt doch etwas utopisch^^
6.) KodeX 03.06.2009 - 15:13 Uhr
Wie soll denn eine Geforce GTX 380 bitte 2,5 mal so schnell wie eine GTX 295 sein? Das ist doch ein Ding der Unmöglichkeit. Bei letzterer handelt es sich immerhin um eine Dual-Grafikkarte. Bei jedem Beispiel in der Vergangenheit (7950 GX2 --> 8800 GTX, X1950 Pro Dual --> HD 2900 XT, 9800 GX2 --> GTX 280, HD 3870 X2 --> HD 4870) zeigt sich zwar, dass der neue Chip ein wenig schneller als die alte Dual-GPU-Variante ist, aber die 2,5-fache Leistung ist mehr als utopisch. Die GTX 380 wird bestimmt schneller als eine GTX 295 sein, aber den Vorsprung schätze ich auf zirka 10 % bis 30% (1,1-fach bis 1,3-fach).
Mir ist klar, dass es jetzt vor dem Launch wieder heißt "Die neue Grafikkarten-Generation von Nvidia wird bombastisch / ein Quantensprung / konkurrenzlos", weil man sich sowas als Verbraucher eben einfach wünscht. Es liegt in der menschlichen Natur die Fantasie dem Verstand vorzuziehen.
Was den RV870 angeht: Sind die bis dato bekannten Informationen richtig, so wird der Chip wohl zwischen HD 4870 X2- und GTX 295-Niveau rendern. Die Dual-Lösung würde wieder vorerst die schnellste Lösung auf dem Markt darstellen, es sei denn die Jungs von Nvidia doppeln ihre High-End-GPU. Ich könnte mit allerdings auch vorstellen, dass Es im Ernstfall sogar eine Radeon HD 5870 X3 geben könnte, aber das ist nur Spekulation, wenngleich es wegen der geringen Größe des Chips nicht unmöglich erscheint.
Aber wer weiß, vielleicht versucht uns AMD - wie bereits letztes Jahr - einen Bären aufzubinden und erhöht seine Streamprozessoren erneut um den Faktor 2,5. Doch wie gesagt, es liegt in der menschlichen Natur die Fantasie dem Verstand vorzuziehen ;-).
5.) Duplex 03.06.2009 - 15:02 Uhr
könnte man eigentich anhand der Waffer sehn wie viele SIMD einheiten verbaut sind ?

also ähnlich wie beim Larrabee wo man rauszählen konnte das es 32kerne sind mit jeweils 5einheiten ?
4.) Bulldozer 03.06.2009 - 14:22 Uhr
Es reicht schon wenn eine HD5870 so stark wie eine GTX295 wird und die HD5870 X2 im High End vertreten ist.
Ich denke das die GTX380 > 2,5 mal so stark wie eine GTX295 wird, also bischen mehr als das doppelte.
3.) w0mbat 03.06.2009 - 13:56 Uhr
Oder vielleicht sogar mehr als 256-bit ;-)
2.) f1delity 03.06.2009 - 13:26 Uhr
Wäre zu begrüßen, denn dann wäre der Preis schonmal ziemlich im Keller, ist allerdings eher unwahrscheinlich.
1.) Duplex 03.06.2009 - 13:08 Uhr
180m² sind ja nicht gerade viel , aber übelst wen dieser chip den G-300 bange machen würde =D