HD 4850 X2 von Sapphire abgelichtet

AMDSchon bevor AMD seine durchaus erfolgreiche Radeon HD 4870 X2 offiziell den Blicken der Öffentlichkeit Preis gab, geisterte auch das Gerücht einer Radeon HD 4850 X2 durch das World Wide Web. Seit dem 12. August dieses Jahres steht das Erscheinen jener Grafikkarte nicht mehr in den Sternen, sondern ist eine sichere Angelegenheit. Die Kraft der zwei Herzen könnte effektiv gegen eine Geforce GTX 280 oder eine kommende GTX 290 eingesetzt werden - zwei Grafikkarten, die ohne eine HD 4850 X2 wohl keinen direkten Konkurrenten hätten.

Sapphire HD 4850 X2

Seit Neustem kursieren nun auch Bilder der Radeon HD 4850 X2 vom asiatischen Boardpartner Sapphire, der seit jeher eng mit ATI zusammen arbeitet, durch das Netz. Offiziell wird die Grafikkarte mit den Worten "HD4850 X2 2GBGDDR3 PCI-E QUAD DVI-I / TVO" bezeichnet. Was die Bilder bereits vermuten lassen und der Name endgültig bestätigt, ist, dass diese Radeon über satte vier DVI-Anschlüsse und einen TV-Out-Anschluss verfügt. Somit besäße ein Käufer der Karte die Möglichkeit, gleich vier Monitore auf einmal an seinen Rechner anzuschließen und zu betreiben. Außerdem besitzt die Grafikkarte einen 2 GiB großen GDDR3-Texturenspeicher, der wohl mit einer Taktfrequenz von 1000 MHz daherkommen wird - die GPU soll mit 625 Millionen Transistor-Schaltungen pro Sekunde betrieben werden.

Sapphire HD 4850 X2 ohne Kühler

Bis jetzt stehen weder Launch-Termin noch Verkaufspreis der Doppel-Grafikkarte fest. Laut den Kollegen von HardTecs4U ist aber gerade der Launch reine Hersteller-Sache. ATI hat seinen Board-Partnern das Layout übergeben, jetzt sind diese in der Pflicht, es umzusetzen und an den Mann zu bringen.
Wir persönlich rechnen damit, dass die meisten ATI-Partner die HD 4850 X2 im November offiziell vorstellen werden und dass die Karte dann in der gleichen Preisregion wie Nvidias Geforce GTX 280 spielen wird. Ob sich die HD 4850 X2 gegen die direkte Konkurrenz behaupten können wird, müssen erste Tests noch zeigen.


Kommentar schreiben

  • Loggen Sie sich oben mit ihren Benutzerdaten ein, um Kommentare zu verfassen.
  • Falls Sie noch kein Mitglied sind, können Sie sich in unserem Forum registrieren.

26 Kommentare

26.) QRT 01.11.2008 - 19:02 Uhr
Ok, was dann die Frage wäre:

Spielt man grundsätzlich in Max-Details, oder regelt man in den Grafikoptionen nach subjektiv empfunden ausreichender Framerate?
Ich bin Einer Zweiteren Kalibers, weil ich träge Maussteuerung nicht haben kann. ;)
Überträgt sich dann wohl wieder auf Multi-GPU, wo ich höhere Frames benötige, um einen flüssigen Bildaufbau zu gewährleisten.

Die Negativpunkte von Multi-GPU überwiegen. Um mich dafür zu begeistern, gehört mehr dazu als nur Performance.
25.) KodeX 01.11.2008 - 13:41 Uhr
Wie gesagt: Mikroruckler konnte man erst bei Crysis unter 8x AA feststellen. Das war auch die Einstellung mit der niedrigsten Framerate. Eine Geforce GTX 280 packte da gerade mal 16 FPS, was nun auch nicht gerade flüssig ist. Also Sobald die Framerate bei einer Dual-Grafikkarte so gesunken ist, dass Mikroruckler wahrzunehmen sind (z.B. >30), dann kann man das Spiel mit einer Single-Karte sowieso nicht mehr ordentlich spielen.
24.) QRT 01.11.2008 - 00:31 Uhr
@Kodex

Heisst also, es treten Unterschiede von bis zu 40ms auf, evtl auch noch mehr?
Wenn die Frames unregelmäßiger sind, merkt man das doch, vorallem bei niedrigen FPS.
Da wäre Crysis ein Beispiel, welches noch nicht einmal mit 30frames auf höheren Auflösungen läuft.

Mal ganz logisch, desto unregelmäßiger die Frames ausgegeben werden, desto höher muss auch meine Framerate sein, damit die unregelmäßigenkeiten kompensiert werden können(Scrollverhalten).
Wenn ich irgendwo blöd rumsteh bekomm ich das natürlich nicht mit.
Übertrieben gesagt, kann Hans mit seiner SingleGpu-Karte Crysis flüssig spielen, wärend Fritz mit seiner MultiGpu-Karte merkwürdige "laggs" wahr nimmt.
Könnte man Quasi mit einem Framedrop vergleichen. Tut mir leid, da bin ich pingelig. ;)
Theoretisch sollten auch 24FPS fürs menschliche Auge flüssig sein. Praktisch sieht das aber etwas anders aus. Vorallem dann, wenn der Bildinhalt scrollt. Aber das wisst ihr hoffentlich alle selbst.
Und auch hier, wieder rein subjektiv. :)
23.) Cartman 31.10.2008 - 23:15 Uhr
"ich glaube kaum das man bei der dualkarte die Microruckler ect. los geworden ist und das absolut jedes spiel Dual GPU unterstützt...
das meine ich mit "Dual GPU Problemen" ".

Jau, das mag sein.
Bin auf jeden Fall gespannt, was die Karte so mit sich bringt. Und @Oben: Wer kauft sich denn eine Grafikkarte für über 400€? Okay, wenn ich es könnte würde ich es auch. Aber Dennoch werden wohl die meisten GPU´s im Main/High-End Bereicht verkauft. Also a la 9800GT, 9800 GTX, 4850,4870 etc.
22.) KodeX 31.10.2008 - 12:54 Uhr
@ Streamline:
Ja da hast du recht. Eine Halogenlampe verbraucht zum Beispiel schonmal 35 Watt pro Stunde. Da an einer Deckenlampe meistens drei oder mehr untergebracht sind, kann man sich ja schonmal ausrechen, wie viel Energie für das bisschen Licht gebraucht wird.

@ QRT:
Ich habe aber auch gesagt, dass Mikroruckler überhaupt nicht (bis auf diese Ausnahme) aufgetreten sind.
Mikroruckler entstehen durch das unregelmäßige Aufbauen der Bilder in der Sekunde. Bei einer Single-GPU Grafikkarte sind diese Abstände beinahe regelmäßig.

Beispiel:
Eine Geforce GTX 280 hat 50 FPS bei Far Cry 2. Es werden 50 Bilder in der Sekunde neu berechnet - also etwa jede fünfzigstel Sekunde (0,02 Sekunden) eines.
Eine Radeon HD 4850 X2 hat auch 50 FPS bei Far Cry 2. Auch hier werden 50 Bilder in der Sekunde berechnet, allerdings in unregelmäßigen Abständen. Das sind dann zum Beispiel einmal 0,05 Sekunden und dann mal 0,01 Sekunden bis die Grafikkarte ein neues Bild berechnet hat.

Mikroruckler sind für das menschliche Auge erst ab einem Abstand von 0,05 Sekunden minimal wahrnehmbar. Dual-Grafikkarte liefern jedoch so hohe Frameraten, dass die Abstände der einzelnen Frames "gezwungen" werden klein zu bleiben. Deswegen finde ich nicht, dass Mikroruckler ein großes Problem darstellen.
21.) Streamline 31.10.2008 - 01:13 Uhr
So hoch sind die Stromkosten die durch Last entstehen auch gar nicht, bzw. das Senkungspotenzial ist da nur beschränkt vorhanden. Was den Idle-Modus angeht schon eher. Aber im Vergleich zu einer Glühbirne ist dann ein PC doch wieder verhältnismäßig "sparsam".
20.) Duplex 30.10.2008 - 20:37 Uhr
@QRT

naja nicht immer haben die "jungen" die neuste technik da sie es sich meistens net leisten können

ok ich selber zahle meinen strom noch net, aber immer hin zahle ich von meinen er arbeiteten geld meine hardware

aber klar ich kaufe mir keine 3 GTX280 , 1kW ist mir da doch zu viel und gewisse personen würden sich über die stromkosten wundern...

mein verbrauch liegt bei 320W vollast somit eig noch akzeptabel ( im idle hat der glaub ~180-190W )


aber allgemein ist technik eh nur was für junge kauze =)
19.) QRT 30.10.2008 - 20:00 Uhr
@All

Die, die ihren Strom selbst bezahlen, achten auf sowas. ;)

Der Trend geht ganz klar in die Richtung Energie sparen, was ich auch begrüße.
Seien wir mal ehrlich, die richtigen Highend Rechner haben meist die Jüngeren, die noch nicht selbst für ihren Haushalt aufkommen müssen.
So gesehen sind Technikfreaks und eben die Jungen Leutz, die einzigen Abnehmer der "Schweren" Desktop Grafikkarten.
Leute die bewusst kaufen, stellen die Performance sicher nicht an erster Stelle.

Die Sache mitden Mikrorucklern ist auch rein subjektiv anzusehen, du (Kodex)kannst nicht pauschal sagen, es würde nicht stören.
Dich stört es nicht!
Dich stört auch nicht der Stromverbrauch, und warscheinlich noch viele andere Faktoren.
Wie gesagt, ich kauf mir bewusst keinen Stromfresser, sei er auch noch so potent.
Desweiteren sollte doch noch an den Stromsparmechanismen gefeilt werden, da genau dort ein Markt wächst und Kunden gewonnen werden können.
Ich bin sofort beim effizienteren Produkt. :)
18.) (th) 30.10.2008 - 19:11 Uhr
Ati sollte sich lieber auf PowerPlay 2 konzentrieren, ich halte diese Karte fuer absolut uninteressant
17.) Morta 30.10.2008 - 18:44 Uhr
Ich glaub hier sind nicht nur Kinder unterwegs, es wird einige geben die ihren Strom selber zahlen^^
16.) KodeX 30.10.2008 - 16:28 Uhr
Es beschweren sich immer so viele Leute über Mikroruckler. Die meisten von denen haben noch nie welche gesehen oder wissen nicht mal, was das überhaupt ist. Die Mikroruckler existieren zwar, aber werden von Multi-GPU Kritikern gerne hochgespielt.

Wie gesagt: Ich habe bis jetzt nur bei Crysis unter 8x AA Mikroruckler gehabt. Und das hat nicht einmal gestört.

Ich kenne außerdem kein Spiel, bei dem eine Dual-Grafikkarte keine besseren Werte erreicht, als eine alleinige GPU. Wenn ihr welche kennt, dann belehrt mich bitte.

Und nochmal zum Stromverbrauch: Ich meine, wenn man wirklich darauf aus ist Strom zu sparen, kauft man sich bestenfalls eine Mainstream-Grafikkarte. Mit einer GTX 280 geht das nämlich auch nicht... Und mal ehrlich: Wer von euch zahlt denn selbst für den Strom?
15.) f1delity 30.10.2008 - 16:15 Uhr
Wenn die Performance über der einer GTX280 liegt und das auch bei größeren Auflösungen ab 1920 und zusätzlich der Preis bei ~300€ liegt ist die Karte gar nichtmal so uninteressant.

Aber bei 400€ bekommt ja schon eine 4870X2 und die ist garantiert schneller, @Stromsparen, die Dual-GPU-Karten haben idle weniger Verbrauch als ihre Single-GPU-Pendants und wen juckt der Verbrauch beim Zocken, was vielleicht wenns hoch kommt 3-4h am Tag sind?

Achja, nVidia will wie immer die Leistungskrone haben:
GTX280 GX2?
14.) Duplex 30.10.2008 - 15:22 Uhr
ich glaube kaum das man bei der dualkarte die Microruckler ect. los geworden ist und das absolut jedes spiel Dual GPU unterstützt...
das meine ich mit "Dual GPU Problemen"
13.) Da-TiMoU 30.10.2008 - 15:19 Uhr
Die Frage ist wer hier nicht richtig liest... Duplex hat sich über diese Verlängerung direkt rechts neben dem PCIe-Stecker (wo 2 Aufkleber drauf sind) gewundert weil sie bei vielen gegen den SB-Kühler stoßen würde, nicht über die ganze Karte oder was du auch immer meinst. Auf dem CB-Bild ist die Verlängerung definitiv nicht da.
mfg
12.) Cartman 30.10.2008 - 15:11 Uhr
@Duplex: Woher willst du denn wissen, dass die GPU Probleme mit sich bringt?
Also ich werde mir sie ebenfalls nicht kaufen, da ich mir zu Weihnachten eine 4870 mit 1GiB Speicher zulegen werde.
Von SLI und CF halte ich nichts. Mir ist es als Schüler zu teuer, Mikroruckler etc.
11.) Al-Capuccino 30.10.2008 - 15:08 Uhr
@Da-TiMoU

Quote:
http://www.computerbase.de/news/hardwar ... _400_euro/
Bei dem Bild ist die Verlängerung hinterm PCie-Stecker weg


du hast dir die Bilder anscheinend nicht richtig angesehen!!!

auf dem ersten aus diesem Beitrag hier ist das Bild nur verdreht so das man von oben draufschaut, in deinem Link nur schräg!!!

man kann aber unter dem Lüftergehäuse auch die "Verlängerung" sehen...
man sieht auch den Ansatz der zusätzlichen Kühlrippen...

mfG
10.) Duplex 30.10.2008 - 13:03 Uhr
und wer kauft die ?
die soll 300€ kosten

für 20€ mehr bekommtman ne vermuttlich genauso schnelle GTX280 ohne dual GPU probleme , und der verbrauch ist deutlich geringer


ist nur ein nischen produkt glaub
9.) Da-TiMoU 30.10.2008 - 12:14 Uhr
@ Duplex
http://www.computerbase.de/news/hardwar ... _400_euro/
Bei dem Bild ist die Verlängerung hinterm PCie-Stecker weg ;)
8.) KodeX 30.10.2008 - 02:03 Uhr
Hatte jemand von euch denn schon einmal eine Dual-Grafikkarte drin? Ich hatte schon die HD 3870 X2, die 9800 GX2 und eben auch die HD 4870 X2 in der Kiste und ich sowas wie Mikroruckler habe ich nur bei letzterer Grafikkarte einmal bei Crysis 8x AA beobachten können - und gestört hat das nicht.
Was viele vergessen, ist, dass man im SLI- oder Crossfire-Modus die selben vermeintlichen Probleme hat. Und trotzdem sind alle hier auf Mainboards mit mehreren PCIe-SLots heiß. Totz dieser allgemeinen Abneigung von Dual-Grafikkarten.
Ich würde mir auch keine HD 4870 X2 kaufen. Ganz einfach aus dem Grund, dass diese Grafikkarte mir viel zu teuer ist. Meine WUnschgrafikkarte ist eine einfache HD 4870.
Und was den Stromverbrauch angeht. Mal ehrlich: Wer von euch zahlt seine Stromrechnung selbst?
Ich halte die allgemeine Abneigung von Dual-Grafikkarten für unfair. In Zukunft werden es ja nur noch Multicore-Karten in den absoluten High-End Bereich schaffen.
7.) Sennahos 29.10.2008 - 23:55 Uhr
Da steh ich genauso zu wie 'QRT. Bin lieber mit ner Karte zufrieden als paar prozent schneller aber derbe nachteile. Microruckler allein reichen da bei mir schon. Hoffentlich wird die ganze "dual" Sache bald stark verbessert. Eine "Gtx 260" würde ich bevorzugen selbst wenn sie teurer wäre.
6.) QRT 29.10.2008 - 20:54 Uhr
Toll, was bringts, wenn der Stromverbrauch dermaßen in die Höhe schiesst bei Dual-GPU Lösungen?
Dazu kommen noch die Mikroruckler, die bekanntermaßen keine flüssigen FPS ausgeben.
Die Dual-Dinger bleiben für mich solange uninteresant, bis sie das in den Griff bekommen haben, und der Stromverbrauch drastisch gesenkt wird.
5.) Cartman 29.10.2008 - 20:25 Uhr
Also besser als 4870? Uhi nice.
4.) KodeX 29.10.2008 - 17:34 Uhr
Der Grund für diese "Verlängerung" ist genau der selbe Grund dafür, dass man noch nichts über die Temperaturen sagen kann. Das ist ein frühes Testmuster und hat noch lange nicht einen verkaufsfertigen Status erreicht.
3.) Morta 29.10.2008 - 16:25 Uhr
mich würden mal die temps interessieren^^
2.) Duplex 29.10.2008 - 15:03 Uhr
die sieht ja mal wuchtig aus
was soll eig die verlängerung hitern PCIE stecker ??
die karte würde bei mir garnet passen da sie mit dem verlängerten ding gegen mein SB kühler stossen würde
1.) f1delity 29.10.2008 - 09:32 Uhr
Der Launch der HD4850X2 ist den Herstellern überlassen http://ht4u.net/news/2554_start_der_hd_ ... gesichtet/