Geforce GTX 295 mit 2x 240 SPs ab 8. Januar?

NvidiaBereits Mitte November berichtete die asiatische Hardware-Seite Expreview, dass Nvidia zu Beginn des Jahres 2009 mit einer Dual-Lösung auf GT200-Basis die Performancekrone zurück nach Kalifornien holen wolle. Inzwischen hat sich geklärt, dass der Chip nicht Geforce GTX 260 GX2 heißen wird, sondern Geforce GTX 295. So entfällt zwar im Namen, dass es sich um einen Dual-Chip handelt, die Performance ist allerdings besser einordbar.

Jetzt berichtet Expreview über die technische Ausstattung der GTX 295: Demnach soll der in 55 nm-gefertigte Chip, der auch einzeln bei der neuen Geforce GTX 260 (216) zum Einsatz kommen wird, über jeweils volle 240 Shadereinheiten und 80 TMUs verfügen. Die bisherigen Gerüchte gingen von 216 Shadereinheiten und 72 TMUs aus.
Das Speicherinterface, und damit auch die ROPs, sollen interessanterweise allerdings auf 2x 448 Bit und 2x 28 gestutzt sein, womit dann auch die Speichergröße von 2x 896 MiB (GDDR3) einhergeht.

. GTX 260 (216) GTX 280 GTX 295
Verfahren 55/65 nm 65 nm 55 nm
Chipfläche 470/576 mm² 576 mm² 2x 470 mm²
Transistoren 1400 Millionen 1400 Millionen 2x 1400 Millionen
Shadereinheiten 216 240 2x 240
TMUs 72 80 2x 80
ROPs 28 32 2x 28
Speicherinterface 448 Bit 512 Bit 2x 448 Bit
Speichergröße 896 MiB 1024 MiB 2x 896 MiB
TDP 146?/182 Watt 236 Watt 289 Watt


Die theoretisch maximale Verlustleistung ordnet Expreview bei 289 Watt ein. Taktfrequenzen an Chip, Shader und Speicher nennt man noch keine.
Die Geforce GTX 295 soll am 8. Januar 2009 im Rahmen der Consumer Electronics Show (CES) in Las Vegas vorgestellt werden. Diese versprach schon im Vorfeld durch die offizielle Präsentation der AMD-Phenom-II-Prozessoren ein interessantes Pflaster zu werden.


Kommentar schreiben

  • Loggen Sie sich oben mit ihren Benutzerdaten ein, um Kommentare zu verfassen.
  • Falls Sie noch kein Mitglied sind, können Sie sich in unserem Forum registrieren.

11 Kommentare

11.) f1delity 11.12.2008 - 16:26 Uhr
Quote:
Nvidia und ATI werden wohl nie was dagegen rausbringen da das problem eig beim SPiel selber auftritt ( schlecht programmiert )

Die sind doch schon seit längerem dabei und angeblich solls bei HD58xx behoben werden.
Liegt ja nur daran in welchen Zeitabständen die GPUs die einzelnen Frames senden, dazu kommt noch, dass es jeder anders wahrnimmt, wie mit der Latenz bei LCDs.

Bei Sandvichbauweise bin ich eher für 2 GTX260 zu haben als eine GTX295, aber das ist ja nVidias Verschulden, wer spät bzw. kaum shrinkt der hat halt Platzprobleme.
10.) Duplex 10.12.2008 - 14:24 Uhr
ich habe zwei 9800GTX+ und KEINE microruckler , die tauchen laut diversen seiten so und so erst um bei um die 30FPS ob das spiel nun bei 30FPS oder bei 25FPSzuckt ist mir persònlich wurscht , und Nvidia und ATI werden wohl nie was dagegen rausbringen da das problem eig beim SPiel selber auftritt ( schlecht programmiert )

es gibt spiele wie stalker wo die frame ausgabe ziehmlich gleichmàssig ist und man die ruckler garnet sieht , und andere spiele wo die frametimes hin und her schwanken ...


@TO
schon fettdie karte =) aber mal wieder sandwich bauweise -.- ich glaub zwei GT200b's passen garnet aufn PCB mit spawas ect... =)
9.) f1delity 10.12.2008 - 08:44 Uhr
Quote:
Ab 2009 wird spielen auf dem PC teurer und Strom nicht billiger.

Wie kommst du darauf, es wird sich niemals ein großer Teil der PC-Spieler eine GTX295 oder HD4870X2 kaufen.

Der Verbrauch liegt immernoch unter dem einer Konsole, wozu man natürlich auch einen LCD miteinrechnen sollte.

Mein System zieht weniger als eine PS3, weils halt nicht immer unter Vollast ist, aber leistungsfähiger allemal.

@Topic
Die GTX295 scheint ja brachial groß und warm zu werden, wird sicherlich wieder ein Sandvich, ich gehe da mal von enormer Lautstärke aus, der Stromverbrauch ist da eher nebensächlich ist schließlich einfach nur um die Performancekrone zu bekommen und wieder sagen zu können "wir haben die beste GPU am Markt"...

//EDIT:
Hier gibts erste Bilder der GTX295 und Infos zur GTX285:
http://www.tomshardware.com/de/GeForce- ... 42071.html
8.) LGEEE 10.12.2008 - 06:09 Uhr
http://www.computerbase.de/artikel/hard ... tion_3/24/

Playstation 3 - Volllast = 203 Watt

Ab 2009 wird spielen auf dem PC teurer und Strom nicht billiger.
7.) KonKorT 09.12.2008 - 23:46 Uhr
Da wird es auch dieses "Problem" geben. Allgemein sollte man aber einmal sagen, dass bei diesem Thema heißer gekocht als gegessen wird.
6.) Mr. Minimal 09.12.2008 - 23:35 Uhr
Es war immer die rede von Minirucklern bei sli systemen ( Auch xfire)

Gibt es bei diese GTX 295 auch dieses problem? oder steht das noch in den Sternen?
5.) (th) 09.12.2008 - 17:56 Uhr
na ich glaube die kriegen die Waerme schon irgendwie in den Griff. Da greift sich Nvidia tatsaechlich wieder die Krone nach laengerer Zeit. Eigentlich lustig, dass alle Nvidia-Juenger immer meinten die GTX 280 waere die beste Wahl von wegen Spielkompatibilitaet und so. Singlekarte waere besser.
Naja wie auch immer ich bin gespannt auf die Skalierung und Spieloptimierung. Fuer mcih ist der Chip aber sowieso keine Option.
4.) touly 09.12.2008 - 17:41 Uhr
na so http://www.chip.de/ii/179624799_9ec987703c.jpg
3.) Duplex 09.12.2008 - 16:51 Uhr
und wohl auch teurer ...

aber ey 290W !!

CPUs habenb vllt 130W und sind schwer zu bendigen wie wollen die 290W wegbekommen ??
uund das mit nen relativ kleinen kùhler ...
2.) KonKorT 09.12.2008 - 16:10 Uhr
Ich bin überzeugt, dass der Chip sparsamer sein wird als die HD 4870 X2 - sowohl im Idle als auch unter Last.
1.) Duplex 09.12.2008 - 16:08 Uhr
scheisse man 290W ist da ne Wakù ink. ?? oder wie will man die wàrme wegbringen ?

obs ne Sandwich karte wird oder ne "normale" weis niemand hier oder ??