Finale GTX 360 und GTX 380-Spezifikationen?

NvidiaNvidias neue Grafikkartengeneration steht kurz vor ihrer Veröffentlichung, wenngleich sie es wohl dieses Jahr nicht mehr schaffen wird, in den Handel zu kommen.
Wie üblich soll die Einführung der neusten Grafikkartengeneration mit zwei schnellen Modellen für den Desktop-Markt zelebriert werden. BSON vermutet, dass diese Geforce GTX 360 und GTX 380 heißen werden und mit folgenden Spezifikationen erscheinen:

Wie wir schon vor Monaten berichteten, wird Fermi in der Vollausstattung über 512 Shadereinheiten, 128 TMUs und 48 ROPs verfügen. Diese Angaben bestätigt BSON für die Geforce GTX 380 und erweitert sie um Taktfrequenzen von 650 MHz für den Chip, 1700 MHz für die Shader und 1050 MHz für den GDDR5-Speicher. Damit würden sie leicht von den so genannten targeted clocks abweichen, die bei 700/1600/1100 MHz lagen.
Mit den von BSON spekulierten Taktraten erklimmt die Geforce GTX 380 theoretische Leistungswerte von 1741 Gigaflops, 83.200 MT/s, 31.200 MP/s und 201,6 GB/s.

.GTX 360GTX 380
CodenameGF100GF100
Verfahren40 Nanometer40 Nanometer
Chiptakt650 MHz650 MHz
Shadertakt1500 MHz1700 MHz
ROPs4048
Pixelfüllrate26.000 MP/s31.200 MP/s
TMUs96128
Texelfüllrate62.400 MT/s83.200 MT/s
Shadereinheiten384512
Shaderleistung1152 Gigaflops1741 Gigaflops
Speichertakt1050 MHz1050 MHz
Speicher1280 MiB
GDDR5
1536 MiB
GDDR5
Speicherinterface320 Bit384 Bit
Speicherbandbreite168,0 GB/s201,6 GB/s


Das kleinere Modell Geforce GTX 360 muss erwartungsgemäß mit einigen Einheiten weniger auskommen. Statt 16 sind wohl nur 12 der so genannten Streaming-Multiprozessoren aktiv, so dass die Anzahl an Shadereinheiten von 512 auf 384 fällt und die Anzahl an TMUs von 128 auf 96. Darüber hinaus besitzt die Geforce GTX 360 lediglich 40 statt 48 ROPs und somit auch nur ein 320 statt 384 Bit breites Speicherinterface.
Mit Taktfrequenzen von 650/1500/1050 MHz - ungewöhnlich ist, dass das Chiptakt-Shadertakt-Verhältnis ein anderes als auf der GTX 380 sein soll - erreicht sie dabei 1152 Gigaflops (-44%), 62.400 MT/s (-25%), 26.000 MP/s (-17%) und 168,0 GB/s (-17%).

Passend dazu sind bei Twitter in den letzten Tagen zwei weitere Fotos eines Nvidia-SLI-Systems, bestehend aus zwei GF100-Karten, veröffentlicht worden. Dies deutet darauf hin, dass inzwischen erste Samples im Umlauf sind und Nvidia planmäßig seine neue Grafikkartengeneration im Januar vorstellen kann. Verfügbarkeit wird aber wohl erst in den Monaten darauf sichergestellt werden können.
(Die Richtigkeit der oben angeführten Spezifikationen konnten wir noch nicht verifizieren, wobei wir insbesondere bei den Taktfrequenzen noch im Dunklen tappen. Sobald wir diese Informationen bestätigen oder widerlegen können, werden wir Sie informieren.)


Kommentar schreiben

  • Loggen Sie sich oben mit ihren Benutzerdaten ein, um Kommentare zu verfassen.
  • Falls Sie noch kein Mitglied sind, können Sie sich in unserem Forum registrieren.

37 Kommentare

37.) hmd 16.12.2009 - 10:22 Uhr
Ich finds wirklich interessant wie ihr die theoretische Rechleistungen hochrechnet. Ich hab einen anderen Ansatz wie man die Entwicklung von Nvidia beurteilen könnte.

Allein aus dem Umstand wie Nvidia kommuniziert, kann man doch ablesen wo sie selbst ihre Stärken sehen. In der öffentlichen Argumentation steht immer zuerst CUDA, GPU-Computing, FP-Performance, Profi-Bereich ... von Spielen ist ja allenfalls nur am Rand die Rede. Das alleine deutet für mich drauf hin, dass Nvidia sich in einem "Krieg" mit Intel und nicht mit ATI sieht. Es ging Nvidia bei der Entwicklung nicht primär um eine Grafikkarte, nein sie wollten der CPU (Intel) mit Fermi den Rechenanteil abgraben.

Vor diesem Hintergrund erwarte ich bezüglich Grafikleistung in Relation zum Preis, eher einen Rückschritt von Nvidia. In der Öffentlichkeit hält man sich bezüglich Gamingperformance bedeckt, weil wahrscheinlich hier die grosse Ernüchterung wartet. Die Entwicklungsressourcen sind einfach nicht unbeschränkt und wenn man den Chip primär für GPU-Computing entwickelt, tendiert die Wahrscheinlichkeit dass er für den Massenmarkt was taugt, gegen Null (s. Larabee / auch ein Zwitter). Nvidia ist ja nicht unbedingt bekannt für bescheidendes Marketing. Wenn man einen superschnellen Grafikchip für Games in der Pipline hätte, kann man doch von ausgehen, dass sie das auch gross ausgeschlachtet hätten. Analog dem was sie mit GPU-Computing ja marketingtechnisch auch gemacht haben.

Ich bin schon erstaunt wie positiv die meisten die Entwicklung von Fermi noch sehen. Denke für die die sich für den Profibereich interessieren, ist das sicher berrechtigt, aber für die Gamer seh ich schwarz. Der Spruch mit dem modularen Aufbau ist doch einer der aus jeder Entwicklungsabteilung stammen könnte. Wenn man meilenweit hinter dem Zeitplan hinterher hinkt gibts es den modularen Aufbau der alle Probleme in einem Aufwisch löst. :D
36.) N1truX 15.12.2009 - 07:23 Uhr
alex84:
Vielleicht liegt ja die lange Wartezeit ein bisschen daran, dass die sicher gehen wollten, die 5000er zu übertrumpfen? Ich denke die Notwendigkeit im Frühling richtig punkten zu müssen reicht NVidia als Motivation aus.

Das hört sich danach an "Wir gucken was ATi macht und wenn wir dann zu langsam sind packen wir nochmal 'ne Schippe' drauf." - Und das ist Nonsens. So ein Chip wird über Jahre entwickelt und man kann grob sagen das wohl aller spätestens Mitte 2008 die endgültigen Spezifikationen des Fermi bei nV festgelegt wurden. Danach muss die Architektur noch fehlerbereinigt werden und der Chip samt Herstellung Massentauglich, was eben gut 1 bis 1 1/2 Jahre einnehmen kann. Schnell mal noch x Shader und TMUs drauf ist wenn überhaupt etwas für ein Refresh, da könnte man ggf. noch knapp drauf reagieren.
nVidia wollte ursprünglich Ende 09 den Fermi bringen, am liebsten wohl direkt zum HD 5000 Start, aber das es Produktionsprobleme bei TSMC gibt (und ein Wechsel zu UMC wäre zeitlich auch nicht viel besser und teurer) musste man irgendwann feststellen. So hat man wohl min. eine Revision mehr gebraucht als ursprünglich geplant und TSMC bekommt jetzt erst langsam die Ausbeuten in den Griff. Das nVidia an ihren Yields mit den "Monster-DIEs" nicht ganz unschuldig ist und auch nicht wie AMD mit dem RV740 einen halbwegs komplexen Chip schon mal in 40nm probiert haben.. Ja da muss dann eben auch irgendwo die Konsequenzen tragen.
Vielleicht sollten sie auch einfach etwas Abstand von dem "Intel-ist-doof-gerede" nehmen und mal überlegen ob es Klug ist sich über LRB ab zu lästern wenn man selber zu inkompetent ist um halbwegs planmäßig einen Chip vorzustellen und selber als Innovationsbremse (siehe Dx10.1) fungiert. Nicht das ich Intel jetzt verteidigen will, aber selber Probleme zu haben ist eine Sache, aus welchen gründen auch immer in dem Stadium über die Konkurrenz her zu ziehen eine andere.

@Madbomb: CB schreibt da Quatsch. Die Folien sind Fälschungen und stammen nicht von nVidia sondern wohl aus irgend einem asiatischen Forum und wurden ohne Quellangabe von Guru3D weiter verbreitet. Gibt auch andere wenn du magst ;) Das kann jeder mit Excel in nen paar Minuten.

35.) alex84 14.12.2009 - 22:39 Uhr
Hi!
Spekulieren kann man viel, bringen tut's wenig. :)
Ich würde mal denken, dass die neuen NVidia-Karten auf jeden Fall stärker als die 5000er von Ati sein werden. Einfach weil sie es müssen. Wenn sie so ein riesen Chipmonster bauen, alle Welt so lange warten lassen und vermutlich einen ziemlich hohen Stromverbrauch haben, dann MÜSSEN sie einfach mindestens mit der Konkurrenz gleichauf sein. Ansonsten sieht es düster aus für NVidia und das werden die sicher wissen. Vielleicht liegt ja die lange Wartezeit ein bisschen daran, dass die sicher gehen wollten, die 5000er zu übertrumpfen? Ich denke die Notwendigkeit im Frühling richtig punkten zu müssen reicht NVidia als Motivation aus.

Mir ist's egal, ich bleib Ati weiterhin treu, hatte nie Probleme mit den roten Kanadiern. :)
-Alex
34.) Flare 14.12.2009 - 19:31 Uhr
Innerhalb (wie lange ist die gtx295 raus?) ungefähr 1Jahr, eine 1-Chip-karte rausbringen die beinah 50% schneller läuft als die gtx295 und (falls die 225W stimmen) weniger strom verbraucht.

Machbar, aber ich glaubs erst wenn ich´s sehe.
33.) atrox 14.12.2009 - 18:25 Uhr
Naja, glaube eher das das eine Fälschung ist, man weiß ja noch nicht mal ob es direkt von Nvidia kommt. Kann mir so einen Vorsprung einfach nicht vorstellen.
32.) Madbomb 14.12.2009 - 16:55 Uhr
Auf Computerbase kann man Benchmarks sehen die direkt von Nvidia selber kommen und sich diesmal auf das Spielesegment konzentieren:

http://www.computerbase.de/news/hardwar ... x_380_360/

Man kann zwar davon ausgehen das die Ergebnisse nicht ganz der Wahrheit entsprechen aber ich denke sie werden auch nicht vollkommen jenseits von Gut und Böse liegen, da es sonst im nachhinein schlechte PR für Nv wäre.
31.) N1truX 14.12.2009 - 08:15 Uhr
Naja bei den ganzen deaktivierten Einheiten, ggf. verringerten Taktraten etc. dürfte da einiges zusammenkommen. Die Frage ist nur was "typischer Verbrauch" für nVidia bedeutet. Garantiert nicht FurMark, das ist sicher.
Schätzungsweise liegen die FurMark Werte dann auch wieder über der TDP. Oder man macht es wie AMD jetzt bei der HD 5000 Serie und gibt sogar mal realistische Zahlen an. Mal sehen..
30.) Flare 13.12.2009 - 23:38 Uhr
So sollte die GTX360 am bessten bei nicht mehr als max.190W liegen, sonst gibts ne schlechte Energiebilanz.
Mal sehen was kommt.

gez. Flare
29.) N1truX 13.12.2009 - 22:59 Uhr
Nicht viel bisher. Bei den Tesla-Karten gibt es hinweise aufgrund der Präsentation wo nVidia ja von einem typischen Verbrauch von 190W? gesprochen hat wenn ich mich recht erinnere.
Zumindest hatten die bisherigen Samples immer einen 8+6 Pin Anschluss gehabt, also sollte die TDP da zwischen 225 und 300W liegen. Ich denke das kann man auch für die GTX 380 erwarten. Zwar werden da Sachen wie ECC wegfallen, aber die Shader sind dafür meist höher getaktet.
28.) Flare 13.12.2009 - 17:54 Uhr
@ KodeX Hab getippt bevor ich mir die Tabellen zusammengeschoben hab. :oops:
Du hast da vollkommen recht.

@ weiser Ich teile deine Wut über TSMC.

Ist der Verbrauch der NVs bekannt ?
Kennt jemand eine Schätzung ?

gez Flare
27.) Weiser 13.12.2009 - 14:14 Uhr
Mehr zum Thema auch im extra dazu angelegten Forumsthread:
http://www.hardware-infos.com/forum/viewtopic.php?f=5&t=3260&start=375
:D ;)
26.) KodeX 13.12.2009 - 13:52 Uhr
Wie soll die GTX 360 denn 10 % schneller sein, wenn sie doch in jeder Disziplin (außer Speicherbandbreite) langsamer als die HD 5870 ist? Außerdem sind AMDs und Nvidias Treiber schon lange auf dem gleichen Niveau und unterscheiden sich in der Performance sowieso nicht...
25.) TeHaR 13.12.2009 - 13:50 Uhr
Die HD 5870 hat aber 850 MHz und damit 2,72 GF und 68GT/s dafür nur 1200er Speicher, die Tabelle zeigt aber trotzdem gut das die 360GTX wohl kaum eine 5870 schlagen dürfte.
24.) Flare 13.12.2009 - 13:07 Uhr
Habe durch die höhere Zahl der ROPs und TMUs und wie bekannt die meißt besseren Treiber diesen Vorsprung getippt.


man vergebe mir dieses gebastelte *DING*
habe keine Tabelle dieser Gegenüberstellung gefunden, bitte erschlagt mich nicht.

mfg Flare
23.) atrox 13.12.2009 - 03:31 Uhr
Ich finde es gut, ich sehe schon die Grafikkartenpreise im Keller :)
22.) Maxurugi 13.12.2009 - 03:27 Uhr
@TeHaR:

Interessant, das wusste ich noch nicht. Wie ist das in Bezug auf die Gamingleistung einzuschätzen? Ändert das viel? Bisher war es ja durchaus so, dass ein "nVidia-Teraflop" im Endeffekt mehr gebracht hat, als ein "ATi-Teraflop".

Diese Runde wird echt spannend, wobei es für nVidia immer düsterer zu werden scheint (meine Wahrnehmung).

Grüße
Maxurugi
21.) KodeX 13.12.2009 - 01:15 Uhr
Okay, demzufolge ist die Shaderleistung genau so auszurechnen, wie beim RV870.
20.) TeHaR 13.12.2009 - 00:48 Uhr
@Maxurugi & Kodex

Die Shaderleistung ist nicht mit den der GTX 2XX zu vergleichen. Pro Takt kann Fermi nur noch ein MUL und ADD (MADD) ausführen können. G80 und GT200 konnten darüber hinaus noch ein weiteres MUL ausführen, dies wurde jedoch nur sehr ineffizient ausgelastet und ist daher wohl bei Fermi verschwunden.

Das führt dazu das bei gleicher Shaderzahl die 200er Generation mehr Flops hat als die 300er. Flos angaben sind korrekt.
19.) core 12.12.2009 - 18:53 Uhr
jo Mac und Weihnachten rechnen wir mit Schnee ^^ (..und ner 5870 unterm Baum)

...worauf beziehst du deine "Rechnung"...auf die "Fakten" in der Tabelle jedenfalls nicht.. XD

EDIT: ich geh mal davon aus das sich 360 und 5870 nicht viel nehmen werden....(außer dem Preis)
18.) MacTen 12.12.2009 - 18:39 Uhr
Also die vorhergesagte rangfolge (380>5970>360>5870) lässt sich unter berücksichtigung eines einzigen aspekts eigentlich leicht erklären. Ohne jetzt ein Urteil darüber fällen zu wollen ob ATI besser ist oder NVIDIA(ihr kennt mein urteil eh ;-) ) , nehmen wir an das beide gleichgut wären. Sagen wir also nvidia würde den gleichen prozentualen leistungssprung machen wie ati. Dann sieht man zum beispiel im 3dmark Vantage P Score, dass ati von 4870 zu 5870 (8888-->16044) satte 80% zugelegt hat. RESPEKT! nehmen wir allerdings eine GTX 285 (fairer wäre natürlich eine 280, aber die haben doch eh alle eingetauscht) als ausgangspunkt und legen 80% drauf, dann starten wir von 11942 auf 21495 durch.Nebenbei erwähnt, die 5970 liegt bei 21346 Punkten. Die 360 kann jeder allein ausrechnen wenn er mag. rechnet man das gleiche mit FPS in spielen(natürlich nicht mit 80%, sondern dem jeweiligen prozentsatz zu dem die 5870 besser ist als die 4870 in der Kategorie) , wird es eigentlich nur noch krasser.Natürlich gibt es etliche benchmarks auf etlichen seiten und alle unterscheiden sich ein wenig hier und da und es wird auch immer wieder neue treiber geben die besser sind oder schlechter, aber für eine grobe einschätzung sollte man das für einen Moment ausblenden. Dann stellt sich doch nur noch die Frage, ob es NVIDIA möglich war, einen Chip neuer Generation zu fertigen der mind. den gleichen Leistungssprung bietet wie der des Konkurrenten!? Unter Berücksichtigung dass nvidia sich doch deutlich mehr Zeit genommen hat ( buhhh) und sogar ein genaues auge auf den direkten Konkurrenten werfen konnte, halte ich das für realistisch. Traut man Nvidia ein eben so hohes Potenzial zu, wäre die Rangfolge wohl keine Frage mehr. Daher können wir auch nur weiterspekulieren wie die Umsetzung des Potenzials funktioniert hat, bis wir den benchmark eines samples sehen. Ich jedenfalls, habe keine angst vor diesem Tag *gg*.

PS: bei der rechnung bin ich von 100%= hd 4870 ausgegangen( das interessiert sicher nur die schlauen)
17.) KodeX 12.12.2009 - 16:24 Uhr
Die GTX 380 ist laut diesen Zahlen 14 und nicht 10 % schneller als die HD 5870. Ich habe keine Ahnung wie rentabel das sein wird. Allerdings war eine GTX 280 zu Beginn auch mehr als doppelt so teuer in der Produktion wie eine HD 4870. Irgendwie wird's schon funktionieren, wobei ich AMD insgesamt im Vorteil sehe, da man noch viel Spielraum hat. Man muss nur umbedingt die Verfügbarkeit in den Griff bekommen, aber das wird in diesem Jahr nicht mehr passieren.

@ Florian: Hast du dich nicht bei der Shaderleistung beider Grafikkarten verrechnet? Ich komme auf 2611 (GTX 380) und 1728 (GTX 360) Gflops.
16.) Duplex 12.12.2009 - 16:00 Uhr
meinst du die 10% die die GTX380 schneller ist als die AMD reichen aus um den grossen chip rentabel zu halten ?

oder meinst du wir sehen wieder das die Nvidia grakas im vergleich zu den AMDs deutlich teurer sind ?
15.) KodeX 12.12.2009 - 15:30 Uhr
Editiert :-P
14.) Duplex 12.12.2009 - 15:29 Uhr
du hast zwei mal die 5870 hingeschrieben , die 100% sollten die 5970 bilden findest du nicht =D
13.) KodeX 12.12.2009 - 15:26 Uhr
Die GTX 380 wird in Spielen doch auf gar keinen Fall schneller als die Dual-GPU HD 5970 sein. Ich habe versucht die vermeintliche Leistung auszurechnen:

1. HD 5970 --> 100 %
2. GTX 380 --> 81 %
3. HD 5870 --> 71 %
4. GTX 360 --> 60 %
5. HD 5850 --> 56 %
12.) Maxurugi 12.12.2009 - 14:41 Uhr
Wenn sich Pixel- und Texelfüllrate bestätigen, was ich für realistisch halte, dann wirds mit der Gamingleistung schon eng für nVidia. Gerade bei der Texturleistung hatten sie in den vergangenen Jahren stets einen ordentlichen Vorsprung. Genau hier hat ATi jetzt aufgeholt, das stellt man fest, wenn man einmal R600 mit G80, RV670 mit G92, RV770/790 mit GT200(b) und jetzt Cypress mit GF100 vergleicht.

Allerdings halte ich die angegebene Shaderleistung für unrealistisch. Über 50% mehr Shader-ALUs sollten allein schon die theoretische Leistung um über 50% erhöhen (vgl. GTX280). Zusätzlich sind sie aber auch noch 15% höher getaktet. Beides zusammen soll insgesamt nur 23% Mehrleistung bringen?
Das passt einfach nicht. Zum Vergleich: Der Cypress verfügt über doppelt so viele Shader-ALUs wie der RV790. Die Taktfrequenz ist identisch, und die theoretische Leistung hat sich EXAKT verdoppelt.

Ich bin gespannt, wie das Rennen um den Grafik-Thron in dieser Runde ausgeht. Scheint jedenfalls echt spannend zu werden. Hauptsache, nVidia wirft endlich mal die Karten auf den Tisch, und ATi bekommt das mit der Verfügbarkeit hin. Nunja, letztendlich hängt ja auch alles an TSMC, was die Verfügbarkeit betrifft.
11.) N1truX 11.12.2009 - 23:12 Uhr
Flare:
Ich tippe mal für die kleinere GTX360 ca.10% durchschnittlichen Vorsprung vor der 5870, eher mehr.

Basiert auf welchen Daten?! nach den Specs von der News müsste nVidia dazu die Effizienz (IPC) um etwa 50% raufschrauben. Und da die IPC bei größeren DIEs, besser mit mehr parallel anzusprechenden Funktionseinheiten, abnimmt halte ich das für sehr, sehr unwahrscheinlich.

Entweder es sind mehr Shader bei der 360er oder allg. ganz andere Leistungswerte. Aber 10% vor einer 5870 halte ich einfach für eine Wunschvorstellung.

Die Frage der Verfügbarkeit stellt sich bei AMD wie nVidia. Der Fermi dürfte wegen der Größe nicht einfacher herzustellen sein und wirft eben noch weniger DIEs / Wafer raus. Also mit Massenmarkt könnte sich nV ebenso schwer tuen. Abwarten!
10.) core 11.12.2009 - 21:44 Uhr
Es bleibt also spannend… ^^
9.) Flare 11.12.2009 - 21:28 Uhr
Ich tippe mal für die kleinere GTX360 ca.10% durchschnittlichen Vorsprung vor der 5870, eher mehr.
Das AMD nicht liefern kann ist aber auch wirklich zu dumm, bald ist es zu spät.
Sind schon Preise für die beiden GTX bekannt ?

mfg Flare
8.) Madbomb 11.12.2009 - 14:53 Uhr
Wie du schon selbst sagtest, die theoretische Leistung der beiden Architekturen lies sich in der letzten Generation nicht vergleichen und in der künftigen werden die Unterschiede ebenso vorhanden sein. Die Differenz in der Schaderleistung die du so schön mit einem ! versehen hast, war auch schon in der letzten Generation beachtlich nur gebracht hat es am Ende auch nichts.

N1truX:
Also ohne nähere Details zu Nvidias Architekturänderungen ist die Annahme illusorisch. (...)


Der Satz ist natürlich auch gut, weil du in den folgenden Sätzen nichts anderes machst als in der News gemacht und von dir bemängelt wurde! :?


Und zum Topic, ich würde einfach mal auf Benchmarks warten. Wenn der Launch schon Im Januar ist und Sampels verschickt wurde, dann werden die Benchmarks sicherlich in kurzer Zeit aufschlagen. Aufgrund dessen das der GF100 nicht einfach nur eine Aufstockung der Schader ist wie es bei ATI im weitesten Sinne der Fall ist, halte ich eine simple Hochrechnung für problematischer als sonst. Die Effizienz könnte zum Beispiel besser oder halt auch schlechter ausfallen als mit der alten Architektur, nur mal so als Beispiel genannt. Mag ja sein das wir schon einen kleinen Einblick in die Tesla Karten bekommen haben, aber inwieweit sie sich zu den Desktop Karten unterscheiden und welche Auswirkungen das haben wird wissen wir halt nicht.
7.) f1delity 11.12.2009 - 11:26 Uhr
Wenn die Performanceschätzung eintreten sollte und die GTX380 ein Single-GPU ist und trotzdem im Gamingbereich schneller als die HD5970 ist, dann wird die Karte gekauft, wäre zu schön um wahr zu sein, da ist mir dann auch Lautstärke und Leistungsaufnahme völlig egal, zumindest im 3D-Betrieb.
6.) (th) 11.12.2009 - 08:46 Uhr
falls man davon ausgehen könnte, dass sich die Architektur von der Effizienz her nicht groß geändert hat - inwiefern kann man die dann mit den Gef 280 GTX usw vergleichen (Performance?). Wäre mal nett wenn sich jemand die mühe macht.
Und persönlich glaube ich nicht an seriösität der Quelle (die Dampfkane als Ursprungsquelle nennt), aber das wird die Zukunft zeigen.
5.) N1truX 11.12.2009 - 07:30 Uhr
Ich denke das hat nur mit den yields zu tun. Die GTX-380er kann man dann extrem teuer verkaufen als Topmodell und so wie AMD bei der 5970 die Verfügbarkeit etwas kaschieren. Bei der 360er hätte man dann genug Einheiten deaktiviert um mehr Chips raus zu bekommen. Sicherlich nicht genug aber eben schon mal mehr.
Quote:
Wenn man dem Link von Dampfkanes folgt, ergibt sich für die angebliche Leistung folgende Abstufung:
GTX 380 > HD 5970 > GTX 360 > HD 5870.

Angebliche Leistung != Gamingleistung - und die dürfte wohl die meisten hier interessieren^^ Und auch die theo Leistung spricht nicht ansatzweise dafür das eine 360er eine 5870 schlagen wird.

Eine HD 4870 hatte etwa 75% der Pixelfüllrate und 72% der Texturfüllrate einer GTX 260 216. Dafür etwa 3% mehr Speicherbandbreite (also fast gleich) und etwa 50% mehr Speicherbandbreite und war am Ende etwa gleich schnell. Im Allgemeinen war bei steigenden Auflösungen/AA-Stufen die 4870er besser.
Eine 5870er hätte (nach obigen specs) 4% mehr Pixelfüllrate, 9% mehr Texturfüllrate, 9% weniger Speicherbandbreite und 2,36x mehr (236%!) der Shaderleistung einer GTX 360.
Wenn man das mittelt hatte eine 4870 nach Zahlen etwa 100% der Rohleistung einer GTX260 216 und ist auch gleich schnell. Jetzt ist eine 360er nach Zahlen etwa um Faktor 1,35 unterlegen (Ja ich weiß die Rechnung hinkt etwas, wollte es nur einmal verdeutlichen) und soll nun vor einer 5870 sein?!

Also ohne nähere Details zu Nvidias Architekturänderungen ist die Annahme illusorisch. Da müsste nVidia schon Wunder vollbringen was die Chipeffizienz angeht. Und ein Großteil der Optimierungen betreffen nicht Gaming, sondern eher GPGPU (z.B. die Cache-Struktur, ECC usw.).
So wie es aussieht wäre es wohl eher GTX 360 <-> HD 5850 - GTX 370 <-> HD 5870 - GTX 380 <-> HD 5890? - HD 5970.
Wirklich interessant könnte das HD 5870 vs. GTX 380 Duell werden. Ich denke das müsste Kopf an Kopf gehen. Wenn man noch wüsste was AMD für eine 5890 plant (welche ja nicht unwahrscheinlich, eher sogar recht sicher ist) wäre das noch besser :)
4.) Duplex 10.12.2009 - 19:28 Uhr
vielleicht damit man etwas luft für eine 5870 oder 5890 hat , also ich meine sollte eine entsprechende AMD graka rauskommen wäre es später wohl kein problem mit einer GTX370 aufzuwarten

da es anfangs immer sone sache ist mit den yields riesiger chips
3.) PCuser90 10.12.2009 - 19:19 Uhr
Wenn man dem Link von Dampfkanes folgt, ergibt sich für die angebliche Leistung folgende Abstufung:
GTX 380 > HD 5970 > GTX 360 > HD 5870.

Das wäre in der Tat denkbar, aber ich glaube diese Taktraten erst, wenn ich sie sehe!
Die Tesla-Karten liefen mit ca. 1200 MHz! Egal, was dafür bei den Teslas verantwortlich ist, ca. 40 % mehr Takt kann ich nicht glauben!
Über die TDP will ich lieber erst gar nicht nachdenken...

Und warum bitte sollte NVidia 25% der Shader deaktivieren!?
Entweder man peilt exakt eine Leistung knapp über den HD 5000ern an oder es gibt in Kürze eine neue GTX 360 (mit gleichem Namen!) mit 416 oder 448 SPs - wie schon einmal geschehen bei der GTX 260!
2.) Dampfkanes 10.12.2009 - 18:45 Uhr
die ursprüngliche Quelle für die Tabelle auf BSON dürften diese beiden Postings sein:
http://www.brightsideofnews.com/comment ... .aspx#3034
Wer auch immer der Herr "Anonymus" ist?;)
1.) CaptainCosmotic 10.12.2009 - 17:49 Uhr
Wie wäre denn die Leistung mit einer GTX 285 zu vergleichen?
Also rein spekulativ.