GTX 480 nicht schneller als HD 5870?

NvidiaMomentan überschlagen sich regelrecht die Gerüchte über die kommende Nvidia-Grafikkartengeneration und dies liegt in erster Linie daran, dass Charlie Demerijan stets neue Horrormeldungen veröffentlicht, die bis zur Stunde nicht verifiziert werden können und damit auch mit äußerster Vorsicht zu genießen sind.
Schon vor drei Tagen hatte der Nvidia-Gegner auf seiner Internetpräsenz Semmiaccurate veröffentlicht, dass der GF100-Chip an ungeahnten Problemen leide, bezog sich dabei aber nicht wie im aktuellen Artikel auf eine vermeintlich schwache Performance, sondern ein verspätetes Erscheinen aufgrund schlechter Ausbeute, die wiederum nur durch ein komplett neues Stepping, welches eine weitere, erhebliche Verzögerung nach sich ziehen würde, verbessert werden könne.

Semmiaccurate berichtet, dass Nvidia inzwischen erlesenen Personen erste GTX 470- und GTX 480-Karten gegeben hätte. Die Taktraten sollen dabei weit hinter den Zielvorgaben liegen. Demnach soll das Topmodell GTX 480 mit 600/1200 oder 625/1250 MHz takten und damit die anvisierten 750/1500 MHz weit verfehlen. Jene 20 Prozent mehr Takt hätten für einen gesunden Vorsprung gegenüber AMDs Topmodell HD 5870 gesorgt, jetzt soll das Nvidia-Flaggschiff in aktuellen Spielen nur eine ähnliche Performance erbringen. Lediglich im Unigine Heaven-Benchmark, der massiv auf Tesselation setzt, sei die neue Geforce eine Klasse für sich und etwa doppelt so schnell wie die HD 5870 und damit auch schneller als die HD 5970.
Die Geforce GTX 470 soll ebenfalls mit 625/1250 MHz takten, allerdings nur auf 448 Shader- und 56 Textureinheiten statt 512 und 64 zurückgreifen können. Genaue Angaben über die Performance macht man nicht, allerdings ist mit 15 bis 20 Prozent weniger Performance im Vergleich zur GTX 480 zu rechnen, womit sie sich wohl zwischen HD 5850 und HD 5870 positionieren dürfte.

Wie es weiter heißt, ist aber nicht nur die Performance kritikwürdig, sondern auch das Temperaturverhalten. Entsprechende Gerüchte, dass die neue Geforce-Generation ein Hitzkopf würde, gab es schon einmal. Semmiaccurate berichtet, dass sich die Geforce GTX 480 im Idle auf 70 Grad Celsius erhitzte und dabei der Lüfter mit 70 Prozent der Geschwindigkeit drehte, was aktuell selbst unter 3D-Last nicht üblich ist. Die Lautstärke soll sich aber überraschenderweise noch auf einem akzeptablem Niveau befunden haben - einen Auslesefehler der Lüftergeschwindigkeit halten wir daher für wahrscheinlich.
In einem älteren Bericht hatte Semmiaccurate einmal offengelegt, dass der GF100-Chip Probleme mit niedrigen Spannungen hätte. Die hohe Temperatur und Lüftergeschwindigkeit könnten somit auch auf einen nur mäßig funktionierenden 2D-Stromsparmodus hindeuten.

Charlie Demerijan fasst am Ende seines Berichts zusammen "GTX480 is too hot, too big, too slow". Inwieweit er damit Recht behält, wird sich vermutlich Ende März endgültig zeigen. Schon für morgen hat Nvidia jedoch eine große Ankündigung bezüglich der neuen Grafikkartengeneration über seinen inzwischen berüchtigten Facebook-Blog in Aussicht gestellt. Wie diese ausfallen wird, werden wir morgen an selber Stelle berichten.


Kommentar schreiben

  • Loggen Sie sich oben mit ihren Benutzerdaten ein, um Kommentare zu verfassen.
  • Falls Sie noch kein Mitglied sind, können Sie sich in unserem Forum registrieren.

19 Kommentare

19.) emperror 22.02.2010 - 22:55 Uhr
@Phenocore:
ich gestehe sogar ein ati sympathisant zu sein, allerdings kann ich da klar zwischen eigenem nutzen unterscheiden, nicht umsonst hatte ich letztens einem freund dazu geraten sich eine gtx260-216 zu kaufen, es kommt halt immer auf den einsatzzweck und persönlichen nutzen an! ich habe aber für beide seiten, sowohl nvidia als auch ati nachteile/vorteile genannt!! und andere user anfahren tu ich auch nicht, ausser dich vermutlich, da da einfach sachen sind die so nicht stimmen!(ansonsten zeig mir doch auf wo ich irgendjemand angefahren hab???)
und zur gtx295 und hd5870: ich hatte extra computerbase als quelle hinzugefügt, da da der recht aktuelle grafikkartenvergleich von ende 2009 ist, wo man sehen kann, das eine hd5870 schneller ist als eine gtx295, wieso das hier bei hw anders ist, weiß ich auch nicht! die anderen punkte hinzuzufügen war nur um die höhere leistung nicht z.b. aus einer höheren leistungsaufnahme etc. zu schließen! das war keine kaufempfehlung, du solltest einfach vllt. aufhören in meine aussagen soviel hineinzu interpretieren! und mein vorheriger beitrag, in dem anderen artikel, stimmt ebenfalls, kannst du auch jederzeit im grafikkartenvergleich 2009 von cb nachlesen! und korrigiert worden bin ich auch nicht, nach mir steht da kein kommentar mehr! aus fakten also auf fan getue zu schließen ist für mich nicht nachvollziehbar, da ich die quellen beide male angegeben hab! und das eine hd5970 in irgendeiner form toll ist hab ich auch nie gesagt, ich persönlich halte dual gpu's für schrott egal ob nv oder ati! dann habe ich sogar eingeräumt das die bilanzen von amd nicht das gelbe vom ei sind, und du unterstellst mir direkt eine leseschwäche nur weil ich direkt die ganze bilanz gennant hab?! von mir aus führe die diskussion weiter so, in dem stil wie du werde ich keine diskussion führen, fakten sprechen halt für sich, du hättest nur die links ankicken müssen, und nicht in allem eine hassfigur sehen! bei jedem nächsten post wo du mir irgendwelche sachen unterstellen willst werde ich nichtmehr reagieren, les einfach meine kommentare richtig!
18.) Phenocore 22.02.2010 - 20:50 Uhr
@emperror
Das du ein ATI-Fan bist, ist kaum zu übersehen. Jedem hier sind all deine Beiträge ersichtlich. Am liebsten verwendest du die rhetorische Floskel "Nichts gegen nv, aber..." wenn du mal wieder etwas gegen nVidia sagen willst. Aber ist ja egal, ich lasse dir da freie Hand. Was hier bei HWI nicht geht, ist die anderen User persönlich anzufahren. Das kannst du bei Computerbase vielleicht so machen, in dem du einen Beitrag bis zur Unkenntlichkeit zerschneidest und dann mit deinen Antworten auch noch dem zitierten etwas in den Mund legst, was er gar nicht gesagt hat, aber nicht hier. Und so lange du hier nicht aufgetaucht bist, war hier das Diskussionsniveau in der Tat sehr hoch.

Was ich mit "in den Mund" legen meine?

Gleich am Anfang schreibe ich, dass eine GTX 295 schneller ist als eine HD5870 und dass das nVidia mit 55nm geschafft hat und frage warum es nVidia mit 40nm nicht schaffen soll.

Was antwortest du unter meinem Zitat? Du schreibst, dass die GTX295 nicht überlegen ist, weil sie teurer, langsamer und eine höhere Leistungsaufnahme hat.

Die Frage ist jetzt. Wo hab ich geschrieben, dass die GTX295 der bessere Kauf ist, oder ähnliches? Ging es hier darum eine Kaufemfehlung auszusprechen? Was haben der Preis und all die anderen Punkte hier in deiner Argumentation zu suchen? Nein, es ging hier um die Machbarkeit einer schnellen Grafikkarte seitens Nvidia. Davon abgesehen solltest du dir mal unsere Grafikkartencharts anschauen. Natürlich hängt Performance auch von den verwendeten Spielen ab, aber darum geht es gar nicht, sondern um die Art deiner Argumentation. Auch wenn die Karten gleich schnell wären, wäre meine Aussage: wenn nvidia, dass mit 55nm schafft, warum soll nvidia dann eine schnellere Karte in 40nm nicht schaffen?
Ich hab ja auch schon deinen vorherigen Beitrag gelesen, in demm du bahauptest, eine HD5770 sei schneller als eine GTX260 216SP, wo du auch wieder zurecht korrigiert worden bist. Wie gesagt, deine Beiträge sind hier für alle ersichtlich und auch dein Fan-getue.

Die HD5970 ist übrigens ähnlich heiß wie eine GTX295 und ist am maximum der PCIe-Spezifikationen. Trotzdem hat Charlie die Karte nicht auseinandergenommen. Wie gesagt, es gibt überall was zu meckern, wenn man meckern will.

Und es ist schon seltsam, dass Nvidia positive Bilanz vorzeigen kann, sogar dann wenn sie keine DX11-Karte haben und nicht untergeht, wo es doch Charlie vorausgesagt hat, denn Nvidia muss ja alles weit unter Produktionskosten verkaufen und nVidia hat auch sonnst überall falsche Entscheidungen getroffen. Ja ne, is klar, die drucken das Geld und kommen daher auf die positive Bilanz. Es gibt Fakten und es gibt üble nachrede. Das eine ist vom anderen relativ leicht unterscheidbar.

Und das ist noch nicht alles, du scheinst auch noch eine Leseschwäche zu haben. Ich schreibe etwas über die Bilanz von AMDs-Grafikkartensparte und du äußerst dich zu der kompletten Bilanz von AMD und schreibst irgend etwas über die Auslagerung der Fabriken. Ist es wirklich so schwer den Inhalt eines Textes zu verstehen?

Soll ich deinen Beitrag wirklich weiter auseinander nehmen? Dein kompletter Beitrag beruht darauf, mich misszuverstehen, etwas mir in den Mund zu legen oder zusammenhänge dort herzustellen, wo keine sind, meine Aussagen aus dem Zusammenhang zu reisen um am Ende zu dem Schluss zu kommen, dass man nicht auf mich zu hören braucht. Glaubst du wirklich, du kommst mit deiner Wortverdreherei hier auch nur Ansatzweise weiter, glaubst du wirklich, dass du schon so gut in Rhetorik bist? Tu dir und anderen ein Gefallen und versuche nie wieder hier jemanden zu diskreditieren.
17.) emperror 22.02.2010 - 19:37 Uhr
@grensen:
so solls sein, und so läuft die soziale marktwirtschaft ;)
allerdings kann ich dir da in sachen monopol nicht ganz zustimmen, die verhältnisse zwischen ati und nvidia sind eigentlich relativ ausgeglichen (hab grade ebend die zahlen von q4 2009 bei pcgh nachgeschaut!). da ist eher die rede von monopolstellung seitens intel mit ihren 55,2%, da tut sich zwischen nvidia (24,3%) und ati(19,9%) relativ wenig!

und zum thema cuda, ist klar das amd das nicht bietet, microsoft vertreibt ja auch kein Mac OS X :lol:
cuda ist herstellerspezifisch mit schnittstelle zu open cl, so wie ati's stream auch mit schnittstelle zu open cl. allerdings kann man da mit keinen von beiden zufrieden sein, ati unterstützt das momentan noch zu wenig, setzt allerdings wohl mehr auf opencl, was der mehrheit zugute kommt, und nvidia soll ja C mit den nächsten gpu's voll unterstützen, braut aber mit cuda sein eigenes süppchen, daher will ich da kein schlechter oder besser reden!

@Phenocore:
wieso sollte ich dich auch in allem berichtigen^^ bin nur bei limit nicht von einem tippfehler ausgegangen, da es sich wiederholt hat! und den rest als gülle zu bezeichnen, und charlie zu beschuldigen sich alles an den haaren herbeigezogen hat, und die die das unterstützen erbrämlich sind, spricht natürlich für sich, ich will da auch garnicht mehr groß drauf eingehen, hab deine eigene meinung und werde glücklich mit :)
16.) (th) 22.02.2010 - 17:42 Uhr
es war wirklich amüsant die Kommentare zu lesen!

Ich persönlich glaube immernoch an eine durchaus gute Performance der Nvidiakarten, die anderen Faktoren scheinen wohl nicht so gut auszufallen; letztendlich ist das P/L am für mich als potenzieller Kunde am interessantesten. Das wird die Zukunft zeigen.
Jedenfalls find ich es ok, dass Hardware-infos.com von Charlie's Prognosen schreibt, ist interessant und war durchaus schon richtig in Vergangenheit. Und da HI in letzter zeit mit CB die einzige Seite ist auf der ich noch gucke, bin ich froh auch etwas auf eine Seite angelehnte News/Prognosen zu lesen.
15.) grensen 22.02.2010 - 10:13 Uhr
also mir ists ehrlich gesagt egal was manche leute über nvidia denken mögen, was passieren könnte und überhaupt.
es gibt genug user die egal wie schwarz ihr das sehen mögt, dennoch die neue nvidia kaufen werden, nicht ati.

mit einer nvidia kann ich ohne bedenken zu einem 120hz tft´s greifen und laufe nicht gefahr, dass die 120hz nicht supportet werden, schaut nur mal wie viele user probleme mit 120hz und ati haben.
wer einmal 120hz gespielt hat, wird sich garantiert nicht mehr mit 60hz zufrieden geben, mit nvidia hab ich dann auch noch die option 3d gaming zu erleben, was die zukunft ist!

cuda hat ati auch nicht zu bieten, ich war jedenfalls baff wie geil ein full hd film aussehen kann, wenn er mit nvidia power beschleunigt wird.

ati mag mehr leistung haben, aber das allein macht wohl nur bencher glücklich...

für mich hat nvidia derzeit noch ein monopol, das mag zwar manchem hier nicht einleuchten, ist aber so.
14.) Phenocore 22.02.2010 - 00:54 Uhr
@emperror
Wir sind hier nicht bei "Trollposting.com". Wenn du etwas inhaltlich sagen willst, kannst du das in einem schönen gegliederten Beitrag machen. Mich zu diskreditieren, in dem du meinen Beitrag bis zur Unkenntlichkeit zerschneidest und unter jedes meiner Zitate Gülle kippst, unabhängig davon, ob es da rein passt oder nicht, gehört nicht zu einem inhaltlich qualitativen Beitrag. Im Übrigen hab ich noch mehr Rechtschreibfehler gemacht, als den einen den du angemerkt hast. Das sollte dir zu denken geben, das nächste mal bitte alle Fehler raus suchen. Damit du es mir so richtig zeigen kannst. Übrigens wird "Limit" groß geschrieben, aber von Groß- und Kleinschreibung hältst du ja nichts. :roll:
13.) emperror 22.02.2010 - 00:12 Uhr
Phenocore:
Er hat vorausgesagt, dass ein DUAL-GPU-Chip mit dem G200 nicht möglich sein wird, weil das alles zu heiß wird und physikalisch unmöglich ist. und GTX 295 kam raus.
es kam keine dual gpu mit dem gt200, erst mit dem gt200b, und wie du bei meinem ersten kommentar lesen kannst, war auch die sehr heiß!
Phenocore:
Er hat vorausgesagt, dass nvidia die Preise nicht unter einen bestimmten Limmit senken kann und nvidia hat dieses Limmit bei weitem unterschritten.
Charlie konnte ja nicht ahnen das nv karten unter produktionskosten verkauft :)
und limit wird übrigens mit einem "m" geschrieben!
Phenocore:
Er übertreibt in jeder News und tut so, als würde nvidia überall falsche Entscheidungen machen und komischerweise hatte Nvidia trotzdem einen höheren Gewinn im letzten Quartal zu vermelden, als AMDs Grafikkartensparte.
wenn ein chip ein halbes jahr zuspät kommt, und dann, aller vorrausicht nach nicht konkurenzfähig ist, kann nicht alles richtig gelaufen sein! Nichts gegen nv, aber alte chips umlabeln kostet nahezu nichts, und bringt eine menge ;) nichtsdesto trotz sind die zahlen von amd natürlich nicht das gelbe vom ei, aber sind auch erst wieder im kommen nach der ganzen umstrukturierung, und ausgliederung von den fertigungsstätten!
Phenocore:
Es gibt auf dieser Welt genug Quellen, man braucht den Charlie und seine verlogene Art der Newserstattung nicht.
stimmt, der fermi versteckt sich nur vorm konsument, in wirklichkeit schlummert er schon seit november letzten jahres heimlich in den regalen...^^
Phenocore:
Dann such mal nach einer günstigen HD4890.
wozu eine 4890, wenn es schon neue, viel bessere karten von ati gibt?
Quote:
Und ja, wer so viel Müll produziert, wird aus Prinzip ignoriert, in der Hoffnung, dass es zukünftig nicht noch mehr solche Leute auf ähnliche Ideen kommen.
hmm, dann sollten wir mal alle mit dir anfangen...

und das nv schwierige zeiten bevorstehen ist allgemeinhin bekannt, da die keinerlei ahnung von cpu's haben, nie die lizenzen dazu bekommen werden von intel, intel im gpu markt auch dank genügend gelder vordringen wird, und chipsätze kommen von nv sowieso nichtmehr...
12.) Phenocore 21.02.2010 - 23:31 Uhr
N1truX:
Die Frage ist aber zu welchem Preis? Mittlerweile gibt es praktisch kaum noch GTX 2x0 Karten mehr, da sie sich einfach nicht mehr rentieren.

Dann such mal nach einer günstigen HD4890. Klar rentieren sich GTX2x0-Karten nicht, weil sie schlicht kein DX11 können und eine Fertigungsstufe hinter der HD5000-Serie liegen. Das ist ein Problem des verspäteten Fermi und nicht des G200-Designs.
Wobei ich nicht sagen will, das der G200 super gelungen ist, aber eine Missgeburt, wie ihn Charlie schon fast ausmalt ist der nun bei weitem nicht, schließlich schlagen die GTX200-basierten Karten alle HD4000-Karten und sind dabei nicht so laut, wie eine HD4890-Referencedesign, die Sacklaut ist. Warum hat Charlie auf dem sacklautem Referencedesign der HD4890 nicht rummgehackt? Es gibt überall was rumzuhacken, wenn man möchte.
Charlie hat auch mal als Googles OS erschienen ist, gleich MS fast den Tod vorausgesagt, oder sagen wir mal "herbeigeschworen". Das ist einfach so lächerlich. Und ja, wer so viel Müll produziert, wird aus Prinzip ignoriert, in der Hoffnung, dass es zukünftig nicht noch mehr solche Leute auf ähnliche Ideen kommen. Das was er betreibt ist Propaganda und wenn ihr glaubt, ihr könnt euch dem komplett entziehen und all seine Lügen entlarven und nur die Infos heraus filtern, dann habt ihr euch leider geiiert. Ich sehe das tagtäglich, wie sich inzwischen alle Wundern, dass es nvidia doch nicht so schlecht geht, wie Charlie es suggeriert hat und ich sehe auch, dass immer mehr Leute den Weg von ATI für den heilen Gral halten, aber das ist der nun mal nicht, dort wurde genau so, nur an anderen Stellen Eingeständnisse gemacht. Für Nvidia ist nun mal der Profimarkt wichtig und es kümmert Nvidia überhaupt nicht, was Charlie davon hält. Wenn Charlie so schlau ist, soll er doch bitte ein eigenes Unternehmen Gründen und dann eine positive Bilanz vorzeigen.... ... und das ist nur die Spitze des Eisbergs...
11.) emperror 21.02.2010 - 23:17 Uhr
Phenocore:
GTX295 ist schneller als HD5870 und das hat Nvidia mit 55nm Chips geschafft. Warum nVidia das gleiche mit 40nm Chips nicht erreichen kann, bleibt wohl ein ewiges Geheimnis des nVidia-Bashers Charlie.

zur gtx 295 im vergleich zur 5870: die ist lauter, wärmer, langsamer, höhere leistungsaufname und teurer. und das bei mehr als doppelt soviel Die fläche :) wo die ansatzweise mithalten soll ist mir ne frage??? (Quelle:computerbase.de)
charlie sieht zwar schon aus wie ein schlitzohr, aber recht behalten hatter trotzdem erstmal :)
das der fermi aber grundlegene probleme macht steht ausser frage, die gpu kommt ja nicht nen halbes jahr zu spät, weil die "nur" hitzeprobleme hat oder takt oder sonstiges, da steckt schon eine ganze reihe probleme dahinter!

@Weiser:
ich würde sogar ein schritt weitergehen, sobald fermi lieferbar ist für den enkundenmarkt, ist die reife des fertigungsprozesses soweit, das ne schwemme von ati karten kommt, da die ja durchaus sehr viel leichter zu produzieren sind! also daher denke ich das wenn der refresh ala5890 zum start vom fermi kommt(wo ich mir sehr sicher bin) 300€ durchaus maximum sind :)
aber das größte problem seh ich im zeitdruck für nvidia, wenn fermi im april kommt für den endkundenmarkt(was meiner meinung nach noch sehr optimistisch ist) dann wird zeitgleich schon eine 5890 o.ä. kommen. Und soweit ich weiß ist im 2 Halbjahr 2010 schon der 28 nm prozess bei Globalfoundries installiert, wenn ich mich nicht irre, und Northern Islands nimmt solangsam gestallt an, während nv noch an einem Konkurenzfähigen fermi nachfolger werkelt!bin sowieso mal gespannt, angeblich soll ja n.islands erst noch bei tsmc gefertigt werden in 32nm, und dann in 28nm bei GF, nur denke ich wird tsmc bei 32nm nochmal ordentlich probleme haben, 40 nm soll ja auch angeblich schon so hohe yield raten wie der vorgänger bringen, wovon aber irgendwie nichts zu sehen ist^^

@N1truX:
der artikel von anand ist echt gut, lang ist's her das ich sowas gutes gelesen hab :)
N1truX:
PS: Ich freue mich immer wieder das alle hier auf einer sachlichen Ebene diskutieren können! Klasse Jungs (und Mädels?)
Da steckt doch ironie dahinter? naja, bei cb isses noch schlimmer momentan, samt redaktion^^ die bringen nurnoch die "ankündigungen von ankündigungen" von nvidia, kein wort mehr von charlie, weil der ja sich alles an den haaren herbeizieht ;) ich glaube ja persönlich Huang ist an größenwahn erkrankt, was der immer für sachen bringt...^^
10.) N1truX 21.02.2010 - 23:06 Uhr
Phenocore:
Ich habe deine Links nicht angeklickt... Was er falsch "vorausgesagt" hat? Er hat vorausgesagt, dass ein DUAL-GPU-Chip mit dem G200 nicht möglich sein wird, weil das alles zu heiß wird und physikalisch unmöglich ist. und GTX 295 kam raus. Er hat vorausgesagt, dass nvidia die Preise nicht unter einen bestimmten Limmit senken kann und nvidia hat dieses Limmit bei weitem unterschritten.

Bezüglich des GT200 hatte er doch recht, die erste Dual-GPU war der GT200b in 55 statt 65 nm und der hat einiges weniger an Strom zum Frühstück verputzt. Zumindest war mir so das sich seine Aussagen nur auf den ersten GT200 bezogen. Den GF100 räumt er ja z.B. in einem Relayout in 32/28nm ja auch Chancen ein.
Nvidia hat die Preise unterschritten, das stimmt. Die Frage ist aber zu welchem Preis? Mittlerweile gibt es praktisch kaum noch GTX 2x0 Karten mehr, da sie sich einfach nicht mehr rentieren. Sicherlich übertreibt Charlie in vielerlei Hinsicht, aber er hat einfach mit seinen Spekulationen sehr oft recht oder liegt eben Nahe an der Wahrheit.
Er hat gute Quellen und ist auch kompetent - das ist meine Meinung. Das sein Stil nicht jedem gefällt stelle ich ja nicht in Frage. Das er mit seinen Untergangs-Szenarien übertreibt auch nicht. Das man ihn dafür aber gleich "verteufeln" muss und komplett ignoriert verstehe ich aber nicht.
9.) Phenocore 21.02.2010 - 22:51 Uhr
Kellerkind:

Dass Charlie nicht neutral ist, ist mir vollkommen klar. Aber mich würde einfach mal interessieren, was er eurer Meinung nach so alles falsch vorausgesagt hat?

Ich habe deine Links nicht angeklickt... Was er falsch "vorausgesagt" hat? Er hat vorausgesagt, dass ein DUAL-GPU-Chip mit dem G200 nicht möglich sein wird, weil das alles zu heiß wird und physikalisch unmöglich ist. und GTX 295 kam raus. Er hat vorausgesagt, dass nvidia die Preise nicht unter einen bestimmten Limmit senken kann und nvidia hat dieses Limmit bei weitem unterschritten.
Er übertreibt in jeder News und tut so, als würde nvidia überall falsche Entscheidungen machen und komischerweise hatte Nvidia trotzdem einen höheren Gewinn im letzten Quartal zu vermelden, als AMDs Grafikkartensparte.
Es gibt auf dieser Welt genug Quellen, man braucht den Charlie und seine verlogene Art der Newserstattung nicht. Ansonsten, wenn ihr solche News so toll findet, schreib ich hier auch solche News und schau mir dann an, wie viele Leute die Seite hier fluchend verlassen. Alle wissen, dass Charlie nicht neutral ist und sagen es auch, aber alle versuchen aus seinen Lügen, die paar Informationskrümmel herauszuextrahieren. Ist das euer neuestes Hobby? Nein, es tut mir nicht leid, dass ich mich euch bei eurem Hobby nicht anschließe. Das ist einfach erbärmlich.
8.) N1truX 21.02.2010 - 20:47 Uhr
Weiser:
Schon beim GT200 war zu sehen, das ein Chip, der durch zu viele GPGPU-Transistoren aufgepumpt ist, zu groß, zu teuer, zu stromfressend und zu langsam wird. Wie kann man dann einfach so weiter machen bzw. es beim GF100 noch schlimmer machen.
Auch wenn es die meisten Wissen. Einen Chip zu Designen braucht von Konzeption bis zum Release Jahre. AMDs RV870 wurde in seinen specs finalisiert, bevor man den RV770 ansatzweise am Markt hatte und auch nur ahnen konnte wie konkurrenzfähig dieser wird.
Demensprechend dürfte auch Nvidias Design-Entscheidung für den GF100 mindestens 3-6 Monate vor dem Release des GT200 liegen.
Bezüglich des Designs gebe ich dir recht, es ist einfach zu aufgepumpt. Und ich kann nur nochmal den Artikel von Anand empfehlen. AMD hat viele Features aus dem RV870 gestrichen um diesen zu Shrinken, da man früh die Probleme bei TSMC erkannt hat. Da ging es vor allem um eine Kostenkalkulation, da TSMC anfangs wohl zu geringe Preise suggeriert hatte.
Quote:
Denn mit ein bisschen Pech für Nvidia hat AMD eine HD 5890 schon so gut wie fertig und holt leistungsmäßig die GTX 480 schnell nach dem Launch ein und kontert zusätzlich noch mit schon erwähnten 300,- € Straßenpreisen.

So blöd das klingen mag, eine Karte ala HD 5890 dürfte für AMD kein größeres Problem darstellen. Durch den RV740 hat man einige Erfahrungen gesammelt und wie man bei den OC-Varianten und Weltrekorden sieht ist der RV870 ganz taktfreudig. AMD wie Nvidia haben da die gleichen Taktiken. Warum schon das volle Potential zeigen und so der Konkurrenz schon vorab die Chance geben zu reagieren?
Sprich AMD hat aktuell keinen Grund eine schnellere Version zu bringen. Man kann in Ruhe gute Chips selektieren und zum GTX 4x0 Start die HD 5890 vorstellen. Da die Produktion schon eingelaufen ist und der Preis höher sollte auch die Verfügbarkeit schneller gewährleistet sein als bei den ersten HD 5800 Karten. Die gibt es ja bis heute noch nicht richtig..

PS: Ich freue mich immer wieder das alle hier auf einer sachlichen Ebene diskutieren können! Klasse Jungs (und Mädels?)
7.) Kellerkind 21.02.2010 - 18:57 Uhr
Was die Performance angeht bin ich auch noch vorsichtig gegenüber dem, was Charlie schreibt, aber in allen anderen Punkten halte ich das, was er schreibt, für sehr realistisch.

Die GTX 280 hat bei ~575mm² Fläche im 65nm-Prozess bis zu 236 Watt verbraten, war recht laut und heiß (und hatte, nebenbei bemerkt, auch eine 2,5 mal so hohe RMA-Rate wie z.B. die 4870). Der GF100 ist jetzt kaum kleiner und wird in einem nachweislich deutlich leakigerem Prozess gefertigt. Da ist es vollkommen plausibel, dass man nur ähnliche Taktraten wie beim originalen GT200 fahren kann, ohne Verbrauchs- und Hitze-Regionen jenseits von gut und böse zu erreichen. Zudem soll die Ausbeute von Chips mit vollen 512 SP katastrophal sein, und zwar nicht nur laut Charlie. Im Beyond3D-Forum hat der User XMAN26, der übrigens eher Pro-Nvidia zu sein scheint, etwas davon gesagt, dass 99% der Chips, die Nvidia von TSMC bekommt, 448Sp-Exemplare sind. 99% der Chips, die überhaupt funktionieren, wohlgemerkt. Selbst bei einer Gesamt-Yieldrate von 60% hieße das, dass die Yieldrate für 512er bei deutlich unter 1% liegt, und das ist einfach katastrophal, selbst wenn der Chip 50% schneller als eine 5870 wäre (was ich stark bezweifle).
So wird zunächst nur eine stark limitierte Anzahl GTX 480 auf den Markt kommen. Der Großteil der Karten werden GTX 470 sein, und mit so niedrigen Taktraten + zwei deaktivierten Shader/TMU-Blöcken ist es sehr unwahrscheinlich, dass die 470 Performance-technisch positiv überraschen kann.

@eXEC & Phenocore:
http://www.theinquirer.net/inquirer/news/1052025/gt300-delayed-till-2010
http://www.theinquirer.net/inquirer/news/1050399/nvidia-gt212-hasn-taped
http://www.theinquirer.net/inquirer/news/1050925/nvidia-tapes-gpus
http://www.theinquirer.net/inquirer/news/1137331/a-look-nvidia-gt300-architecture

Wieviel ist davon eingetreten, wieviel nicht?
Dass Charlie nicht neutral ist, ist mir vollkommen klar. Aber mich würde einfach mal interessieren, was er eurer Meinung nach so alles falsch vorausgesagt hat? Klar, dass mit der Performance ist (noch) unbestätigt, und damit dass Fermi Tesselation nur in Software ohne dedizierte Hardware berechnet hatte er damals unrecht (wobei das aber auch eher eine Spekulation seinerseits auf der Grundlage der korrekten Info, dass Fermi keinen Tesselator in dem Sinne hat, war), aber sonst? Sowohl was Release-Zeitpunkte, den gecancelten GT212 als auch Stromverbrauch, Taktraten usw. angeht hat er zuletzt definitiv eine bessere Quote gehabt als nahezu jede andere Seite. Dass er befangen ist heißt nicht automatisch, dass seine Insider-Quellen Fakes und seine Infos ausgedacht sind.

@eXEC: Jup, hab Lust zu wetten. Ich wette, dass Charlie mindestens bei Stromverbrauch, Taktraten und mit der quasi nicht vorhandenen Verfügbarkeit der GTX 480 aufgrund grottiger Yields recht behält :)
6.) Weiser 21.02.2010 - 18:29 Uhr
Mag ja alles richtig sein, was ihr hier schreibt, ich verstehe nur die Schlafmützigkeit Nvidias nicht.
Es ist doch nicht der erste neue Chip, den die entwickeln, sondern schon der X-te!
Schon beim GT200 war zu sehen, das ein Chip, der durch zu viele GPGPU-Transistoren aufgepumpt ist, zu groß, zu teuer, zu stromfressend und zu langsam wird. Wie kann man dann einfach so weiter machen bzw. es beim GF100 noch schlimmer machen. Hätte man vielleicht von Anfang an alle mehr oder weniger für den Privatkundenmarkt unnützen GPGPU-Implementierungen herausgenommen und nur die aller wichtigsten/interessantesten dringelassen und vielleicht mit diesem Chip eine Maske mit 2,5 Mio. Transistoren entwickelt, wäre das vielleicht teurer geworden, als nur mit einer Maske für Tesla, Quadro und Geforce, doch vielleicht hätte man dann schon Geforces im Januar bringen können und die Mehrkosten für die Zusatzmaske hätten locker die Kosten unterschritten, die durch die jetzige Verspätung und notwendige Überarbeitung anfallen!
Und wenn die GTX 480 letzendlich nur um die 10% schneller als die HD 5870 ist, hätte ich die gar nicht rausgebracht. Denn mit ein bisschen Pech für Nvidia hat AMD eine HD 5890 schon so gut wie fertig und holt leistungsmäßig die GTX 480 schnell nach dem Launch ein und kontert zusätzlich noch mit schon erwähnten 300,- € Straßenpreisen. Wenn sich Nvidia auf einen solchen Preiskampf einlassen muss, wirds echt Probleme geben, da die jeder Chip auf dem Wafer sowieso schon 500$ kostet und man dann tatsächlich mit Verlust kaufen müsste. Die Boardpartner hätte ernste Probleme, manche könnten gar Pleite gehen, andere sich von Nvidia abwenden...
Ich würde die GF100 Chips dann nur auf den Profikarten einsetzen und für die Geforces auf GF104 mit besseren Taktraten und höheren Yield setzen.
5.) hmd 21.02.2010 - 18:20 Uhr
@Nvidia-Fans
Eigentlich müsstet ihr doch auf Nvidia sauer sein, weil die euch seit Monaten mit falschen Informationen beschei.ssen. Es ist doch wirklich lächerlich dass ihr euch über den Schreiberling so ärgert.
Aus meiner Sicht spricht ziemlich viel für diese Thesen. Dass der Chip aufgrund der Optimierung für GPU-Computing für den Game-Bereich nicht wirklich effizient sein könnte, ist doch wahrscheinlich. Dass er aufgrud der unnötig aufgeblasenen Struktur zu heiss werden könnte, ist auch nicht unwahrscheinlich. Dass die Fertigungsprobleme gross sein könnten, weiss man ja schon vom Konkurrenten ATI, der einen deutlich kleineren Chip fertigen lässt. Dann die Meldung vom CEO, dass die bestehenden Mainstream-Karten schon OK seien und nicht ersetzt werden müssten, ist doch ne Meldung, die die schlimmsten Befürchtungen wahrscheinlich werden lassen. Das heisst dass der modulare Aufbau wirklich nur leeres Geschwafel war.

Und was Nvidia-Fans einfach ignorieren ... man muss mit dem Chip etwas verdienen können. Wenn man teurer produziert und nicht bessere Leistung bietet, kann man das Produkt nicht auf den Markt bringen (das ist vermutlich der Fall). Vielleicht habt ihr vergessen, dass sie ihre alte Reihe wegen mangelder Konkurrenzfähigkeit vom Markt nehmen mussten.
4.) N1truX 21.02.2010 - 17:14 Uhr
Charlie schreibt nicht die besten Sachen über Nv, aber beim Fermi lag er bis jetzt ziemlich gut und hatte sehr gute Quellen. Wo alle gesagt haben "Ende 09" war er fast der einzige der gesagt hat "nicht vor April oder Mai 2010" (glaube zumindest die Monate). Auch die Yield-Geschichte kam von ihm und scheint ja nicht ganz aus der Luft gegriffen zu sein. Man sollte nichts glauben, komplett ignorieren würde ich Ihn aber auch nicht.

@SirGollum: "wie bei dem R600 aber ich denke nicht das Nvidia das passiert, weil es ja keine grundlegend neue Architektur ist oder?" Der R600 war auch keine komplett neue Architektur sondern an die der XBox 360 (Xenos) angelehnt. Gerade neue Architekturen in Kombination mit neuen Fertigungsverfahren können unangenehme Überraschungen herbeiführen. Das größte Problem des Fermi dürfte auch dessen Größe sein. Bei dem "Too big" würde ich mich mal anschließen, zumindest für TSMCs 40nm Prozess.
3.) eXEC 21.02.2010 - 16:29 Uhr
Obwohl ich eigentlich exakt das erwarte, was in diesem Bericht steht (Zu hoher Stromverbrauch, zu hohe Kosten, zu schlechte P/L) kann man hier kaum von einer Tatsache ausgehen. Dieser Charlie hat schon so viel Mist geschrieben, dass ich ehrlich gesagt kein Wort hiervon glauben kann.

Dennoch, ich persönlich gehe davon aus, dass die GTX-480 etwa 25% vor einer HD5870 liegen wird und die GTX-470 geringfügig (5-10%) schneller als eine HD5870 arbeitet. Aber selbst das wäre eigentlich zu wenig, weil AMD noch massig Taktreserven für eine HD5890 übrig hat und mit der HD5870 locker einen Preiskampf anzetteln kann. Man kann eigentlich ohne Veränderungen eine HD5870 nehmen, verwendet einen 8pin und einen 6pin Stormanschluss (Hierfür sind sogar schon auf dem PCB der HD5870 Lötstellen vorhanden), erhöht die Spannung um 0,1v und haut den Takt auf 950/2600 Mhz. Damit dürfte man immernoch besser beim Stromverbrauch dastehen, als die Konkurrenz, hat nur einen Bruchteil der Herstellungskosten und trotzdem annähernd gleiche Performance. Die HD5890 kann man dann etwa für 300€ verkaufen, die HD5870 für etwa 250€, die HD5850 fällt aus dem Sortiment und die HD5830 mit teildefektem Cypress kann man als "Resteverwertung" für 175€ ansetzen. Vielleicht noch eine 2GB-Version der HD5890 für 350€, die HD5970 hat sowieso eine GTX-480 in der Hand, dann hätte man das komplette Performance-Segment mit einem anständigen und rundum gelungenen Portfolio besetzt.

Jemand Lust zu wetten?
2.) Phenocore 21.02.2010 - 15:39 Uhr
Wie kann man nur Charlie Demerjian ernst nehmen?
GTX295 ist schneller als HD5870 und das hat Nvidia mit 55nm Chips geschafft. Warum nVidia das gleiche mit 40nm Chips nicht erreichen kann, bleibt wohl ein ewiges Geheimnis des nVidia-Bashers Charlie. Hätte Charlie keine eigene Homepage, wäre der schon längst für seine Trollpostings aus allen Foren gebannt worden.
1.) SirGollum 21.02.2010 - 15:28 Uhr
Diese ganzen Gerüchte ich will Fakten! So wie es hier alles beschrieben wird, könnte es genauso enden wie bei dem R600 aber ich denke nicht das Nvidia das passiert, weil es ja keine grundlegend neue Architektur ist oder?
Also ich kann es kaum noch abwarten :)