GTX 260 jetzt für Nvidia ein Verlustgeschäft?

NvidiaVor drei Tagen berichteten wir, dass Nvidia den Preis der Geforce GTX 260 216 anlässlich der Preissenkung der HD 4800-Chips um 30 US-Dollar von 229 auf 199 US-Dollar senken wolle. Inzwischen wird die Geforce GTX 260 216 in den USA sogar ab 169 US-Dollar verkauft. Hierzulande müssen mindestens 183 Euro auf den Tisch gelegt werden - vor rund einer Woche noch knapp 210 Euro.

Dass die Produktionskosten des G200-Grafikchips trotz des Wechsels von 65 auf 55 Nanometer weiter signifikant sind und deutlich über denen des Konkurrenten liegen, haben nach Meinung des Nvidia-Kritikers Charlie Demerjian jetzt dazu geführt, dass man eine Geforce GTX 200-Grafikkarte erstmals mit Verlust verkaufen muss.

Er rechnet vor: Für 169 US-Dollar verkauft Nvidia den Chip; Retailer wollen in der Regel mindestens 15 Prozent Gewinnspanne haben. Nvidia muss den Chip somit für 144 US-Dollar produzieren. Abzüglich Kabel, Verpackung, Anschlüsse etc. verbleiben rund 135 US-Dollar.
Wie teuer ist der G200 nun für Nvidia? Demerjian rechnet mit 110 US-Dollar für den GTX 260-Chip mit Speicher. Zieht man diese von den 135 US-Dollar ab, so verbleiben vermeintlich 25 US-Dollar Gewinn für Nvidia. Unberücksichtigt sind hier aber noch die Board-Komponenten, die mit 15 US-Dollar zu Buche schlagen, PCB und Kühllösungen, die jeweils rund 10 US-Dollar teuer sind, und schließlich 5 US-Dollar für die Nvidia-Partner.

In Summe ergibt dies ein Minus von 15 US-Dollar. Man kann also ganz grob nach dieser Rechnung sagen, dass Nvidia die Geforce GTX 260 mit Verlust verkauft, sobald sie für weniger als 185 US-Dollar angeboten wird.
Die genannten Preise für die einzelnen Komponenten etc. können wir nicht vollständig nachhalten. Die grobe Richtung sollte nach unseren Recherchen aber stimmen - Abweichungen von 10 bis 20 US-Dollar inbegriffen.


Kommentar schreiben

  • Loggen Sie sich oben mit ihren Benutzerdaten ein, um Kommentare zu verfassen.
  • Falls Sie noch kein Mitglied sind, können Sie sich in unserem Forum registrieren.

30 Kommentare

30.) Duplex 16.03.2009 - 12:48 Uhr
SunBlack hat rect , es wird nie eine native dual gpu geben , bevor man beide gpus unter einen headspreader packt baut man die shadereinheiten einfach auf ein chip , dann hat man halt statt 2x300shader 1x600shader

man kann gpus nicht mit cpus vergleichen , wir hatten das thema bereits wo mir niemand glauben wollte...
29.) (th) 16.03.2009 - 03:26 Uhr
jup SunBlack ist schon richtig.
Nativ waere natuerlich weit im Vorteil wenn der Controller gegnueber SLI/Crossfire verbessert weurde und Mikroruckler elemeniert werden koennten. Ich hab da allerdings keine grosse Hoffnung...
Die Zukunft wird meiner Meinung nach nicht den MultiGPUs gehoeren. Viel zu aufwendig und unwirtschaftlich.
28.) SunBlack 15.03.2009 - 23:43 Uhr
Ich frag mich nur was eine native Dual-GPU bringen soll. GPUs arbeitet bereits stark parallelistiert - denn ein Bild kann man ja gut aufteilen. Von daher könnte man fast von MultiGPU bereits heutzutage reden. Bei einer Dual-GPU würde man auf einem DIE nun 2 Chips bringen. Was bringt das? Dann kann man gleich doppelt soviele SIMD etc hochpacken.

Bei Dual-CPU ist es etwas anderes. Die sind auf SingleThreads optimiert. Multithreading läuft ja auch nur durch Interrupts, also es ist kein echtes Multithreading. Dual-CPUs haben das geändert. Von daher bringt beim CPU es etwas...

Bei GPUs sehe ich in Summe keine Vorteile - eher Nachteile: Das DIE wird größer und so die Ausfallrate höher. Man kommt also evtl. sogar besser (von den Kosten her) 2 Karten zu synchronisieren als als 2 Karten zusammenpacken (wenn ein Dual-GPU doppelt genau doppelt soviel Die braucht wie eine GPU, ist der Preis für eine Dual-GPU höher als die von 2 GPUs, wegen Ausfallrate). Der Vorteil von Dual-GPUs vs. SLI/CrossFire wäre nur das die Mikroruckler weg wären, da die eine GPU dann weiß, dass da noch ne andere GPU mit dem gleichen Takt hängt, was bei SLI ja nicht zwingend ist, soweit ich mich entsinne.

Fazit: CPU und GPU kann man auf dem Gebit (noch) nicht vergleichen.
27.) Bulldozer 14.03.2009 - 18:13 Uhr
@(th)

Natürlich ist Nativ besser, überleg mal eine richtige Dual GPU unter einem Headspreader ist besser als 2 GPUs auf einer Karte, eine Dual GPU kann ohne zwischenzeit sofort perfekt skallieren, das heißt keine Mickroruckler mehr.
26.) (th) 14.03.2009 - 17:10 Uhr
wobei ich da allerdings sagen muss dass Nvidia von den Dualkarten besser ist. Sowohl von der Skalierung her als auch vom Thema Mikroruckler.
Genau wie bei AMD Phenom vs C2Q damals. Nativ heisst nicht automatisch besser.
25.) Bulldozer 14.03.2009 - 14:30 Uhr
AMD könnte sogar als erstes eine richtige Dual GPU fertigen, also wi bei CPUs mit nativen Kernen, das hat AMD schon bei den Phenoms bewiesen, das Sie es können! Wenn AMD eine Dual GPU Grafikkarte baut, sieht es für Nvidia sehr schlimm aus, Nvidia kann sowas nicht, weil die keine Ahnung von Dual Chips haben, ich meine keine GX2 Karten, sondern richtige Dual GPU Chips, wenn das AMD schafft, könnte man 2 von diesen Dual Chips auf eine Platine verbaueb und hätte dann eine X4 GPU Karte!!!
24.) Like-That 14.03.2009 - 10:05 Uhr
Und außerdem hatte AMD im letzten Jahr die schnellste Grafikkarte, nur mal so nebenbei.
Dass dies nicht ewig hält ist doch irgendwie klar, oder dir etwa nicht?
23.) unLead 14.03.2009 - 01:09 Uhr
Den Kunden von heute interessiert fast nur noch P/L-Verhältnis und da ist AMD gut mit ihren neuen P II und Radeon ..... Die wenigsten interessiert wirklich brachiale Leistung für "geal welchen Preis"....
22.) Duplex 13.03.2009 - 23:14 Uhr
naja AMD hat nix gegen den highend produkten von den jeweiligen konkurenten in der hand

Intel hat bessere CPUs und Nvidia hat die stärkste single GPU karte

ich habe das schlechtere auch in " geschrieben , ich sage nicht das die weniger technologisch sind oder sonst was , sondern einfach nur wegegen der konkurenzfähigkeit


Preis ist allemale besser ;-)
21.) (th) 13.03.2009 - 21:40 Uhr
schlechtere Produkte? Man muss es realistisch sehen.
Erstens sind AMD's Produkte nicht unbedingt schlechter und
Zweitens ist die Ati-Sparte von AMD nicht AMD's Hauptmarkt. Das sind eher Prozessoren und Chipsaetze. Und da muss sich AMD vor allem anstrengen, da INTEL wesentlich maechtiger und Groesser ist.
20.) Like-That 13.03.2009 - 20:58 Uhr
Schlechter?
Bloß weil AMD eine andere Philosophie verfolgt sind sie schlechter?
Aha.
19.) Duplex 13.03.2009 - 20:45 Uhr
jagut ich hatte mich auf den börsenpreisen ausgeguckt...^^


schon komisch das AMD grösser ist aber "schlechtere" produkte auf den markt bringt
18.) Smok66 13.03.2009 - 20:19 Uhr
@ 11

Selbst wenn Nvidia die Karten mit Verlust verkaufen, müssen sie es trotzdem machen denn die Karten sind bereits produziert und die Produktion hat schließlich ne menge geld gekostet.Sonst sind es statt -15$ -144$
17.) Cartman 13.03.2009 - 15:00 Uhr
Mist. Hab für meine B.E im Dezember 08 noch 280€ bezahlt. :/
16.) unLead 13.03.2009 - 14:39 Uhr
Zitat: Nvidia ist über 4Mal grösser als AMD

Ich versteh diese Rechnung nicht ....
AMD hat mehr Mitarbeiter
AMD hat mehr Umsatz
AMD hat mehr Gewinn

nVIDIA ist vlt 4 mal mehr der Irrglauben verbreitet .... Man sollte nicht vergessen das AMD ein gewaltiges Unternehmen ist, ein großer Eisbrecher mit viel mehr Produkten als nur CPU und Grafikchips ... nVIDIA ist der kleine Schlepper der nur Grafikchips produziert .... Da brauch man sich auch gar nicht Streiten ... nVIDIA hat in der Halbleiter Produktion einen geringen Stellenwert, weil sie eben nur diese Grafikchips und nen bisschen MB herstellen.
15.) Like-That 13.03.2009 - 14:06 Uhr
@11

Ein Produkt vom Markt nehmen, in diesem Fall die GTX260, wäre vollkommender Schwachsinn, auch wenn das Produkt eben Verlust erwirtschaftet.
Erstens würden die Leute Nvidia dann nicht mehr vollends vertrauen,
und zweitens hätte der Konkurrent (in diesem Fall ATi mit der 4870) keine Gegenspieler mehr und man überlässt dem Konkurrenten den Markt komplett.
14.) Bulldozer 13.03.2009 - 14:05 Uhr
@Duplex

rede kein Mist, Nvidia ist nicht größer als AMD, niemals, AMD wird bald mehr Kapital als Nvidia gewinnen, weil durch Foundry Group jedes Jahr über 1,5 Milliarden angelegt werden und das Geld wird nicht in den schulden wandern.
13.) hmd 13.03.2009 - 13:14 Uhr
Das ist aber nur der Börsenwert.
http://de.wikipedia.org/wiki/Marktkapitalisierung

AMD ist grösser als NVIDIA, sowohl bezüglich Anzahl der Angestellten, Umsatz als auch bei den Verlusten. :D
Zahlen sind allerdings uralt. ;)
http://de.wikipedia.org/wiki/AMD
http://de.wikipedia.org/wiki/NVIDIA
AMD ist natürlich ein "Schnäppchen" weil sie nach wie vor Verluste schreiben und mit Intel einen Gegner am Markt haben, der die Zukunftsprognosen von AMD nicht gerade rosig aussehen lässt (führt zu schlechter Bewertung an der Börse).

Wie das kartellrechtlich mit einer Übernahme von ATI (wäre ja auch im Paket von AMD mit dabei) wär, kann man nur spekulieren. Auf jeden Fall ne Katastrophe für die Kunden, wenn NVIDIA ATI übernehmen würde. Intel ist ja noch nicht so weit, dass man wirklich schnelle 3D-Karten kaufen könnte.

Ob Nvidia oder AMD der Gegenspieler von Intel wäre, wäre aus meiner Kundensicht wurscht. Hauptsache Konkurrenz.
12.) Duplex 13.03.2009 - 12:05 Uhr
http://www.wallstreet-online.de/diskuss ... eises-mehr
11.) hmd 13.03.2009 - 09:40 Uhr
@Duplex
Nvidia ist 4x grösser als AMD? Seit wann, woher hast du diese Zahl?

@f1delity
Nvidia wird die Produktion sicher weiter laufen lassen, solang die Boardpartner GPUs ordern. Hier ist für mich aber der Knackpunkt der Sache. Wenn sich das für die Boardpartner nicht mehr rechnet, werden sie keine GPUs mehr ordern und die Preise der Nvidiakarten werden dort oben bleiben wo sie momentan sind ... weil einfach keine Konkurrenz mangels wenig interessierten Boardpartnern am Markt vorhanden ist.

Es ist ja längst Tatsache, dass die Boardpartner zu ATI/AMD wechseln / kaum mehr ein Boardpartner von Nvidia exklusiv für Nvidia produziert. Es besteht für die meisten Boardhersteller also kein Zwang G200 einzukaufen.
10.) f1delity 13.03.2009 - 08:59 Uhr
@Phenocore
Stimmt ja auch, die Preise waren ja auch völlig anders angesetzt ~50% höher.


Glaube aber kaum das nV den Chip mit Verlust verkaufen lässt, wenn dann 0 Gewinn, aber bei Verlust braucht man ja nicht mal liefern, hat man nichts von, außer eventuell noch Marktanteil.
9.) KonKorT 12.03.2009 - 22:37 Uhr
Duplex:
genauere details zu Nvidias 40nm chips ? ich mein konkort du meintest Nvidia will den GT-212 chanceln
meinst du Nvidia macht das lange chips im minus geschäft verkaufen ?


Ja, GT212 steht auf der Kippe. Mal schauen, was draus wird. GT216 und GT218 werden aber noch in diesem Halbjahr in 40 Nanometer kommen, wenn alles nach Plan läuft.
8.) Phenocore 12.03.2009 - 22:25 Uhr
Demerjian erzählt schon seit der Entwicklungszeit, dass sich der GT200 für nVidia nicht rechnet.
7.) N1truX 12.03.2009 - 22:24 Uhr
AMD kann auch nicht mehr viel weiter runter, umsonst bauen sie die auch nicht und ich denke AMD weiß auch das Nv nicht weiter runter kann as sie jetzt sind. Wenn man überlegt das wir bei etwa 40% vom Startpreis sind und das in nichtmal 9 Monaten..
Und ich denke Nv wird wie AMD so schnell wie möglich mit 40 nm kommen wollen.

So ist das aber schon Strategie von AMD. Man hat durch Dubai erstmal keine Finanzsorgen und will jetzt in einer globalen Finanzkrise den Konkurrenten schwächen, wo dieser in Sachen Produktionskosten kaum mithalten kann. Hier macht sich eben das effiziente und hochoptimierte RV770 Design bezahlt.
6.) Duplex 12.03.2009 - 21:50 Uhr
Bulldozer:

Vielleicht schafft es AMD, bis 2012 Nvidia zu übernehmen



Nvidia ist über 4Mal grösser als AMD , AMD selber steckt kurz vorm bankrot und kommt in 3jahren bestimmt nich soweit einen 4mal grösseren konkurenten aufzukaufen ....


wie ich schon gesagt habe =) , Nvidia sollte schleunigst die neue Generation in 40nm releasen der GT-200 wurde einfach für andere einsatzgebiete entwickelt ( stichwort GPGPU )

genauere details zu Nvidias 40nm chips ? ich mein konkort du meintest Nvidia will den GT-212 chanceln
meinst du Nvidia macht das lange chips im minus geschäft verkaufen ?

zumal AMD die graka preise noch deutlich senken könnte
5.) QRT 12.03.2009 - 21:38 Uhr
@Bulldozer

Selbst wenn eine gtx285 zum Preis von 250€ verfügbar wäre, würde mich das trotzdem immernoch skeptisch stimmen was die pfeifenden Spawas angeht. ;)
Die ja laut Gerüchten sogar noch im Desktopbetrieb pfeifen.
4.) Bulldozer 12.03.2009 - 20:51 Uhr
Guckt mal hier http://www.mindfactory.de/product_info. ... d=geizhals

55nm und OC Edition für 180 €, soviel Leistung zum guten Preis!
3.) eXEC 12.03.2009 - 20:45 Uhr
Jedenfalls ist der GT200 ein sehr teurer Chip. Das Problem ist ja nicht nur die Produktion, sondern vor allem die Entwicklung. So einen Chip muss man ersteinmal entwerfen... Und wenn man dann kein Geld dafür bekommt, ist dass ziemlich blöde. Ursprünglich wollte man ja eine GTX-260-192 für 449$ verkaufen...
2.) KonKorT 12.03.2009 - 20:21 Uhr
Ein Fünftel? So ein Blödsinn! Wie kommst Du denn darauf? Zumindest keiner, der leistungstechnisch mit dem G200 vergleichbar ist.
1.) Bulldozer 12.03.2009 - 20:10 Uhr
Selber schuld Nvidia! Bei ATI kostet ein Chip nur ein fünftel des GT200 :D

Ich will eine GTX285 für 250 € sehen...los los

Vielleicht schafft es AMD, bis 2012 Nvidia zu übernehmen, Nvidia musste bis jetzt durch die Athlon Schmiede viel Verlust hinnehmen, aber das hier ist erst der Anfang, ich sag nur Vorbild, Wirtschaftskrise und 3DFX :D :D :D