Nvidia Mainstream-GPUs auf Fermi-Basis ab März

NvidiaNachdem es nun um Nvidias kommende Grafikkartengeneration - nach den Diskussionen der letzten Wochen - wieder etwas ruhiger geworden ist, zeichnet sich ab, dass frühestens ab März mit einer Verfügbarkeit der kleineren Ableger des Fermi, alias GF100, alias GT300 zu rechnen ist. Damit dürfte es also etwa drei Monate nach dem Start der High-End-Karten soweit sein.

Nvidia arbeitet mit Hochdruck an den kleineren Versionen, um auch größere Zielgruppen mit seiner neuen Hardware erreichen zu können. Denn während beim High-End hohe Gewinnspannen locken, sind es eigentlich die Mainstream-Karten mit ihren hohen Verkaufszahlen, die Geld in die Kasse bringen. Da man einen derart großen Chip, wie er kürzlich vorgestellt wurde, nicht für Mainstreamkarten nutzen kann, ohne Verluste einzufahren, hat man sich bei Nvidia bemüht, mit Fermi ein modulares Design zu schaffen, bei dem man leicht auch kleinere Versionen des Chips ohne großen Aufwand entwickeln kann. Offensichtlich haben die Ingenieure dabei gute Arbeit geleistet, denn gewöhnlich erreichten die Mainstream-Versionen der Nvidia-Topkarten erst deutlich später den Markt - vielleicht aber auch eine allgemeine Strategieänderung in Anlehnung an AMD.

Bei den Mainstreamkarten ist mit einer abgespeckten Zahl an Shaderprozessoren zu rechnen ebenso mit weniger Spezialfunktionen für GPGPU- bzw. cGPU-Computing. Ferner dürfte das Speicherinterface mindestens um die Hälfte beschnitten sein. Ziel ist somit ein kleinerer Chip, der billiger in der Herstellung und damit auch für niedrigere Preisregionen geeignet ist.
Vom GT200-Die, der bei Nvidias aktueller Grafikkarten-Generation (Geforce GTX) zum Einsatz kommt, hatte es einen Mainstream-Ableger zunächst gar nicht gegeben, stattdessen setzte Nvidia auf eine Umbenennung der vorherigen Generation (G92b), die fortan als Geforce GTS 250 firmierte. Mit DirectX 11 ist dies nicht mehr möglich, man muss aktuelle Beschleuniger liefern.

Nvidia hat allen Grund, sich zu beeilen, da ATI inzwischen sowohl seine High-End-Karten HD 5800 - alias Cypress - am Markt hat als auch deren Mainstreamableger Radeon HD 5700 - alias Juniper -, und das schon vor dem offiziellen Erscheinungstermin von Windows 7. Damit dürfte ATI beinahe ein halbes Jahr alleine den Markt mit DirectX 11-Mainstream-Grafikkarten versorgen können.


Kommentar schreiben

  • Loggen Sie sich oben mit ihren Benutzerdaten ein, um Kommentare zu verfassen.
  • Falls Sie noch kein Mitglied sind, können Sie sich in unserem Forum registrieren.

26 Kommentare

26.) Duplex 18.10.2009 - 20:40 Uhr
das es AMD aufs mittelfeld abgesehn hat sind ausreden , die sind ganz klar auf Highend-sehr weit oberen Performance bereich getrimmt , mittelfeld sieht anders aus


jedoch muss cih dir sonnst zustimmen
25.) Ge0rgy 18.10.2009 - 18:20 Uhr
Naja, die ATI-Treiber sind auch ab und zu mal für einige Abstürze gut...
z.B. beim DELL-Notebook meines chefs... da ist ne mobile 3xxx drin, die regelmäßig unter vista bluescreens produziert.
Und eins ist klar, in sachen Support für die Mobile-chips ist Nvidia deutlich voraus!
ATI wälzt den mobile-support auf die Gerätehersteller ab, die nicht selten zu Faul sind das vernünftig zu pflegen und nur uralt-Treiber anbieten. Bei ATI braucht man da "Omega-Treiber" und dergleichen schnickschnack um ne halbwegs zeitgemäße Unterstützung der mobilities zu haben...

In Sachen Brook/CAL und OpenCL gibts auch noch einiges Optimierungspotential bei den roten, was man im developerforum so liest... Oo
Aber hardwaretechnisch sind die Evergreens klasse Produkte.
Wenn mich nicht alles täuscht war es Nvidia höchstselbst, welchen den schnellen Releasezyklus überhaupt erst propagiert haben und stolz darauf waren, spätestens alle anderthalb jahre ne neue Generation bringen zu können... dumm nur dass die Komplexität der chips ihnen nun langsam mal nen Strich durch die Rechnung gemacht hat.
Auch die GT200 - Chips waren nicht sooo der überflieger wie es gerne dargestellt wird... aufgepumpte G80, die mit einem riesen DIE nichtmal in die nähe der rohen Rechenleistung eines RV770 kommen. Sie haben nur einfach mehr ROPs, TMUs und die dickeren Speicherinterfaces um bei Games entsprechend mitzumischen... BruteForce vs. effizientes Design...
Vor allem darf eines nicht vergessen werden, ATI zielt mit den singlechip-Karten garnicht auf den HighEnd- Sektor ab! - Spätestens seit dem RV770 ist die Strategie sich aufs Mittelfeld zu konzentrieren und dort ein gutes P/L-Verhältnis anzubieten (Bang for the Buck) bekannt & aufgegangen. Nvidia ist dazu verdammt überragende Performance zu liefern, weil man sich angesichts der Fertigungskosten eines solchen Monsterdies (wird nur noch von Larrabee getoppt) sonst auf ganzer Linie blamiert!
Schau mer mal was kommt...

grüßchen
ich
24.) Duplex 17.10.2009 - 14:45 Uhr
also wen das von mir angegriffen klang , ich sagte ja ICH schaff es net =D

ich hab mal probiert zu clonen , das geht , jedoch will ich es unter 1280x800 + 1920x1080 laufen lassen , und da verweigert schlicht der treiber oder die graka den dienst , beide monitore leuchten auf und dann schwarz , bis eben die 15sek vorbei sind und es resettet wird


ich habe die selben einstellungen wie unter der Nvidia graka , also endweder das ist ein spezifischer graka bug oder mein Fernseher/monitor können die graka nicht leiden :-(

fand ich schade , da ich jedes mal wen cih nen "film abend" machen will mein pc durch haus schleppen darf ...


jedoch gehörts hier net rein ^^...
23.) MacTen 17.10.2009 - 13:59 Uhr
@ Duplex

Also wenn du das echt nicht gerissen kriegst dann hast du wirklich irgendwas falsch gemacht...denn sowas kriegt man selbst mit ATI hin. um dir jedoch etwas weiterzuhelfen empfehle ich dir UltraMon . Zieh dir mal die beta. damit ist es möglich auch unter vista dual desktops zu machen und du kannst auf einem gerät schauen in vollbild und auf dem anderen arbeiten( dass dürfte sonst auch mit ATI treiber schwierig werden unter vista). Jedoch gucken und gamen könte schwer werden, da musste ma rumprobieren. Aber wenn du dir demnächst ne Nvidia GPU zulegen willst, dann komm gerne zu uns grünen. Auch wenn man bei dem riesiegen Treiberaufgebot von nvidia mal einen hat der nicht ganz funzt, die performance bügelt das fünfmal wieder raus. Aber sowas kann man natürlich als ATI-Nutzer nicht beurteilen. Schön Tag noch.

-Core's Kollege- *gg*
22.) Flare 16.10.2009 - 21:10 Uhr
@ Duplex
HD4470 mit 250GTS zu vergleichen ist per ´se unfair schätze ich, auch wenn die bei den kleinen ATIs seit langem deine Einstellung gegenüber Ati beeinflusst haben.
Ich schätze wenn es um "objektive" Beiträge geht bist du befangen.
Klar hast du recht mit der besseren Spiele-zu-Treiber-Unterstützung aber unter welchen Umständen ist diese Art des nVidia-Extra-Würstchens bei dem Möglich-Machen der Perfektionierung der Treiber denn entstanden ?

Mit Geschenken und Teils auch Drohungen von nVidia, durch das Ausnutzen der Marktbeherrschenden-Stellung.

Dies werde ich unter gar keinen Umständen tolerieren können.

gez. Flare
21.) CandyMan10 16.10.2009 - 15:18 Uhr
Zur Treibersache: Ich benutze seid meiner guten alten "Voodoo 5 5500" ATI Karten. Mein erstes und einziges Treiberproblem hatte ich mit GTA 4, was jedoch zügig behoben wurde.

Ich benutze auch 2 Monitore an meiner HD 3850 (Ein Monitor ein Fernseher über hdmi), ohne Probs. .
20.) N1truX 16.10.2009 - 07:48 Uhr
Kellerkind:
Was nvidia braucht ist ein Performance-Mainstream-Chip der so schnell wie oder etwas schneller als die 5850 ist. Mit 24 ROP/192 bit SI könnte das schwer werden. Hinzu käme das problem, dass man die Karten nur mit entweder 768MB (für das Segment inzwischen fast etwas wenig) oder 1,5GB (wiederum etwas viel und treibt Board-Kosten in die Höhe).
32 ROP/256-bit SI + 1GB GDDR5 würde für den direkten Cypress-Konkurrenten mehr Sinn machen.
Sinn machen ist eine Sache - Aber das ganze muss auch bezahlbar sein. AMD drückt aktuell gewaltig die Kosten und auch die R800 Generation an sich ist auf ein optimales P/L im oberen Mittelklassebereich hin entwickelt worden - das war nie eine Ambition von nVidia beim Fermi. Das wird also nicht einfach da halbwegs mitzuhalten.
19.) core 15.10.2009 - 22:02 Uhr
Duplex:
ich hab 2pcs mit ATI graka hier stehn , und auf keinen der beiden schaff ich es , den monitor und den LCD fernsernsehe ( FullHD Fern. und 1280x800 moni ) gleichzeitig laufenzu lassen , so das ich auf den full hd filme gucken kann und aufn anderen das übliche verrichten kann

das seit ich die PCs habe , beide ne 4470 und HDMI angebunden am fern , der leuchtet kurz auf , man sieht das desktop und dann schaltet der in den standby ohne signal


das seit ich den pc habe mit der CD treiber und von 9.6 bis den aktuellen 9.9 beta glaub

für mich ist klar nie wieder =D



kann ich mich N1TruX nur anschließen und schiebe noch ein dickes LOOOOL hinterher....ganz klarer anwederfehler...wenn das ein Argument gegen ATI werden sollte, dann.... :lol:

mein kollege schwöhrt auch auf die grünen und seine geilen Treiber... Sein System sch*** jedoch regelmäßig ab beim gemeinsamen zoggen...will ja nicht behaupten das es am Nforce chipsatz oder an der GTX liegt ;)

Meine ATI treiber verichten treu ihren dienst, der 1080i desktop und der HDready LCD machen genau das was sie sollen und ich werde nicht jede woche von treiberupdates belästigt, die evtl in einem game was ich nicht kenne 5FPS mehr machen :D

...in diesem sinne
18.) (th) 15.10.2009 - 20:12 Uhr
die frage ist, wie sich bis dahin die Preise der Atis entwickelt haben. Hoffe aber trotzdem auf ein starke GeForce, die Ati unter druck setzen kann. Hoffentlich auch im Preis, so ein quasi-monopol ist nicht schön und die Situation der letzten (bzw. aktuellen) Generation hat mir sehr gut gefallen
17.) Kellerkind 15.10.2009 - 19:11 Uhr
Quote:
Ferner dürfte das Speicherinterface mindestens um die Hälfte beschnitten sein.

Nicht unbedingt.
Was nvidia braucht ist ein Performance-Mainstream-Chip der so schnell wie oder etwas schneller als die 5850 ist. Mit 24 ROP/192 bit SI könnte das schwer werden. Hinzu käme das problem, dass man die Karten nur mit entweder 768MB (für das Segment inzwischen fast etwas wenig) oder 1,5GB (wiederum etwas viel und treibt Board-Kosten in die Höhe).
32 ROP/256-bit SI + 1GB GDDR5 würde für den direkten Cypress-Konkurrenten mehr Sinn machen.
16.) Duplex 15.10.2009 - 17:38 Uhr
leider sind gerade die Server Segmente verdammt lukrativ ...


hoffenwir das wir weiterhin ein fairen wettkampf haben , zwischen mehreren herstellern


Allrounder wirds im übrigen in der IT welt nicht geben , Allrounder sind meist von kurzer dauer , siehe Via/S3 die nach und nach ganz weg sind
15.) Rainerstd 15.10.2009 - 16:45 Uhr
Ich sehe Nvidia ebenso ins GPGPU-Segment abdriften. Verwunderlich wäre es ja nicht, wenn ihnen überall der Hahn abgedreht wird. Das Konzept könnte funktionieren, bin da aber ein wenig skeptisch, vielleicht hätten sie ja doch einen offenen Standart wie OpenCL wählen sollen. Nicht das NVidia sich eine ruhige Ecke aussucht und dann Platt gemacht wird. :roll:
Mittel-langfristig sehe ich erstmal AMD punkten, wenn GPU und CPU vereint sind, da AMD der Allrounder ist unter den Herstellern ist. NVidia ist der Profi bei GPU, Intel bei CPU. Mal sehen was passiert, eigentlich wünsche ich allen dreien Erfolg, wobei ich ein bißchen Robin Hood bin und meine Intel könnte schon was abgeben :twisted:
14.) Duplex 15.10.2009 - 16:31 Uhr
bei meinen PC , mit GTS250 SLI gehts einfach , stecker rein , Control center auf , und Bildschirm beliebig einstellen dun zack kommt ein bild..

jedoch gehört das net zum thread^^

aber eine nintendo DSi lite oder was auch sonst mit Tegra wü+rde ich begrüsen , die grafik sieht ja grottenschlecht aus aufn aktuellen^^
13.) N1truX 15.10.2009 - 16:16 Uhr
Duplex:
ich hab 2pcs mit ATI graka hier stehn , und auf keinen der beiden schaff ich es , den monitor und den LCD fernsernsehe ( FullHD Fern. und 1280x800 moni ) gleichzeitig laufenzu lassen , so das ich auf den full hd filme gucken kann und aufn anderen das übliche verrichten kann

das seit ich die PCs habe , beide ne 4470 und HDMI angebunden am fern , der leuchtet kurz auf , man sieht das desktop und dann schaltet der in den standby ohne signal

Das ist eigentlich kein Problem. Kann bei mir auch neben den 24" (1920x1200) noch ein 42" LCD (1080p) anschließen und beide nutzen. Im Clone-Modus oder als erweiterter Dektop und je nach Wunsch mit oder ohne Sound via HDMI (Vist x64).

Mit meinem Lapi (HD3200 IGP) hab ich auch schon x Vorträge gehalten mit Beamern (teilweise sehr komische Auflösungen^^) und hatte auch da nie Probleme auf dem Beamer die PP-Präsentation und auf dem Lapi die Referentenansicht zu nutzen.

Würde da fast eher auf ein Problem mit dem Fernseher tippen oder eine falsche Einstellung was die Hz-Zahl etc. betrifft.
12.) hmd 15.10.2009 - 15:58 Uhr
Immerhin kann Nvidia die Grafik für die neue Nintendo bauen. Auch mal was Positves was den Massenmarkt betrifft. Gleich Pleite gehen werden sie sicher nicht gehen. Stehen ja angeblich finanziell immer noch gut da?!

Wir hatten immer beide Produkte drin und gerade mit Nvidia und Vista hatten wir unglaublich viele Bluescreens (trotz wiederholtem Treiberwechsel). Wurde ja dann auch von Microsoft bestätigt, dass bei ca. 50% der Abstürze von Vista, Nvidia der Verursacher war. Meiner Meinung ist die These kaum zu untermauern, dass die Treiber besser wären, wenn schon liesse sich das Umgekehrte mit Zahlen belegen.
11.) Duplex 15.10.2009 - 15:58 Uhr
ich hab 2pcs mit ATI graka hier stehn , und auf keinen der beiden schaff ich es , den monitor und den LCD fernsernsehe ( FullHD Fern. und 1280x800 moni ) gleichzeitig laufenzu lassen , so das ich auf den full hd filme gucken kann und aufn anderen das übliche verrichten kann

das seit ich die PCs habe , beide ne 4470 und HDMI angebunden am fern , der leuchtet kurz auf , man sieht das desktop und dann schaltet der in den standby ohne signal


das seit ich den pc habe mit der CD treiber und von 9.6 bis den aktuellen 9.9 beta glaub

für mich ist klar nie wieder =D
10.) N1truX 15.10.2009 - 15:37 Uhr
Ich weiß nicht was viele immer gegen ATi-Treiber haben? Die laufen stabil und im CCC ist auch alles recht übersichtlich angeordnet. Das einzige was nativ fehlt sind Spiele-Profile. Das wäre mir aber A keine 20-30 Euro Wert und B kann man es sich auch mit einigen Tools selber erstellen.
Das es immer noch die Meinung gibt die Treiber wären schlecht bzw instabil muss wohl noch aus Radeon 9000 Zeiten kommen. Allerdings waren zu der Zeit die Nv-Treiber auch nicht das wahre wie ich selber oft feststellen musste^^
9.) Sennahos 15.10.2009 - 14:45 Uhr
Die Treiber sind schon ein dicker Pluspunkt bei Nvidia, seh ich auch so... würde auch einiges mehr dafür bezahlen. Zudem war die GT-200 Reihe wirklich ein top Produkt(bis auf Spulenfiepen bei manchen cards). Einfach ein runderes Produkt, was sich beim Fermi hoffentlich wiederholt
8.) Duplex 15.10.2009 - 14:13 Uhr
=D das ist krank

wen die karten gleichschnell wären und sagen wir nahe zu identisch sind würde ich dennoch max. 20-30€ mehr für die nvidia zahlen , net weil ich ein fanatiker bin , sondern weil mir die treiber das wert sind ^^
7.) N1truX 15.10.2009 - 12:47 Uhr
Ich glaube eher engstirnige Fanboys die lieber 700 Euro für ne 8800 GTX als 300 für eine HD 5870 zahlen würden, nur um nVidia im Rechner zu haben ;) (Ja etwas übertrieben, ich weiß)
6.) Duplex 15.10.2009 - 12:43 Uhr
ich glaub ehr das viele denken das eine firma in paar monaten pleite geht...

wen man sieht wie lange AMD überlebt hat seit den G80 dessen RV600 keinen hauch einer chance hatte ...

also solange Nvidia danach ausgereifteprodukte rausbringt ist das doch egal obs noch vorn weihnachten oder nach weihnacht kommt

@markus91

was meinste mit "spezialisten" ? , Cuda freaks ?
5.) Markus91 15.10.2009 - 12:21 Uhr
Man frage sich zu Recht, was die vorhaben.
Wenn das so lange dauert, dann hat ATi genug Zeit ein paar karten zu verkaufen,
dennoch gibts bestimmt genug "Spezialisten", die auf ne teurere Nvidia Karte warten.
Ist doch (leider) immer so....
4.) Luk Luk 15.10.2009 - 10:06 Uhr
Ich finds gut, dass durch DX 11 endlich der uralte G92b Chip verschwindet. Damit herrscht dann endlich wieder Transparenz bei den Grafikkarten.
3.) N1truX 15.10.2009 - 10:03 Uhr
Naja Fermi wird ja nun nicht erst seit einem Jahr entwickelt. Man kann davon ausgehen das da seit etwa 4 Jahren dran gearbeitet wird, sprich noch vor dem G80 Launch. Wann die Forcierung auf GPGPU etc. kam kann man nur schwer abschätzen. Aber das es eine Kurzschlussreaktion gegen Intel war wage ich zu bezweifeln.
Naja immerhin hat nV ja den "Monster-GPU-Vater" Kirk mittlerweile (Anfang 09) abgesetzt. Vielleicht hat man eingesehen das es der falsche Weg war..
2.) hmd 15.10.2009 - 09:56 Uhr
Meine Güte, das wird ein Köpferollen bei Nvidia geben. Es ist offensichtlich viel schlimmer als man es befürchtet hat. Seit dem Hochfahren der Produktion des GT200 wusste man wann Windows 7 in etwa startet, man wusste auch dass der grosse Chip sich nicht für den Massenmarkt eignet. Und jetzt die Meldung dass man Ende März etwas am Start hat (zudem ziemlich wage, von wegen modularem Design). Das kommt eher ner Bankrotterklärung gleich. Langsam fügen sich die Teile schon zusammen und man kann sich auch erklären, wieso der Chief von Nvidia erklärt hat, dass er die Zukunft eh in der Software sieht. ;)

Wenn ATI mit gleichem Tempo weiter entwickelt, kommt Mitte Jahr bereits die Evolution des RV870 auf den Markt. Ich glaub auch nicht, dass man mit "gewöhnlich erreichten die Mainstream-Versionen der Topkarten erst deutlich später den Markt" mit dem richtigen Massstab misst. Der einzige richtige Massstab ist der Konkurrent am Markt und wenn der früher liefert, muss man das auch tun.

Ich glaub, dass sich Nvidia mit dem GPU-Computing verrant hat. Die Zielsetzung war vermutlich zu stark durch die Vision geprägt, Rechenanteile von der CPU, sprich Intel zur Grafikkarte zu verlagern (gab ja damals den medialen "Kleinkrieg mit Intel"). Am Schluss stehen sie mit nix da, sicher übertrieben schwarz gemalt. Aber zum Launch der grossen Fermi-Karten ist ja auch nichts Genaueres bekannt.
1.) N1truX 15.10.2009 - 08:33 Uhr
Naja sind ja nur 5 Monate und das Weihnachtsgeschäft. Mal sehen wann sie dann den Low-End Markt mit Dx11 bedienen - Juni 2010 oder bleiben wir da erstmal bei Dx10(.1) bei nVidia?