Nvidia GT216 mit 48 SPs, GT218 mit 24 SPs?

NvidiaDer oftmals gut informierte Insider CJ hat auf seiner Seite die angeblichen Spezifikationen der ersten Nvidia-Desktop-Chips im 40 Nanometer-Verfahren dargelegt. Konkret deckt er die Spezifikationen von GT216 und GT218 auf, nennt dabei sogar schon Taktraten und erste 3DMark-Scores.
Nvidia wird diese Chips voraussichtlich in den nächsten Wochen dem Markt zur Verfügung stellen. Ein genaues Launchdatum verriet man noch nicht.

Nach den vorliegenden Informationen handelt es sich bei den verspäteten GT21x-Chips, welche wohl mindestens einmal neu aufgesetzt wurden, um GT200-Ableger, wie man jeweils an der Anzahl der Streamprozessoren pro Shadercluster, nämlich 24, erkennen kann - Fudzilla streute bis vor Kurzem das Gerücht, die 40 Nanometer-Chips würden noch auf G9x-Basis bestehen.

.G86G98G96GT218GT216
Verfahren80 Nanometer65 Nanometer65 Nanometer40 Nanometer40 Nanometer
Shadereinheiten168322448
ROPs44848
Speicherinterface64 Bit
DDR2
64 Bit
DDR2
128 Bit
DDR2/GDDR3
64 Bit
DDR2
128 Bit
GDDR3


Während der im Mittelfeld angesiedelte GT216 mit insgesamt 48 Shadereinheiten bei einem 128 Bit breitem Speicherinterface und folglich 8 ROPs ausgestattet sein soll, schreibt man dem GT218 genau die Hälfte zu, sprich 24 Shadereinheiten, 64 Bit breites Speicherinterface und 4 ROPs.
Zudem soll beim GT216 800 MHz schneller GDDR3-Speicher zum Einsatz kommen statt 500 MHz schneller DDR2-Speicher. Bei den Taktraten an Chip und Speicher sind dagegen keine großen Unterschiede zu erwarten: Beidermal werden um 600 MHz Chiptakt und 1300 bis 1400 MHz Shadertakt erwartet.

Münden sollen diese technischen Eigenschaften in rund 13.000 respektive 5.500 Punkten im aktuellen 3DMark Vantage (Entry). Ob auch DirectX 10.1 unterstützt wird, nannte man nicht - Fudzilla hat in den letzten Tagen mehrere News verfasst, die in diese Richtung gingen.


Kommentar schreiben

  • Loggen Sie sich oben mit ihren Benutzerdaten ein, um Kommentare zu verfassen.
  • Falls Sie noch kein Mitglied sind, können Sie sich in unserem Forum registrieren.

17 Kommentare

17.) KonKorT 08.06.2009 - 16:56 Uhr
Phenocore:
Vielleicht weil für G92 dann gleich ein DX11-Chip in 40nm kommt...

Das denke ich eher nicht. Die G300-Chips für Performance und Mainstream werden erst in 1H/2010 kommen und dann sinnvollerweise gleich in 32 oder 28 Nanometer.

Phenocore:
Weswegen ich jetzt auch mal die Tabelle in der News dahingehend korrigiere.

Sicher nicht verkehrt. ;)
16.) Phenocore 08.06.2009 - 11:35 Uhr
Vielleicht weil für G92 dann gleich ein DX11-Chip in 40nm kommt... wäre ja auch eine ganz andere Leistungs- und Verbrauchsklasse. G98-Ableger werden aktuell auch in Chipsätzen verbaut. Wobei ich dazu sagen muss, dass mir der G98 nur mit 8 SPs bekannt ist ;) 16SPs hatte der "Vorgänger" G86 (wurde teilweise Parallel eingesetzt) bei kleineren Taktraten, wobei bei schwären Modellen der GeForce M-Serie nVidia die 8SPs auch teilweise deaktiviert hatte...
Weswegen ich jetzt auch mal die Tabelle in der News dahingehend korrigiere.
15.) Bulldozer 07.06.2009 - 17:22 Uhr
Warum kommen keine G92 Chips in 40nm Verfahren? Das müsste doch günstiger sein, der Chip ist schon vorhanden, man müsste nur ein Shrink machen.
14.) Kellerkind 07.06.2009 - 17:09 Uhr
@alle, die den Sinn dieser Chips nicht sehen: WENN die Yieldraten erstmal auf akzeptablem Niveau sind, hat nvidia hier Chips die die 8400, 9400 und 9500 Karten ablösen, bei geringeren Produktionskosten, geringerem Stromverbrauch und ca. 30-60% mehr Leistung (grobe Schätzung meinerseits). Die Chips kommen nur wegen der probleme mit dem 40nm-Prozess so spät. Würde man sie garnicht rausbringen, wären a) die Entwicklungskosten komplett rausgeworfen, und b) müssten sie schätzungsweise noch 6-8 Monate mit 55nm-G9x Chips gegen AMDs Karten antreten, denn vor Anfang 2010 werden die DX11-Mainstream-Ableger wohl nicht fertig sein.
13.) Paweł 07.06.2009 - 16:53 Uhr
@eXEC, komm mal wieder runter. Mit so einen Tonfall und den Aggressiven Auftritten beweist du nur das Gegenteil. Was ich aber eigentlich sagen wollte ist, das du der einzige bist der hier die HD 4770 angesprochen hat bzw. irgendwelche vergleiche zwischen ATI und Nvidia aufgestellt hat. Bis auf dich hat hier niemand behauptet, dass ganz egal welche ATI Grafikkarte schlechter ist, in welcher Form auch immer, als eine, welche auch immer, Nvidia Grafikkarte.

Na ja, und wenn ich mir deinen ersten Beitrag hier anschaue (ööhh, ATI HD hier besser öööhhh ATI HD da besser) dann dann brauchst du dich über solche Beiträge von mir nicht zu wundern.
12.) Duplex 07.06.2009 - 16:07 Uhr
eXEC , ich kann deine aufregung verstehn
aber diese karten sind nicht fürn spieler gemacht sondern für leute die mit Office arbeiten und ggf. mal ein video anschaun

und zwischen einer 9600GT und 4770 sind , soweit ich deine Quelle angeschaut habe , nie mehr wie 35% abstand , sogut wie immer sinds "nur" 30% , aber darum gehts nicht
11.) eXEC 07.06.2009 - 16:02 Uhr
@Pawel: Ich bin ein Scheisdreck ein Soldat von irgendeiner Firma, selbst nutze ich eine Nvidia GTX-280 und einen i7 CPU, habe also nichtmal Hardware von AMD verbaut. Aber solch falsche Aussagen wie gleich im ersten Post ärgern mich einfach und zwar tierisch. Einfach mal auf gut Glück irgendein Schwachsinn blubbern ohne Quelle oder ähnlichem. Das gleiche wie in einem anderen Threat wo sich ein User über die tolle Sockelkompatibilität von Intel (775) auslasst und dabei AMDs Sockelwechsel kritisiert. Totaler Bullshit, weil es vom 775 gefühlt ein duzend verschiedene Varianten gibt. Und 40% Leistungsvorsprung einer HD4770 zur 9600GT sind eine ganze Hausecke und schon erwähnenswert.

@Topic: Ich verstehe ehrlich gesagt nicht das Ziel dieser Chips. Der stärkste Chip mit 48 SPs dürfte einer HD4670 deutlich unterlegen sein und auch nicht weniger kosten. Der GT218 könnte aber vielleicht im LowEntry Bereich gegen eine HD4350 gut konkurrieren. Aber 64bit DDR2 ist schon heftig wenig. Damit wird man nichtmal Spiele von vor 5 Jahren auf höheren Details flüssig spielen können. Ich finde man sollte selbst im LowEntry Bereich langsam GDDR3 mit 512 MB und 32 SPs etablieren. Die Mehrkosten zu einer Lösung mit 16 SPs und DDR2 64 bit dürfte in der Massenproduktion nur geringst sein und die 20€ Aufpreis dürfte das doch eigentlich jedem Wert sein...
10.) KonKorT 07.06.2009 - 15:37 Uhr
Bulldozer:
Ich sehe keinen Sinn bei diesen Karten, DX 10.1 braucht auch keiner!

Durch das 40 Nanometer-Verfahren verringern sich bei selber Yield-Rate die Produktionskosten um ziemlich genau die Hälfte. Man kann jetzt offenbar noch 50% mehr SPs draufhauen, somit die Performance etwas verbessern, und trotzdem deutlich günstiger produzieren.
Die DirectX 10.1-Kompilanz wurde noch nicht bestätigt.

Bulldozer:
Hat Nvidia langeweille? Die sollten lieber schnell diese Fiepen/Spulen BUG beseitigen, denke das diese schnick schack Ohr Nerven weiterhin auf dem GT300 exestieren wird, Nvidia ist es scheiss egal was wir kritisieren!

Langeweile ist es, wie oben erwähnt, nicht. Das Spulenfiepen tritt lediglich bei sehr hohen FPS auf, die man hauptsächlich nur in Spielemenüs vorfindet. Durch Aktivierung der vertikalen Synchronisierung im Treiber kannst Du übringens auch jetzt schon das Problem vollständig umgehen.

Bulldozer:
Dadurch spart Nvidia aber keine Produktionskosten, der Chip ist trotzdem 4x so teuer wie ein RV770. Genau so wie beim GT200 der das 5 fach wie ein RV770 kostet, alleine schon die komplexe Chipfläche und Transistoren!!!

Hier stehen 576 (GT200) bzw. 470 (GT200b) Quadratmilimeter gegenüber 260 Quadratmilimeter. Wie Du auf Faktor 5 kommst, ist mir schleierhaft. Gewiss stimmt es auch, dass die Yield-Raten beim RV770 noch etwas besser auffallen - von Faktor 4 oder 5 ist man aber ganz weit entfernt...
9.) Paweł 07.06.2009 - 15:24 Uhr
Was soll eigentlich immer dieser Virtueller Krieg zwischen ATI und Nvidia Soldaten ?
Leute das nervt total dieser Spam. Hier geht es doch um die GT218 die soweit mir bekannt eine Low-Cost Grafikkarte ist. Leute hört mal bitte auf damit, macht hardware-infos nicht zudem, was heute aus dem Computerbase Forum geworden ist - ständig sinnlose Debatten zwischen ATI und Nvidia Soldaten die sich zum teil wegen 2 FPS Virtuell an den Hals springen.

Wer bock hat eine ATI zu kaufen, kauft eine ATI und wer bock hat eine Nvidia zu kaufen, kauft eine Nvidia! Ganz egal welche im Endeffekt ein besseres Preis/Leistungsverhältnis liefert. Die Leistung allein ist nicht das einzige Argument für den kauf einiger, andere Faktoren spielen auch eine große rolle!
8.) eXEC 07.06.2009 - 12:49 Uhr
Wo bitte hat die 9600 GT einen guten Status? Die Karte ist ziemlich Leistungsschwach und kostet etwas über 70€. Für nur lächerliche 8€ mehr gibts eine HD4770 die etwa 40% (!) schneller ist!

Also man kann mir ja viel erzählen, aber Nvidia ist momentan absolut beschissen aufgestellt. Erst ab der GTS-250 kann man mithalten. Aber mehr als Gleichstand kommt nie zustande.

Testbericht beider Karten:
http://www.computerbase.de/artikel/hard ... ancerating

ACHTUNG: Die 9600 GT gibts auch abgespeckt mit DDR2-Speicher! Aufpassen! Diese Karte ist deutlich langsamer und darf nicht verglichen werden!

Günstigster Preis 9600 GT GDDR3 laut Schottenland: 70,16€ + 10,45€ Versand
Güsntigster Preis HD4770 GDDR5 laut Schottenland: 82,34€ + 6,99€ Versand
7.) Duplex 07.06.2009 - 11:19 Uhr
was ? die 9600GT ist konkurenzlos in ihren gebiet , die 4770 konkuriert gegen 9800GT

Preisleistungs verhältniss juckt nunmal nicht jeden , ich kenn ne abnormale menge die sich sagen , so ich hab 100€ und will diese in eine graka investieren , dabei schaun die nicht uaf P/L sondern einfach was es um die 100€ gibt und dann halt die schnellere


"Wir" sind eigentlich ne art "insider" , wir informieren und ggf. und vergleichen preise , das macht fast niemand
6.) eXEC 07.06.2009 - 00:34 Uhr
Meine Preise sind vollkommen korrekt und von Schottenland.de ermittelt.
Ich habe aber vergessen, dass die GTX+ zur GTS-250 umbenannt wurde.... Die ist in der tat ein wenig günstiger. Damit wäre die GTS-250 wohl von Preis/Leistung mit einer HD4850 gleichzusetzen. Trotzdem ist die restliche Aufstellung einfach nur schwach. Alles unter GTS-250 ist absolut für die Katz und darüber ist man bestenfalls im Gleichstand von Preis/leistung
5.) Duplex 06.06.2009 - 23:33 Uhr
@eXEC

so schlecht wie du sagst ist Nvidia garnicht
und wo hast du bitteschön die preise her ?
eine GTS250 mit 512mb bekommt man bereits für ~94€ , wärend die günstigste 4870 ~121€ kostet


@Bulldozer

Woher hast du den die zahlen ?
4.) Bulldozer 06.06.2009 - 22:31 Uhr
Dadurch spart Nvidia aber keine Produktionskosten, der Chip ist trotzdem 4x so teuer wie ein RV770. Genau so wie beim GT200 der das 5 fach wie ein RV770 kostet, alleine schon die komplexe Chipfläche und Transistoren!!!
3.) eXEC 06.06.2009 - 22:28 Uhr
Omg, was ist hier bitte gut aufgestellt??
AMD wildert Konkurrenzlos mit der HD4770 im Bereich von 85€, bietet eine HD4870 1GB mit mehr Leistung für 140€ an, während hier Nvidia schon mit Verlusten den GT200 als Alternativprodukt verkaufen muss, eine HD4670 gibt es bereits für 50€! Eine HD4870 mit 512MB kostet nur 5€ mehr, als eine 9800 GTX+ mit 512 MB. Die 1GB Variante ist dabei fast so teuer, wie eine GTX-260 und verliert völlig die Daseinsberechtigung.
Nvidia ist bei allen Produkten unterhalb der GTX-260 katastrophal aufgestellt und keines der Produkte hat eigentlich eine Chance gegen die ATI-Karten. Eine Änderung ist mit den oben genannten Chips übrigens nicht in Sicht...
2.) Duplex 06.06.2009 - 22:24 Uhr
das spulenpfeifen ist kein bug , das ist das ausmass wen man an ecken und kanten spart und billige spulen verbaut , aber kein fehler
1.) Bulldozer 06.06.2009 - 21:20 Uhr
Ich sehe keinen Sinn bei diesen Karten, DX 10.1 braucht auch keiner!
Aktuell ist man doch gut bedient bei nvidia, die Preise sind ganz unten, was will man mehr?
9600GT=70 €
8800GT=82 €
GTS250=94 €
GTS250 1GB=120 €
GTX260=148 €

Was bringen neue Chips >beschnittende GT2xxx Refreshs Furzis, aber bekomm ich dadurch eine Mehrleistung & Skalliert der Chip dadurch besser > eher unwahrscheinlich, eine 8800GT hat mit einem E8400@4ghz in Furzmark 06 schon 14000 Punkte und eine GTX260 über 17000...

Hat Nvidia langeweille? Die sollten lieber schnell diese Fiepen/Spulen BUG beseitigen, denke das diese schnick schack Ohr Nerven weiterhin auf dem GT300 exestieren wird, Nvidia ist es scheiss egal was wir kritisieren!

Soll AMD schön die HD5870 für 250 € anbieten und kann damit die Messlatte im High End erstmal für sich erobern^^ Ein CrossFire verbund für 500 € könnte mich begeistern -.- Power Play lässt grüßen xD