Nvidia in der Zange von ATI/AMD und Intel

KOLUMNE » Weiterempfehlen

Nvidia in der Zange von ATI/AMD und IntelDie Gemüter kochen derzeit wieder über, da Nvidia einen genaueren Einblick in die Architektur des kommenden High-End-Chips GF100 gewährt hat. Zusätzlich wird die Situation durch Yield-Angaben angeheizt, welche dem grünen Riesen trotz guter Leistungsfähigkeit des Fermi schlechte Aussichten prophezeien. Daher hier ein paar Gedanken, welche die Situation auf dem Hardwaremarkt darstellen und Nvidias handeln dazu in den Kontext setzen, statt die Gerüchteküche weiter anzuheizen.

Im Bereich der Computergrafik gibt es zurzeit drei große Marktteilnehmer nebst weiteren kleinen Herstellern zum Beispiel Matrox und S3: Die großen drei sind Intel, Nvidia und ATI.

Intel verkauft ausschließlich integrierte Grafikeinheiten, welche jedoch dem Leistungsstand von ATI und NVIDIA nachstehen. Allerdings sei an der Stelle zu erwähnen, dass der Leistungsumfang völlig für Office-Anwendungen ausreicht. Zudem konnte Intel mit dem Centrino-Markennamen alle peripheren Komponenten eines mobilen Computers (Nettop, Notebook etc.) inklusive ihres "eigenen" Grafikkerns unter einem Dach erfolgreich zusammen bringen und vermarkten. So lässt sich zum Beispiel auch der große Marktanteil von Intel-IGPs auf dem Mobilmarkt erklären.
Seit neustem gibt es auch die CPU (Arrandale) mit der GPU im gleichen Package. Dies führt zu einer weiter verschärften Situation auf dem Grafikmarkt. Bis auf wenige Ausnahmen (Apple, die auf einen Arrandale ohne Grafikkern bestehen) werden die meisten Systemanbieter die integrierte Grafikeinheit mit übernehmen, womit die Nachfrage für IGPs zusammenbrechen wird, vor allem wenn die nächsten Generationen leistungsfähiger sind.
Auf dem High-Preformance-Grafik-Sektor hat Intel den Gegenspielern nichts entgegen zu setzen. Nach dem grandiosen Scheitern von Larrabee wird das auch in absehbarer Zukunft so bleiben, selbst wenn Intel mit Many-Core-Prozessoren aufhorchen lässt.

ATI ist im High-Performance-Bereich besser aufgestellt als Intel. So erreichte die Radeon HD 4870 schon eine theoretische Rechenleistung von 1200 Gigaflops, wobei bei einer Matrixmultiplikation schon beachtliche 880 Gigaflops erreicht wurden. Relativierend sei hier erwähnt, dass ATI mehr Probleme als Nvidia hat, ein entsprechendes Framework für die GPU-Programmierung auf die Beine zu stellen. Zwar begannen die Kanadier sehr früh mit der Stanford University eine High-Level-Sprache zu entwerfen (Brook), jedoch erreichte diese nie einen ausgereiften Stand. Die lässt sich auch auf die Stream SDK (in der Brook enthalten ist) ausweiten. Die Stream SDK wurde erst sehr spät vom Beta- in den Release-Status gehoben. Auf diesem Gebiet ist für ATI noch ein großer Nachholbedarf festzustellen.
Bei der Umsetzung der DirectX 11-Technologie ist ATI derzeit vorbildlich und aufgrund mangelnder Konkurrenz sehr präsent auf dem Markt. Der Release von Grafikchips in allen Performancesegmenten innerhalb von Monaten ist mehr als beachtlich. Bei dieser Generation hat ATI alles richtig gemacht. Erstens sind sie dem Credo "Niemals Prozess und Architektur wechseln" gefolgt. Zum zweiten haben sie extra einen "Versuchschip" in Form des RV740 (HD 4770) vorgeschoben, um Erfahrung mit der Fertigung bei TSMC zu sammeln. Dieser Schritt ist gesondert zu erwähnen, da der komplette Maskensatz für einen neuen Chip schnell mehr als 10 Millonen US-Dollar kosten kann. Geld, das sich aber ausgezahlt hat. Mehrfach. ATI hat sich mit der erfolgreichen Einführung Zeit verschafft, und zwar Zeit, welche dringend benötigt wird: Zum einen muss ATI für mehrere Produktionsstätten Chips entwerfen (Globelfoundries und TSMC) und zum anderen noch für SOI-Technologie sowie Bulk. Und direkt über dem Kopf schwebt das Damoklesschwert "Fusion", lange versprochen und bis jetzt noch nicht umgesetzt. Intels Arrandale gießt zusätzlich Öl ins Feuer der prekären Situation.
Die Achillesferse als auch der Heilige Gral von ATI ist AMD. Gelingt Fusion, können AMD/ATI Intel gehörig ärgern, da die Grafikeinheit leistungsfähiger als die des Konkurrenten ist. Dass die Prozessoren zurzeit nicht konkurrenzfähig sind, dürfte da weniger den Ausschlag geben. Moderne Betriebssysteme werden die Last zwischen CPU und GPU verteilen, womit dieser Nachteil mehr als ausgeglichen werden könnte. Exzellent wird dies schon im Betriebssystem "Snow Leopard" demonstriert.
Mit der zukünftigen Architektur Bulldozer verfolgt AMD zudem ein extrem interessantes Konzept, welches vor allem mit Blick auf die vollständige Fusion (nicht nur das Package, sondern der Logik) von CPU und GPU enormes Potential aufzeigt. Die FPUs sind laut den von AMD veröffentlichen Folien schon stark von den Integereinheiten getrennt. Der nächste revolutionäre Schritt - eine vollständige Trennung von Integer- und Floating Point-Einheiten - scheint damit nicht weit. Bei guter Aufgabenverteilung ist damit ein enormes Leistungspotential vorhanden.
Um die Welt für AMD/ATI nicht ganz so rosig darzustellen: Der Weg bis zur echten Konkurrenzfähigkeit mit Intel ist noch weit und beschwerlich. Als Beispiel seien hier nur der geringe Marktanteil im mobilen Segment als auch der Versuch nach langer Zeit wieder Gewinne zu erwirtschaften, zu nennen.

Bei nüchterner Betrachtung der Konkurrenten Intel und AMD bleibt für Nvidia nur eines festzustellen: Nvidia steht mit dem Rücken zur Wand.
1.) Intel und AMD werden Prozessoren mit integrierter Grafikeinheit verkaufen. Damit bricht das Low-Budget-Segment für Nvidia ein.
2.) Beide Prozessorhersteller konzentrieren sich auf Plattformlösungen. Damit ist das Chipsatzgeschäft für Nvidia unrentabel.
3.) Intel wird selber leistungsfähigere Grafikkarten herstellen und versuchen, diese mit den hauseigenen Produkten, ähnlich der Centrino-Platform, zu kombinieren. AMD tut dies bereits.
4.) Für das weit verbreitete Betriebssystem Windows können AMD und Intel Inhalte und Unterstützung ihrer Hardware einfordern, während Nvidia auf ein paar APIs und DirectX beschränkt bleibt.
5.) Intel hält die Lizenzen für x86. Selbst AMD kann die eigene nur mit einem "Dirty-Deal" halten.

Was bleibt Nvidia? Die Flucht nach vorne! Und das haben sie getan!
1.) Nvidia versucht mit aller Macht, das Gebiet der GPU-Computing zu erobern beziehungsweise zu erschließen.
2.) Ion war der Vorstoß in den mobilen Bereich.
3.) Tegra II ist ebenfalls ein extrem interessantes Produkt für den Ultra-Mobile-Bereich.

GPU-Computing wurde von Nvidia schon seit Längerem gefördert. Gebetsmühlenartig war auch immer wieder das Statement zu hören, dass die CPU obsolet ist und die GPU alles könne, was eben auch eine CPU ausmacht (was als etwas übertrieben bezeichnet werden kann). Zusätzlich zu den verbalen Attacken (vor allem gegen Intel) wurde mit dem Framework CUDA ein Tool geschaffen, welches Entwicklern den Zugang zu GPU-Programming erleichtert. Weiter erfolgte eine Etablierung von CUDA-Kursen an verschiedenen Universitäten. Der nächste Schritt für das GPU-Computing, die Optimierung der Grafikkarte auf das GPU-Programming, wird mit dem GF100 durchgeführt. Mit diesem "Monsterchip" ist Nvidia ein Risiko eingegangen, um die Ansprüche der Gamer und Anwender zu befriedigen. Offensichtlich haben die Ressourcen für eine getrennte Entwicklung einer Grafikkarte für beide Segmente nicht ausgereicht. Die anderen Bereiche, vor allem Tegra, werden entsprechend Ressourcen gebunden haben.
Strategische Fehler können Nvidia fast nicht vorgeworfen werden, jedoch Handwerkliche. Zuerst bleibt festzuhalten, dass Nvidia auf einen Testchip für 40 nm verzichtet hat und gleich mit dem komplexesten Stück Silizium der Geschichte in einen neuen Prozess einsteigt. Ein fataler Fehler. Mehr als ein halbes Jahr nach dem RV870 hat Nvidia noch immer keinen High-End-Chip mit der neuen Gatelänge herstellen können. Allein die mangelnde Verfügbarkeit der ATI-Karten verhinderte ein vollständiges Desaster zum Weihnachtsgeschäft.
Der zweite große Fehler dürfte die Unterschätzung der Treiberkomplexität für den GF100 sein. Offiziell wird ja auch bis zum letzten Moment an der Treiberentwicklung gearbeitet.
Aber der große strategische Fehler von Nvidia ist die Unterschätzung von ATI gewesen. Dabei war die Leistung der neuen ATI-Generation sehr gut abzuschätzen. Es war klar, dass die Architektur nicht großartig geändert wird. ATI hat seit der HD 3000-Generation kleine Brötchen gebacken und gut daran getan. Die Implementierung von DirectX 11 und das Ausbügeln von Architekturfehlern (zum Beispiel Stromsparfunktionen) war das Maximale, was sich ATI zugetraut hat. Das war langfristig für Nvidia bekannt, da der Hersteller TSMC die Testmasken von ATI hatte und die garantiert eingesehen werden konnten beziehungsweise Samples fotografiert worden sind. Daher ist es mehr als verwunderlich, dass Nvidia keinen "Zwischenchip" entwickelt hat und abermals in die Preisdruckfalle (ähnlich HD 4000 vs. GTX 200) rennt.
Ein weiterer, negativer Aspekt, der allerdings für Nvidia nicht absehbar war, ist OpenCL. Dieser Standard wurde vor allem von Apple gepuscht und kann als direkter Gegenspieler für CUDA dargestellt werden. Zwar wurden viele Funktionen von CUDA in OpenCL implementiert (ein Grund für die Treiberprobleme von ATI), aber trotzdem handelt es sich um getrennte Workframes. Erschwerend kommt hinzu, dass Apple OpenCL vorbildlich unterstützt und damit den OpenCL-Standard weiter entwickelt. Der Konkurrent ATI hat somit die Möglichkeit, auf einen etablierten Standard aufzuspringen und ein großes Stück vom Computing-Kuchen zu ergattern, welchen der Grüne gerade backen will. Nvidia muss extrem aufpassen, mit CUDA nicht in einen Nischenmarkt (zum Beispiel HPC) abzurutschen. Viele Anwendungen werden mit der Performance von "normalen" OpenCL schon ausreichend beschleunigt werden. Außerdem können die Anwender herstellerunabhängig Hardware für ihre Software beziehen. Insgesamt lässt sich der Fermi als "Hop oder Top"-Produkt von Nvidia bezeichnen.
Ein weiteres interessantes Projekt von Nvidia ist der Tegra II. Für den (zukünftigen) Erfolg hat der Zufall Pate gestanden. Da Google das Android-Betriebssystem stark gefördert hat, ist der Weg für einen Nicht-x86-Multi-Prozessor mit vielen Multimediafunktionen im mobilen Sektor frei. Interesse seitens der Industrie (VW-Konzern) wurde schon bekundet.

Was bleibt unterm Strich für alle großen Spieler? Nvidia lässt sich am leichtesten mit den Worten beschreiben: Der Weg war richtig, das Schuhwerk und die Vorbereitung falsch. Es bleibt zu hoffen, dass Nvidia trotzdem am Ziel ankommt, sonst könnte es ihnen wie Matrox ergehen. Einmal verzockt, ab dann nur noch ein Nischenmarkt (der im Falle von Matrox mit Eyefinity von ATI fast komplett zerstört ist). Außerdem muss definitiv das Namenskarussell geändert werden, dem selbst Hardwareenthusiasten mitunter nicht folgen können. In der Endkonsequenz verspielt das nur unnötig Kredit bei Systemanbietern und Endanwendern.

ATI steht vor schweren Zeiten mit der kranken Mutter AMD und den anstehenden, neuen Architekturen. Fusion und SOI-Technologie sind ebenfalls harte Nüsse, die zu knacken sind. Zusätzlich muss ATI mit der Entwicklung der OpenCL-Unterstützung nachziehen, um Nvidia das Feld (vorerst) nicht kampflos zu übergeben.
Beide Hersteller sollten zudem ihre Produktentwicklungsstrategie überdenken. Ergibt es wirklich Sinn, das Topmodell zuerst zu bringen und das Risiko einer geringen Ausbeute einzugehen oder sollte nicht ein komplett redundantes Design entwickelt werden, welches ähnlich der ersten Quad-Cores einfach zusammen gebondet wird, um einen High-End-Chip zu bilden? Denn eins scheint sicher: Die nächsten Produktionsprozesse werden komplexer und schwieriger zu beherrschen.
Intel ist von alledem nicht berührt. Der Monopolist hat den großen Vorteil einer unabhängigen Fertigung und Forschung. Die neue Produktpalette ist sehr gut aufgestellt, jedoch sollten auch sie nicht vergessen, dass die Konkurrenten auf Fehler lauern. Und einen hatte Intel mit Larrabee erst jüngst begangen. Diesen Schandfleck gilt es nun, schnellstmöglich zu beseitigen, damit die Dominanz weiter bestehen kann und Intel im HPC-Segment mithalten kann.

Kommentar schreiben

  • Loggen Sie sich oben mit ihren Benutzerdaten ein, um Kommentare zu verfassen.
  • Falls Sie noch kein Mitglied sind, können Sie sich in unserem Forum registrieren.

18 Kommentare

18.) N1truX 24.01.2010 - 08:50 Uhr
Naja die kleineren Chips könnten schon noch ein gutes Stück kleiner werdenm da Nvidia ja die GPGPU-Funktionalität einschränkt. So wird es ja wohl im Bereich DP sowie ECC-Fehlerkorrektur Einschnitte geben, was auch nochmal platz spart..
17.) Kellerkind 24.01.2010 - 01:15 Uhr
N1truX:
Unter der Bedingung das sie soviel Entwickler abstellen konnten, was ich aufgrund der großen Verschiebung nicht glaube. Und aufgrund der aktuellen Umbenennung Richtung G300 glaube ich nicht das wir im Mainstream und insbesondere nicht im Low-End allzubald was sehen werden.

Sehe ich genauso.
Vor allem hat Nvidia ein großes Problem, an dem auch die Modularität nichts ändert:
Nach aktuellem Stand kann man davon ausgehen, dass der GF100 mindestens 550mm² groß wird. Nehmen wir jetzt mal an, nvidia will einen Low-Mainstream-Ableger machen mit 1 statt 4 "GPC", also 128 SP/16 TMU, sowie 16 ROP und 128 bit SI. Das wäre 1/4 der SP/TMU/Rasterizer/Polymorph-Einheiten des GF100 und 1/3 der ROP/SI. Hinzu kommt noch, dass sich Dinge wie die "Gigathread-Engine", Display-Controller etc. logischerweise gleich groß bleiben.
Alles in allem hätte ein Chip mit diesen Spezifikationen wohl ca 30% der Die-Fläche des GF100. 550mm²*0,3=165mm². Etwa so groß wie Juniper.

Leistungstechnisch aber würde ein solcher Chip meiner Meinung nach höchstens im Bereich Radeon 4770/5750 bzw. GTS 250 landen, und dazu wären schon recht hohe Taktraten nötig, was wiederum den Stromverbrauch hochtreibt.

Kurzum: Ich halte es für unwahrscheinlich bis unmöglich, dass Nvidia noch in 40nm DX11-Ableger für Mainstream und Low-End bringt. Im (Spät-)Sommer (früher würde das wohl so oder so nichts werden) einen Chip zu bringen, der es bestenfalls mit dem über ein Jahr alten RV740 aufnehmen kann und so groß wie Juniper ist? Macht nicht wirklich Sinn.
Ich denke, Nvidia wird die Ableger direkt in 28nm fertigen. Einzig ein Performance-Mainstream-Chip mit 256SP/32TMU/32ROP/256bit als Ersatz für den zu langsamen G92 und den zu teuren GT200b würde evtl. noch Sinn machen. Und auch das nur, wenn die Yield-Rate mitspielt.

N1truX:
Die einzige Ausnahme muss zwangsweise Fusion darstellen und hier ist die Wahl wohl auf Bulk gefallen.

Bist du sicher? Mein letzter Kenntnisstand ist, dass Fusion 32nm ist, und GloFo hat den 32nm bulk Prozess meines Wissens gecancelt. Außerdem ist die CPU von Fusion im Prinzip ein Propus mit verdoppeltem L2-Cache, und macht dem Die-Shot nach den Hauptteil des Fusion-Dies aus. ich denke Fusion wird 32nm SOI sein.
Bobcat ist meines Wissens 40nm bulk.
16.) eXEC 23.01.2010 - 03:24 Uhr
Naja, die Kolumne ist eben ganz klar eine MEINUNG des Autors, an einigen Stellen stimme ich zu, an anderen nicht. Aber das ist ja nicht schlimm, es ist ja deutlich als Meinung gekennzeichnet.
An sich ganz nette Arbeit und vieles wurde ziemlich passend zusammengefasst. Was ich allerdings die mit Abstand größte Verfehlung von Nvidia halte ist die Tatsache, dass weiterhin "Monster-Chips" produziert werden. Das ist schlichtweg dumm, bereits die HD4k-Serie war von der Leistung viel zu nah am viel größeren und teureren GT200 dran, einzig kleinere Schnitzer (Kein gescheiter Idle, AF-Filterung) sorgten dafür, dass einige User doch noch überhaupt NV gekauft haben. Tja die Fehler sind nun weg, jetzt hat NV ein dickes Problem. Die Leistung der "GTX-380" wird UNTER GARANTIE nicht mehr als 25% höher ausfallen, als die der HD5870. Und AMDs RV870 ist längst nicht am Ende, die HD5870 arbeitet mit verdammt niedriger Spannung um den Stromverbrauch zu drücken, es sind z.B. auf dem PCB noch zwei Kontakte für einen 8Pin Stecker dabei, man könnte mit etwas mehr Spannung leicht 1Ghz Chiptakt und etwa 2600 Mhz Speichertakt rausholen, womit man fast gleichauf mit Nvidias HighEnd Fermi wäre - Bei wahrscheinlich sogar noch niedrigerem Stromverbrauch und viel kleinerem und billigeren Chip, wodurch eine Preisschlacht mit leichtigkeit gewonnen werden kann. MonsterChips sind out, eine Preis/Leistungs-Katastrophe die kaum konkurenzfähig ist.
15.) N1truX 22.01.2010 - 17:49 Uhr
Weiser:
Es muss bedacht werden, dass Nvidia mit dem Fermi eine komplett neue Architektur auf die Beine gestellt hat, wovor sich AMD/ATI nun schon seit 4 Generationen drückt.
Also komplett neu ist reichlich übertrieben. Beim G80 können wir drüber reden, bei AMDs R600 auch gerne, aber der GF100 ist eher ein (etwas mehr als doppelter) auf GPGPU getrimmter GT200b in 40nm mit einigen Optimierungen zur Effizienzverbesserung (hoffentlich auch wirklich im Grafikbereich). Also Ich würde mal sagen etwas zwischen dem was AMD bei der HD 4000 im Vergleich zur HD 3000 geschafft hat und dem was der G80 neu gemacht hat.
Quote:
Erst kürzlich wurde ja bekannt, dass ATIs HD 6000-Generation in 28nm von 2010 auf 2011 verschoben wurde. Meiner Meinung nachhat ATI hier einen sehr Schweren Brocken zu knacken, denn wie richtig bemerkt, werden kommende Architekturen aufgrund ihrer größeren Funktionalität deutlich komplexer ausfallen, ATI darf das dann gleich in 28nm pressen.
Da ist durchaus was dran. Die Verschiebung kam laut AMD durch den Wechsel von TSMC auf GF. Auch nicht unwahrscheinlich, da kann man durchaus 3-4 extra Monate einplanen - je nach GF Zeitplan auch länger.
Das man mit einem mal viel Neuland betritt kann in der tat ein Problem werden. Der Vorteil von AMD ist natürlich, das sie kleinere, weniger komplexe DIEs produzieren. Das erspart zeit beim Debuggen, prinzipiell besser Yields usw.
Aber wirklich positiv sehe ich das auch nicht. Neue Architektur (zumindest wahrscheinlich), Fertigungsprozesswechsel, andere Fab..
Quote:
Wenn Cuda sich gut entwickelt, wird man meiner Meinung nach nicht gegen IGPs von Intel und AMD verlieren im Low-End-Segment. Weil ganz einfach dann schon kleine Grakas von Nvidia mit Cuda hantieren und daraus evtl. bedeutende Voreteile ziehen könnten und weil sie doch noch deutlich leistungsfähiger wären als zumindest die Intellösungen.

Würde Leistung im IGP Bereich irgend eine größere Rolle spielen, gäbe es wohl heute nur noch AMD und Nvidia IGPs oder Intel hätte wirklich mal Geld rein investiert ;) Es geht bei IGPs nicht zwingend um HTPC o.ä. Die Masse sind einfache Bürorechner (wo es auf jeden Cent ankommt), IGPs für Laptops, simple Internet- und Officerechner für zu Hause. Da kann das Ding auch PhysX, Cuda, OpenCL, DirectX11 und sonst was haben - es interessiert fast keinen.
Für Office muss das Ding 2D können, jede neuere IGP ist auch halbwegs (Intel) bis sehr gut (Nvidia, AMD) HD-fähig - das reicht schon. Was immer wichtiger wird ist Multi-Monitoring, da hat Intel wirklich noch schwächen im Gegensatz zu AMD und Nvidia.
Quote:
Die Clarkdale-GPU soll ja angebllich nur ein leicht überarbeiteter GMA X4500 sein, mit DX10 und auch für die Zukunft habe ich noch nicht von Intel-IGPs mit DX11-Support gehört.

Hast du auf einer IGP mal probiert Dx10 zu nutzen? Oder ein etwas dickeres Dx9 Spiel? Zum Thema Leistung und Features hab ich mich ja schon ausgelassen. Dx11 is a nicht mehr als nen "Nice-to-have" für die breite Masse.
Quote:
Und sollte Fermi wirklich so modular gebaut sein, wie Nvidia vorgibt, sollte es kein Problem für die Grünen sein, im (Spät-)Sommer Mainstream und Low-End Grakas auf den Markt zu bringen.

Unter der Bedingung das sie soviel Entwickler abstellen konnten, was ich aufgrund der großen Verschiebung nicht glaube. Und aufgrund der aktuellen Umbenennung Richtung G300 glaube ich nicht das wir im Mainstream und insbesondere nicht im Low-End allzubald was sehen werden.
14.) Weiser 22.01.2010 - 16:50 Uhr
Es muss bedacht werden, dass Nvidia mit dem Fermi eine komplett neue Architektur auf die Beine gestellt hat, wovor sich AMD/ATI nun schon seit 4 Generationen drückt. Erst kürzlich wurde ja bekannt, dass ATIs HD 6000-Generation in 28nm von 2010 auf 2011 verschoben wurde. Meiner Meinung nachhat ATI hier einen sehr Schweren Brocken zu knacken, denn wie richtig bemerkt, werden kommende Architekturen aufgrund ihrer größeren Funktionalität deutlich komplexer ausfallen, ATI darf das dann gleich in 28nm pressen.

Zu einem Zwischenchip nach GT200 und GF100: Angeblich gab es ja einen GT212 (40nm, siehe GT215/216/218 -> GT240/230, G210/310,...), der mit 384 Shadern, 96 TMUs, 32 ROPs, 256 Bit, GDDR5 und (nur) DX 10.1 in Konkurrenz zum RV870 kommen und stehen sollte. Doch gerüchteweise wurde dieser Chip gecanclet, vermutlich, weil man die Kapazitäten - wie erwähnt - für den ressourcenverschlingenden GF100 brauchte.

Wenn Cuda sich gut entwickelt, wird man meiner Meinung nach nicht gegen IGPs von Intel und AMD verlieren im Low-End-Segment. Weil ganz einfach dann schon kleine Grakas von Nvidia mit Cuda hantieren und daraus evtl. bedeutende Voreteile ziehen könnten und weil sie doch noch deutlich leistungsfähiger wären als zumindest die Intellösungen.
Die Clarkdale-GPU soll ja angebllich nur ein leicht überarbeiteter GMA X4500 sein, mit DX10 und auch für die Zukunft habe ich noch nicht von Intel-IGPs mit DX11-Support gehört.
Und sollte Fermi wirklich so modular gebaut sein, wie Nvidia vorgibt, sollte es kein Problem für die Grünen sein, im (Spät-)Sommer Mainstream und Low-End Grakas auf den Markt zu bringen.

Mich wundert es schon länger, dass die beiden High-Performance-Hersteller nicht versuch SLI/Crossfire zu revolutionieren. Warum schaffen sie es nicht wie 3dfx mit ihren Voodoos optimal linear skalierende Dual-/Tripel-/...- Lösungen auf den Markt zu bringen und dann nur noch günstig zu entwickelnde Mainstreamchips zusammenzuschweißen.

Gute, durchdachte, abwägende und subjektiv beurteilt eine objektive Kolumne!
13.) N1truX 22.01.2010 - 14:42 Uhr
Naja das ist etwas komplizierter. Letztendlich hat AMD die 1.25 Mrd. US-Dollar von Intel bekommen sowie eine Verlängerung des Patenttauschabkommens und eine Änderung der x86-Lizenzvereinbarung (bzgl. Fertigung bei GF) und hat dafür die Klage gegen Intel in den USA fallen gelassen.
War für beide Seiten eine recht annehmbare Lösung. Intel weiß ja am Besten was sie alles getan haben und haben so schlechte Presse vermieden, AMD hat das ganze mit der ATIC-Übernahme und die Abspaltung der Fabs in GF "legal" gemacht und noch nen bisschen Geld bekommen.

Wirklich sauber war das ganze nicht - eigentlich eine gegenseitige Erpressung wenn man es so nennen will.
12.) m4c 22.01.2010 - 13:02 Uhr
Ist mit "Dirty-Deal" gemeint, dass wenn Intel AMD die x86 lizenz nehmen will, AMD intel die x64 wegnimmt?
11.) N1truX 22.01.2010 - 09:09 Uhr
Daedalus:
GF und TSMC: AMD /ATI wird für beide weiter entwickeln, weil damit ein Preisdruck auf beide Firmen ausgeübt werden kann. Alles andere wäre marktwirtschaftlich und produktionstechnisch nicht nachvollziehbar.

ATIC hat ja die Werke von AMD übernommen, besser betreibt sie zusammen mit AMD als GF, jetzt sind noch die Werke von Chartered Semiconductor hinzugekommen. Bei dem Vertrag mit ATIC musste sich AMD u.a. dazu verpflichten, ihre GPUs bei GF zu fertigen. AMD selbst hat ja auch vor kurzem gesagt das die Verzögerung bei der N.Island Generation durch den Wechsel von TSMC auf GF kommen.
AMD wird schätzungsweise Chipsätze und ggf. noch die ganz kleinen Versionen der Chips bei TSMC fertigen lassen, der rest muss vertraglich aber zu GF. Und ich schätze mal spätestens mit der neuen NY-Fab dürfte dann wohl alles zu GF wandern. Ist für AMD auch besser bei der Fertigung näher dabei zu sein. Zumindest dürfte aus ihren "eigenen" Werken mehr Feedback kommen als von TSMC.
Quote:
Bulk/SOI: AMD hatte vor geraumer Zeit verkündet, die Produktionstechnologie vor jedem neuen Prozeß zu prüfen. Daher ist es durchaus gut möglich, das AMD die Bulkproduktion übernimmt. Aber auch das ist auf die schnelle nicht so einfach umsetzbar. Das komplette Design würde sich radikal ändern. Da geht es auch um etliche Know-How, welches erst geschaffen werden muss. Daher liegt auch hier der Weg einer Coexistenz beider Varianten vor. Es sei an der Stelle angemerkt, dass AMD nicht mehr die vollen Entwicklungskosten der Prozesse hat und daher leichter mehrgleisig fahren kann.
Ich glaube wir meinen etwa da selbe, sagen es nur anders ;) Es wird in absehbarer Zeit sicherlich keine Bulk-CPU sowie SOI-GPU geben, da die jeweils anderen Verfahren ausgereift sind und ein Wechsel eben extrem aufwendig.
Die einzige Ausnahme muss zwangsweise Fusion darstellen und hier ist die Wahl wohl auf Bulk gefallen. Interessant könnte auch Bobcat werden, da man dort garantiert keinen SOI (S)HP-Prozess nutzen wird, sondern eher einen LP/SLP und die gibts ja nur in Bulk von GF.

@Int/FPU: Naja AMD hat ja mit Fusion viel vor. Was wir jetzt sehen soll ja die erste Version sein wo eben leider noch nicht viel verzahnt wird (auf Hardwareseite). Softwareseitig schon eher und ich denke daher kommt auch AMDs interesse an OpenCL und ihrem StreamSDK (welches ja OpenCL wie CPUs unterstützt). So können sie bei Fusion die "In-DIE"-Verzahnung zumindest auf Softwareebene gut ausnutzen.
Ein richtiges Verschmelzen von Funktionseinheiten werden wir bei den ersten Fusions sicherlich noch nicht sehen.

@HD 5000: Naja mit besseren Assemblern würde die Matrixmultiplikation auch auf der HD 5000 effizienter laufen ;) Es gibt eben schon ein paar Verbesserungen (gerade die Caches). Aber klar, das Grunddesign ist etwa das gleiche. Wobei man natürlich sagen muss das der GF100 jetzt auch nicht ein solcher Sprung ist wie seinerzeit G7x -> G8x.

@TSMC: Naja ich arbeite auch in der Forschung und da gibt es sowas wie Geheimhaltung ;) Und die Entwicklungsabteilung etc. bei AMD, Intel, Nvidia usw. sind sehr stark überwacht. Da darf kein Datenträger oder Blatt Papier rausgehen. Und wenn die bei TSMC Masken anfertigen lassen, werden die schätzungsweise direkt danach die Vorlage wieder mitnehmen und gucken das keine Kopien angefertigt wurden.
Das Nvidia etwa wusste was AMD macht ist klar. Das die HD 5000 Serie keine neue Architektur wird war schon länger bekannt, die Shader schon stark optimiert und AMDs "Sweet-Spot" Strategie bekannt. Dazu kennt man ja etwa AMDs Packdichte und konnte sich schon ausmalen das es Richtung 1600 SPUs geht.

@2 DIEs/Package: Auch der ARM kann da nicht viel machen. Der Flaschenhals liegt ja schon in der Verdahrtung - also rein physikalisch. ich halte das für nicht so sinnvoll.
10.) Undergroundking 21.01.2010 - 17:30 Uhr
@ Daedalus:

ati wird kaum bei GF und TSMC den gleichen chip fertigen lassen. jeder chip muß der produktion des herstellers angepasst werden. von daher würde das nur sinnlose mehrkosten bereiten.

ati wird ganz zu GF wechseln. vor allem, da ja nun sogar auch chartered zu GF gehört.

alles andere wäre den arabischen investoren wohl kaum zu vermitteln.
9.) Daedalus 21.01.2010 - 16:40 Uhr
@ N1truX: Eine ganze Reihe von Fragen. Mal sehen ob ich einen Teil davon beantworten kann.

GF und TSMC: AMD /ATI wird für beide weiter entwickeln, weil damit ein Preisdruck auf beide Firmen ausgeübt werden kann. Alles andere wäre marktwirtschaftlich und produktionstechnisch nicht nachvollziehbar.
Bulk/SOI: AMD hatte vor geraumer Zeit verkündet, die Produktionstechnologie vor jedem neuen Prozeß zu prüfen. Daher ist es durchaus gut möglich, das AMD die Bulkproduktion übernimmt. Aber auch das ist auf die schnelle nicht so einfach umsetzbar. Das komplette Design würde sich radikal ändern. Da geht es auch um etliche Know-How, welches erst geschaffen werden muss. Daher liegt auch hier der Weg einer Coexistenz beider Varianten vor. Es sei an der Stelle angemerkt, dass AMD nicht mehr die vollen Entwicklungskosten der Prozesse hat und daher leichter mehrgleisig fahren kann.
Integer/FloatingPoint-Einheiten: Ich stimme dir voll zu. Der springende Punkt leigt genau in der Verzahnung der FPU aus der GPU mit der CPU. Um dies möglichst sinnvoll ohne enorme Klimmzüge durchführen zu können trennt man im alten Design VOR der GPUFPU-Integrierung die Einheiten soweit, das eine definierte Schnittstelle entsteht, an der die FPU andockt. Dies zeigen auch schon jetzt die Flussdiagramme.
Zum Thema 40 nm: im Artikel steht ausdrücklich 40 nm HIGH-END-CHIP.
Zum Thema HD 5000er Serie: die von dir genannten Änderung sind tatsächlich mehr als nur eine Fehlerkorrektur. Das Grunddesign ist aber absolut identisch. Das kann auch in dem hervorragenden Thread auf beyond3d (link im Artikel) nachgelesen werden. Die gleiche, bis ins letzte Optimierte Matrixmultiplikation funktioniert genauso auf der HD 5870. Die Anpassungen im Bereich GPGPU sind auch nur Fehlerkorrekturen, da die 4000er Serie einige Macken hatte.
TSMC: es ist nahezu unmöglich eine Information Geheim zu halten, wenn mehr als 100 Leute die Dies zu Gesicht bekommen. Aber Gesetz dem Fall du hast recht (Mensch, du bist ja ein sehr Loyaler Arbeitnehmer ;-) ), so hätte NVIDIA der Wahrscheinlichkeit eines solchen Vorgehens vorbauen müssen. Welche Gründe hätte den AMD gehabt das Design radikal umzubauen? Garantiert nicht der GT200. Den hatte man schon mit enormen Preisdruck an die Wand gefahren.
Thema Redundant: hier wurde der Falsche Ausdruck gewählt. Du hast recht. Nennen wir die Idee einfach ein "Baukastenprinzip zu Steigerung der Leistung".
Thema 2 DIES je Package: Der Datentransfer ist tatsächlich der Flaschenhals. Eine Intelligent Verteilung muss diese Aufgabe übernehmen. Der Vorschlag von "isigrim", einen ARM hierfür zu nutzen ist auch sehr interessant.

Danke für die Kritik. Einige Punkte in der Kolumne (z.B. Produktion) beruhen auf "einer aus technischer Sicht" geprägten Vernunft. Durchaus möglich, dass einige Überraschungen geben wird, angreifbar sind die Aussagen daher allemal.

@hmd: Die Vernachlässigung der Kunden im "alten" Segment war bestimmt nicht geplant, ist jedoch sehr ärgerlich. Zur FLucht nach vorn: was macht NVIDIA wenn Intel und AMD teile ihres CPU-Kerns patentieren (z.B. Schnittstellen) und die Lizenzen zur Nutzung nicht herausgeben (wie es Intel mit QPI getan hat). Dann sieht NVIDIA über kurz oder lang alt aus, weil sie ihre Karten nicht mehr anbringen können. Also baut man ein "Bonbon", welches jeder haben will und schon kommt man auch ins System
8.) N1truX 21.01.2010 - 12:22 Uhr
Ganz netter Artikel, aber ein paar Fragen hätte ich noch ;)
Quote:
Dieser Schritt ist gesondert zu erwähnen, da der komplette Maskensatz für einen neuen Chip schnell mehr als 10 Millonen US-Dollar kosten kann. Geld, das sich aber ausgezahlt hat. Mehrfach. ATI hat sich mit der erfolgreichen Einführung Zeit verschafft, und zwar Zeit, welche dringend benötigt wird: Zum einen muss ATI für mehrere Produktionsstätten Chips entwerfen (Globelfoundries und TSMC) und zum anderen noch für SOI-Technologie sowie Bulk.

Warum müssen sie für mehrer Produktionsstätten Chips entwerfen? ATi wechselt mit der nächsten generation komplett zu Global-Foundries.
Und dann SOI/Bulk: Es gibt bisher keine gesicherten Informationen wie der erste Fusion hergestellt wird. AMD kann die CPU auf Bulk portieren oder die APU/GPU auf SOI. Aktuell gehen die Gerüchte auf einen Bulk-Prozessor.
Oder beziehst du dich auf etwas anderes? Denn GPUs werden weiterhin im Bulk-Prozess gefertigt, dafür bietet GF ja den 28 nm Bulk SHP-Prozess planmäßig ab Ende 2010 (je nachdem ob man Risk- oder Massenproduktion sieht etwas später bzw. früher) an.
Quote:
Die FPUs sind laut den von AMD veröffentlichen Folien schon stark von den Integereinheiten getrennt. Der nächste revolutionäre Schritt - eine vollständige Trennung von Integer- und Floating Point-Einheiten - scheint damit nicht weit. Bei guter Aufgabenverteilung ist damit ein enormes Leistungspotential vorhanden.

Zu Fusion gab es nicht wirklich Folien die technische Details wiedergegeben haben. Formal gab es nur zu Bulldozer und Bobcat ein paar Flussdiagramme, die aber kaum Schlüsse zulassen. Was man auf dem ersten Fusion DIE-Shot sieht, ist das die GPU und CPU praktisch nur in einem Stück Silicium sind und nicht wie bei Intel "nur" auf einem Package und sich wohl ein paar Einheiten teilen (IMC, Caches?).
Und warum sollte man Int- und FP-Einheiten stärker trennen? Macht nicht wirklich so viel Sinn, besonders nicht in Hinblick auf AMDs 5D-Shader der aktuellen Gegneration. Sie sind ja anscheinend eher drauf aus die ALUs der GPU in die CPU zu integrieren und stärker zu verzahnen.

Zum Thema nV und 40 nm hat sich Undergroundking ja schon ausgelassen, ich schließe mich dem an. Zwar hätte man grundlegend etwas früher und ggf. etwas komplexer (GT212^^) anfangen sollen, aber man hat wohl eher Entwickler für Fermi abgezogen. egal.
Quote:
Die Implementierung von DirectX 11 und das Ausbügeln von Architekturfehlern (zum Beispiel Stromsparfunktionen) war das Maximale, was sich ATI zugetraut hat. Das war langfristig für Nvidia bekannt, da der Hersteller TSMC die Testmasken von ATI hatte und die garantiert eingesehen werden konnten beziehungsweise Samples fotografiert worden sind.

Also die HD 5000 Serie hat schon ein paar mehr Änderungen mitbekommen als nur Dx11 und hier und da etwas Optimierung. Gerade für den Bereich GPGPU (siehe neue General Purpose Register, größere Caches), zwei Hierarchial-Z-Units, weiter optimierten Tesselator, Eyefinity, verbesserte Speichercontroller usw.
Und auch wenn TSMC Testmasken hatte - was auch sicherlich so war - kannst du dir ganz gewiss sein das die Firmen da extrem auf die Daten aufpassen. Da geht so gut wie nichts raus, das wäre eine Katastrophe.
Fotos kann man sicherlich machen, aber wie viel man aus denen ableiten kann ist wieder eine andere Sache.
Quote:
Beide Hersteller sollten zudem ihre Produktentwicklungsstrategie überdenken. Ergibt es wirklich Sinn, das Topmodell zuerst zu bringen und das Risiko einer geringen Ausbeute einzugehen oder sollte nicht ein komplett redundantes Design entwickelt werden, welches ähnlich der ersten Quad-Cores einfach zusammen gebondet wird, um einen High-End-Chip zu bilden?
"komplett redundantes Design" - Redundanz hat im Bereich Technik was mit dem mehrfachen Vorhandensein von gewissen Teilen zu tun um eine Ausfallsicherheit zu haben bei evtl. defekten. Sowas ist für eine Komplette GPU ja praktisch unmöglich. Für einige Transistoren gibt es sowas aber durchaus im Design.
Und schon gar nicht hat Redundanz was mit Quadcores aus zwei Dualcore-Dies zu tun, es sei denn du würdest das als Dualcore verkaufen und falls ein DIE kaputt wäre der andere die Arbeit übernimmt.

Zudem ist die Idee der "2 DIEs je Package" für GPUs recht untauglich. Im Gegensatz zu CPUs reden wir hier intern von bedeutend größeren Datentransferraten. Intels ehem. Design ist bei nativen Multicore-Anwendungen (also wo eine Aufgabe z.B. von der eines anderen Kerns abhängt) ja in Sachen Effizienz fast gestorben, bei z.B. 1600 ALUs, 80 TMUs, 32 ROPs usw. die untereinander agieren.. so viel Pins kann man gar nicht an ein DIE anbringen um die Datenmengen zu verschieben.
7.) Undergroundking 21.01.2010 - 10:39 Uhr
nvidia steigt nicht erst mit fermi in die 40nm produktion ein. GT 240 usw werden schon in 40nm produziert.
6.) isigrim 21.01.2010 - 07:14 Uhr
Sehr gute Kolumne!

Nvidia baut sich mit Tegra 2 ja tatäschlich ein zweites Standbein neben dem "reinen" GPU-Markt (inkl. Tesla) auf, mit dem zukünftige Experimente auch finanzierbar werden. Dank der Verträge mit dem Volkswagen-Konzern, Tegra in den Marken Audi, Volkswagen, Bentley, Lamborghini, SEAT und Skoda einzusetzen, darf man davon ausgehen, dass Nvidia gut Geld mit seinen SoCs verdient. Hierbei ist es interessant zu sehen, dass VW die Nvidia-Prozessoren nicht nur für die 3d-Darstellung von Navigationskarten nutzen will, sondern beispielsweise auch für Augmented Reality-Systeme und Fahrerunterstützung. Dazu kommen dann eben die Tablets und später wohl auch Smartphones und eventuell Smartbooks, die auf Tegra setzen. Hier ist ein Beispiel

Zukünftig dürften zudem ARM-Derivate ihren Weg auf Nvidias Grafikbeschleuniger finden, um eine der großen Schwächen der GPUs auszugleichen, nämlich die Verarbeitung serieller Prozesse, die sich schlecht parallelisieren lassen. Dann hätte Nvidia quasi einen umgekehrten Fusion, bei dem die Betonung dann aber mehr auf der GPU statt der CPU liegt. Derartige Beschleuniger dürften der Traum für alle HPC-Systeme sein, weil dadurch genau wie bei Fusion Bandbreitenprobleme großteils der Vergangenheit angehören würden. Das KnowHow für ARM sammelt Nvidia eben momentan mit Tegra, wobei gleichzeitig viel Erfahrung bei der Vollintegration von Chipsystemen gewonnen wird.

Zudem findet man eben in der Fermi-Architektur viele gute Ansätze, die eine solide Grundlage für die folgenden GPU-Generationen darstellen. Also momentan sehe ich durchaus Ansätze, sich der Zange zumindest einige Zeit erfolgreich entgegen zu stellen, ob man sich daraus befreien kann, hängt dann vor allem von AMDs Vorgehen ab.
5.) hmd 20.01.2010 - 22:07 Uhr
Interessant geschreben, aber die Kernaussage "Nvidia bleibt nur die Flucht nach vorne" sprich GPU-Computing ist der Weg zur Erleuchtung, ist einfach falsch. Wie kann man ein Gebiert (dezidierte Grafikkarten) wo man wirklich stark ist, so vernachlässigen? Dass man mit aller Gewalt in den Nischenmarkt GPU-Computing drängen möchte, leuchtet mir auch nach dem Artikel nicht ein.

Dazu besteht doch kein Anlass, dezidierte Grafikkarten wirds auch nach der "Fusion" noch geben. Ein weiters Beispiel wo ein Unternehmen mit dem Griff nach den Sternen seine treuesten Kunden vernachlässigt hat.
4.) Luk Luk 20.01.2010 - 21:13 Uhr
Ich stimme der Kolumne auch größtenteils zu, wirklich gute Argumente und Schreibweise.

ATI erstarkt endlich wieder..........

Ist fast so spannend wie ein Krimi die Geschichte :)
Wirklich gute Arbeit!

@ AdBlockPlus Problem: Vielleicht liegt es daran, dass der Links als "class="werbung"" gekennzeichnet ist?

<a class="werbung" target="_blank" href="http://forum.beyond3d.com/showthread.php?t=54842" class="werbung">880 Gigaflops</a>
Zumindest sagt das mein "Firebug"-Addon von Firefox.
3.) Madbomb 20.01.2010 - 19:41 Uhr
Das liegt daran das du Adblock oder ein ähnliches Addon aktiv hast.

Ansonsten würde ich sagen das die Kolumne sehr gut geschrieben ist, auch wenn ich nicht in allen Punkten übereinstimm, aber deswegen ist es ja auch eine Kolumne!
2.) Schnoofy 20.01.2010 - 18:58 Uhr
Vierter Absatz, zweite/dritte Zeile: "[...] wobei bei einer Matrixmultiplikation schon beachtliche 880 Gigaflops erreicht wurden. [...]" -> ist das nur bei mir so, dass '880 Gigaflops' gar nicht angezeit werden?
1.) Stangmar 20.01.2010 - 18:52 Uhr
insgesamt sehr sehr gute Kolumne, jedoch würde ich nicht unbedingt sagen, dass AMD's CPUs nicht wettbewerbsfähig sind, ich würde das eher auf das mangelhafte Marketing zurückführen, was im Text ja auch erwähnt wird.