Intel Larrabee: 600 bis 700 mm² groß?

IntelIm Rahmen des auf einen Tag verkürzten IDFs in Peking letzte Woche hat Pat Gelsinger einen ersten Wafer des künftigen Grafikchips Larrabee in die Kamera gehalten.
Aufgrund der Tatsache, dass auf dem gezeigten 300 mm-Wafer lediglich rund 64 Larrabee-Chips untergebracht werden konnten, kann man die Chipfläche, und damit auch die Komplexität Larrabees, grob aufschlüsseln.

Die Fläche pro Chip muss demnach irgendwo zwischen 600 und 700 mm² liegen. Somit würde man selbst die Chipfläche des Nvidia GT200-Grafikchips, immerhin 576 mm² groß, schlagen.
Es ist stark davon auszugehen, dass die Testmuster in 45 Nanometer gefertigt wurden. Dies würde eine Komplexität des Chips von knapp 2 Millarden Transistoren nach sich ziehen.

Pat Gelsinger zeigt Intel Larrabee-Wafer

Bereits einen Tag nach dem IDF hatte sich der neue Nvidia-Chefentwickler Bill Dally in einem Interview der New York Times kritisch über das Intel-Projekt Larrabee, insbesondere dessen Ausmaße, geäußert. So hat er unter anderem gesagt, dass die Strafe, dass man mit dem x86-Befehlssatz arbeite, hoch sei. Intel würde so wertvollen Platz auf dem Chip verschwenden, ergänzte er.

Nach uns vorliegenden Informationen wird noch in diesem Jahr mit der Auslieferung erster Intel Larrabee-Chips begonnen, allerdings wird man mit einem breitflächigen Angebot - XFX hat im Vorfeld bereits angekündigt, Larrabee-Grafikchips anzubieten - wohl erst Anfang 2010 rechnen können. Der Preis wird, wie schon die gemutmaßte Chipfläche suggeriert, hoch ausfallen. Man darf mit rund 400 US-Dollar rechnen, wobei das letzte Wort hier auch die Konkurrenz spricht, an der man sich wird orientieren müssen.


Kommentar schreiben

  • Loggen Sie sich oben mit ihren Benutzerdaten ein, um Kommentare zu verfassen.
  • Falls Sie noch kein Mitglied sind, können Sie sich in unserem Forum registrieren.

14 Kommentare

14.) Phenocore 14.04.2009 - 14:20 Uhr
Man sollte auch bedenken, dass jeder Kern über 256 kib L2-Cache verfügt. Bei 32 Kernen kommt man schon auf über 8 MiB Cache. So viel Cache hat kein nVidia oder ATI chip, von daher kann man die Transistoranzahl nicht einfach so ohne weiteres 1:1 vergleichen.
13.) f1delity 14.04.2009 - 13:31 Uhr
Sollte der Larrabee nicht für alle Märkte werden?
Ich meine im Hinterkopf zu haben, dass Intel mal irgendwann sagte, die Corezahl gibt die Geschwindigkeit vor und dem entsprechend wollten die kleine und auch riesige Larrabees bringen um jeden Markt zu bedienen.

Und für einen guten Start ist gute Publicity von Nöten, also super Performance oder halt extrem gutes Preis-Leistungsverhältnis.
12.) KiTT 14.04.2009 - 13:26 Uhr
Seh ich genauso wie Daedalus. :)
11.) Daedalus 14.04.2009 - 11:09 Uhr
Die Größe des Chips ist im Moment zweitrangig. Von den 700 mm² sind auf Garantie 200 mm² nur für Testpunkte, Testfunktionen etc. vorgesehen.
Ich denke auch nicht das Intel vorrangig auf den Gamer abzielt. Es geht eher um rechenintensive Applikation in Wissenschaft und Wirtschaft. Das erklärt auch das Ziel eines X86-Compilers für den Larrebee. Ich für meine Teil ( CUDA und Brook Erfahrung) wäre über die X86 Kombatibilität schon sehr froh, es macht das Leben enorm leichter.
Auch wenn es hart klingt: Der Ottonormalverbraucher ist nicht der große Markt. Diesen kleinen Markt können ruhig ATI und NVIDIA bedienen.
10.) f1delity 14.04.2009 - 09:38 Uhr
Der Verbrauch, Größe und Preis sind erstmal zweitrangig, dass einzige was mit dem stärskten Larrabee erstmal geschafft werden muss sind: Absolute Topperformance und stabile und gute Treiber, danach kann ja Midrange folgen, vorausgesetzt die Ausbeute bleibt im Rahmen.


Aber ich glaube kaum, dass der Larrabee gegen die HD5xxx und GTX 3xx in der Praxis bestehen kann, vllt. im theoretischen Maximum, aber noch nicht bei derzeitigen Games.

Da das aber alles eh nur Vermutungen sind bleibt nur zu hoffen, dass der Chip kühlbar wird, ansonsten abwarten.
9.) (th) 13.04.2009 - 23:42 Uhr
Bulldozer du weisst weder wie schnell der GT300 noch der Larrabee ist. Und wie schon gesagt ich denke das wird sehr anwendungsspezifisch sein.
Vor allem musst du auch bedenken wie viel Arbeit in Optimierung auf Spiele steckt. Und noch dazu werden die Spielehersteller wohl kaum ploetzlich vergessen das bisher alle welt noch Ati und nvidia im PC werkeln hat.
Sicher Intel ist auesserst maechtig und auch ich glaube der Larrabee wird sehr stark sein. Aber es ist zu frueh um zu sagen dass Larrabee alles wegfegen wird.
8.) Duplex 13.04.2009 - 23:36 Uhr
du weist nicht einmal wie schnell GT300 sein wird , welche funktionen dieser chip bietet , und sonstige daten , somit ist deine aussage quasi zu ignorieren


Larrabee wurde für "raytracing optimiert" Nvidia und AMD selber haben einige demos gezeigt das es auf ihren grakas ebenfall orderntlich läuft somit ...

und AMD und Nvidia werden wohl nie mit einander arbeiten , das sind konkurierende firmen , ein "AMD-Nvidia" chip wirds nie geben selbst nicht in solchen zeiten , den sonst müssten beide ihr know-how aufdecken was overkill wäre für beide
7.) Bulldozer 13.04.2009 - 23:28 Uhr
Der Larrabee wird Gefährlich! ich denke dieser wird 5x so stark wie ein GT300 ausfallen. Nachteille wiid es später geben, Intel könnte Nvidia und ATI im High End Geschäfft verdrängen, so das diese nur noch midrange Produkte produzieren, wenn Intel eine Grafikkarte für 300 € anbietet die aber 5x stärker als der GT300 wäre, dann würde keiner mehr Nvidia oder ATI kaufen, weil Intel der beliebteste Hersteller der Welt ist, ich bin mir auch sicher das Nvidia mit AMD irgendwann in 2-3 Jahren zusammen arbeitet gegen Intel....das müsssen Sie, nur zusammen können die ein Konzecpt aufbauen um gegen Intel überleben zu können.
6.) Duplex 13.04.2009 - 23:02 Uhr
das wird nicht aufgehn was intel da bastelt , ein chip in 600-700mm² wäre ja übelst teuer in derherstellung , dann müsste man noch von einer guten wen vllt ne mittelmässigen ausbeute gehn dann wird son chip ja übelst teuer in der herstellung

man sieht doch bereits an Nvidias GT-200 das das nicht so toll funktioniert

sollte der chip schneller sein als Nvidias und AMDs gegenspieler haben die zwei immer noch die möglichkeit die preise zu drosseln wärend das dann wieder Intel schmerzen wird
5.) Phenocore 13.04.2009 - 22:34 Uhr
Stimmt schon, Intel baut jetzt schon ziemlich viel rund um den PC, wenn dann noch die externen Grafikkarten dazukommen.... Du hast aber noch vergessen in dein "zukunftspc" eine Intel SSD reinzupacken um den "intelrechner" komplett zu machen :-)
4.) Like-That 13.04.2009 - 22:19 Uhr
Boar ne, ich kann mir das nicht vorstellen!
'Habn Gaming PC - Intel Core i9 8 Cores, 8GB RAM, 5TB HDD und XFX Intel Larrabee' O.o. ..
3.) Undergroundking 13.04.2009 - 20:26 Uhr
ich seh null chance für intel im gamebereich erfolgreich zu sein. das wird der absolute supergau.

aber wird spassig zu beobachten, jede große firma braucht mal ein schockartiges erlebniss, um die eigenen grenzen zu erkennen.
2.) N1truX 13.04.2009 - 20:02 Uhr
Naja wie sich der Larrabee in klassisch programmierten Games schlägt muss sich erstmal zeigen. Allerdings wollte Intel mit dem Larrabee auch PCIe 3.0 rausbringen, welches bis zu 350 W TDP erlauben sollte.
Vielleicht - besser hoffentlich - wurden die Pläne durch 32nm aufgegeben.
1.) (th) 13.04.2009 - 18:32 Uhr
bis Intel bei den Treibern auf Augenhoehe ist wird aber noch einige Zeit vergehen...
Bin echt gespannt auf dieses Konstrukt... kann das wirklich ein Monster werden, was alles bisher dagewesene in den Schatten stellt? Ich denke das wird stark anwendungsspezifisch sein