Intels Larrabee ist tot - erst einmal

IntelIntels Sorgenkind Larrabee rückt erst einmal in weite Ferne. Nachdem wir letzte Woche schon von der Verschiebung des Larrabee als Grafikkarte berichtet hatten, scheint Intel nun auch für das HPC-Segment seine Pläne verworfen zu haben. Alle geplanten Consumer-Produkte auf Larrabee-Basis wurden eingestellt, weil der Chip und die dazugehörige Software weit hinter den ursprünglichen Erwartungen zurückgeblieben ist. Dagegen soll die zugehörige Software-Entwicklungsplattform ab nächstem Jahr Entwicklern zur Verfügung gestellt werden.

Zwar wird an der Hardware weiterentwickelt – schließlich ist schon enorm viel Geld in die Entwicklung von Larrabee geflossen –, aber mit einer Einführung von Produkten - dann wohl einem spekulativen Nachfolgechip - sollte man nicht mehr vor 2011 oder gar 2012 rechnen. Wahrscheinlicher ist indes letzteres. Dies ist vor allem für Nvidia und ATI eine gute Nachricht, weil ihnen damit für 2010 und wohl auch 2011 kein weiterer Konkurrent den dedizierten Grafikkartenbereich streitig macht. Den Markt der integrierten Grafiklösungen dominiert Intel hingegen jetzt schon deutlich mit einem Marktanteil von weit über 50 Prozent.

Der Termin 2011/2012 könnte aber vielleicht auch schon auf Haswell Bezug nehmen, Intels 22 nm-CPU, bei dem zumindest das Larrabee-Instruktionsset LRBni Einzug halten soll. Haswell wird eine neue Architektur nach dem 32 nm Sandy Bridge und dessen 22 nm-Shrink Ivy Bridge. Somit bleibt fraglich, ob Larrabee in seiner geplanten eigenständigen Form überhaupt jemals den Kunden erreichen wird oder ob lediglich Teile der Technik in späteren Produkten Verwendung finden. Immerhin dürfte Intel ja mit seiner Larrabee-Forschung einige Erkenntnisse für den Many-Core-Bereich gewonnen haben, wenn auch zu einem recht hohen Preis.
Somit darf Larrabee für Intel derzeit als eines der größten finanziellen Desaster überhaupt gelten; der ebenfalls verunglückte Itanium entspringt ja zumindest einer Zusammenarbeit mit Hewlett-Packard.

Insgesamt ist die Einstellung der aktuellen Larrabee-Generation keine Überraschung, die Gerüchte hatten sich in den letzten Wochen gehäuft und auch die bisher gezeigten Ergebnisse machten wenig Hoffnung auf ein erfolgreiches Produkt. Der diese Woche vorgestellte 48-Kern-Prozessor SCC, Codename Rock Creek, bildet für den HPC-Markt eine deutlich viel versprechendere Grundlage als Larrabee und wird damit wohl zukünftig im Zentrum von Intels ExaFlop-Forschung stehen.


Kommentar schreiben

  • Loggen Sie sich oben mit ihren Benutzerdaten ein, um Kommentare zu verfassen.
  • Falls Sie noch kein Mitglied sind, können Sie sich in unserem Forum registrieren.

7 Kommentare

7.) heto 06.12.2009 - 00:19 Uhr
Für mich, war Larabee von Anfang an zum scheitern verdammt. Intel hat einfach zu spät in den Markt der Consumer Grafikkarten eingegriffen. Meiner Meinung sollten die sich weiter auf das produzieren von CPUs und MBs konzentrieren und die Grafikkarten anderen überlassen. :)

mfg heto
6.) Madbomb 05.12.2009 - 20:42 Uhr
Naja kommt nicht wirklich überraschend, die Gerüchte häuften sich ja schon das Intel den Larrabee 1 streichen wird und dafür erst mit der neuen Architektur von Larrabee 2 auf dem Markt als diskrete Karte aufschlagen wird.
Nur sollte der Larrabee 1 in die CPU wandern, ich frage mich natürlich jetzt worauf Intel setzen wird wenn vor 2011-2012 nicht mit Larrabee 2 zu rechnen ist. Denn mit der aktuellen Lösungen macht sicht Intel noch weniger Freunde als es heute schon der Fall ist.

Ich denke Intel wird nicht weiter Geld investieren wenn sie das Projekt komplett abschaffen würden. Und sie werden sicherlich nicht die gleichen Fehler wiederholen, denn Intel wird natürlich daran interessiert sein auch endlich was vorzuzeigen.
Nur hoffe ich das sie gleichermaßen den Weg für Raytracing offen halten und fördern, denn man muss gestehen ohne Intels Arbeit in jene Richtung wäre Raytracing für die meisten noch ein ungeschriebenes Blatt.
Und wenn sie das jetzt aufgeben und sich praktisch 1:1 den aktuellen Karten angleichen, dann wäre für mich der Anreiz weg den Laarabee hat. Wobei natürlich in erster Linie weiterhin die Leistung für aktuelle Spiele gegeben sein muss, also halt eine schwere Kombination ohne Zuspruch der Entwickler.
5.) isigrim 05.12.2009 - 20:31 Uhr
Dem wäre noch hinzuzufügen, dass Raytracing inzwischen auch sehr effizient auf GPUs berechnet werden kann. Verschiedene Anbieter professioneller Raytracing-Applikationen bieten inzwischen sehr schnelle Ableger ihrer Programme für die GPU an. So wurde für die Render-Engine Vray RT kürzlich ein Ableger für CUDA vorgestellt, der auf Grafikkarten erheblich schneller läuft als auf CPUs. Hier bis zu 20mal so schnell wie auf aktuellen Quadcore CPUs.
Youtube: Vray RT on CUDA

Und Mental Images, bekannt durch die Render-Engine Mental Ray hat ebenfalls eine Render-Engine namens iRay und eine komplette Umgebung, bei der das Raytracing auf die GPU ausgelagert wird. Mental Images, das seinen Firmensitz in Berlin hat, gehört inzwischen übrigens komplett Nvidia.
Youtube: iRay-Präsentation bei der Nvidia GDC

Also im professionellen Umfeld zeigen sich hier massive Vorteile für die GPUs, womit selbst im Bereich Raytracing wahrscheinlich mit dem Larrabee nicht viel zu holen wäre. Auch hier wäre der Transistorballast durch x86 eher ein Nachteil, denn sobald die Engines einmal vernünftig auf die Shader der Grafikkarten ausgelegt sind, laufen sie darauf deutlich effizienter.
Einige Tests hier bei mir in diese Richtung zeigen übrigens, dass schon eine Geforce GTX260 bei Raytracing bis zu 20 mal so schnell arbeitet, wie ein Phenom II bei 3 Ghz.
Das was Intel da an "Echtzeit-Raytracing" (es hat so geruckelt, dass man davon kaum sprechen möchte) gezeigt hat, ist zudem die simpelste Form von Raytracing überhaupt, nämlich Einzelstrahl-Raytracing. Wenn man ordentliche Qualität will, z.B. weiche Schatten, dann steigt der Rechenaufwand drastisch an, weil man mehrere Strahlen aussenden muss. Für Spiele dürfte es dementsprechend noch einige Zeit dauern, bis Raytracing attraktiv wird.

Also alles in allem gewinnt Intel nirgends wirklich viel Land momentan, wenn man sich anschaut, wie schnell sich die GPUs zu (fast) Allzweck-Rechenmaschinen entwickeln. Trotzdem bleibt ihnen keine Wahl, sie müssen effizientere Many-Core Prozessoren bauen, um nicht langfristig den Anschluss zu verlieren. Daher wird wohl auch zukünftig bei Intel viel Geld in die ExaFlop-Forschung fließen.
4.) Phenocore 05.12.2009 - 15:43 Uhr
Wenn man sich die letzte enttäuschende Raytracing-Demo anschaut und die Aussagen von Pool, dass noch viel im Bereich Real-Time-Raytracing geforscht werden muss, bis man alles performant durchführen kann, dann würde ich sagen, dass es hier an der Software lag.

Was die herkömmliche Rendergrafik angeht:
Die Entscheidung für "Rasterization" Software zu verwenden statt Fixed-Funktion-Units, war dann wohl letzten Endes auch zu viel für die Softwareentwickler. Das diese Entscheidung damals nicht leicht viel, stand ja auch schon im Larrabee-Architektur-Artikel. Letzen Endes ist dieses "Softwareproblem", welches aus der Hardwarekonfiguration hervorgeht, dann wohl auch gleichzeitig ein Performanceproblem. Das ist zumindest das, was ich zu dem Thema nach der Architekturanalyse denke.
3.) eXEC 05.12.2009 - 15:42 Uhr
Es ist ganz einfach daran gescheitert, dass man x86-Kerne mit sehr vielen Features und dadurch sehr viel Chipfläche gegen speziel angepasste GPUs ansetzen wollte, was aber technisch fast unmöglich ist. Intel stehen auch nur eine gewisse Anzahl an Transistoren zur Verfügung und diese wären zum Teil in diesem Falle in "nutzlose" Features eingeflossen, während die Konkurrenz jeden freien Transistor dazu nutzen, um rohe Performance zu erzielen. Auch im Punkt Software hat Intel doch keine Chance, ATI und Nvidia sind seit einer halben Ewigkeit im Grafikgeschäft, wie will Intel hier auf einmal mitmischen? Ihre Onboard-"Lösungen" und dessen Treiber können doch nichts anderes, als den Desktop darzustellen, im besten Falle noch die Aero-Funktionen von Windows Vista/Seven - Aber merh auch nicht.
Das ganze Projekt war von Anfang an zum Scheitern verurteilt.
2.) Duplex 05.12.2009 - 15:15 Uhr
know how kann man sich eben nur schwer erkaufen

ich frag mich ehr an welche erwartungen es gescheitert ist
an :

Performance ?
Software?
P/L?

oder was es sonst noch für probleme gab ?
1.) Phenocore 05.12.2009 - 12:37 Uhr
Der 48-Kern Prozessor SCC ist quasi Larrabee ohne Cache-Coherenz und ohne die Fixed-Function Units für Texturefilterung.

Ich würde das ganze aber nicht als Desater bezeichnen. Intel hatte wohl von Anfang an vorgehabt an einem Many-Core-Prozessor zu forschen. Larrabe entspringt ja aus der Terascale-Forschung und die geht ja mit dem SCC auch weiter, nur gibt es weiterhin kein Produkt, welches man verkaufen kann. Einiges an Geld hätte man aber bestimmt sparen können, wenn man es gleich erst ein mal mit dem SCC versucht hätte. Finanziell ist das ganze also natürlich weit entfernt vom Optimum.