Ändert Intel seine Larrabee-Strategie?

IntelKürzlich hatte Intel Larrabee auf der Supercomputing Conference gezeigt und erzielte dort auf den ersten Blick recht gute Werte bei der Rechenleistung. Man erreichte bei einer Vorführung von Matrixmultiplikationen mit einfacher Genauigkeit bis zu 1 Teraflop Rechenleistung. Das Ganze allerdings nur als Spitzenwert und durch Übertaktung der Karte, im Normalbetrieb sank der Spitzenwert auf immer noch respektable 712 Gigaflops, wobei auf Dauer nur 417 Gigaflops erreicht wurden.
(Zum Vergleich: Eine Radeon 4870 erreicht hier bis zu 900 Gigaflops und eine Geforce GTX 280 kommt auf 624 Gigaflops)

Larrabee wurde ursprünglich als eine neuartige Grafikkarte angekündigt, die durch ihre x86-Kompatibilität besonders gut zu programmieren sein sollte. Aufgebaut ist das ganze Konzept auf einer Vielzahl (24 oder 32) kleiner, verhältnismäßig einfacher Kerne, die vom Ur-Pentium (P54C) abgeleitet sind, aber auf aktuelle Fertigungsgrößen geschrumpft wurden. Diese Kerne werden über einen großen gemeinsamen L2-Cache verbunden und durch zusätzliche Vektoreinheiten beschleunigt. Zusätzlich hat Intel noch einige Fixed-Function-Units in die Architektur integriert, die zum Beispiel für Texturberechnungen zuständig sind. Als Instruktions-Rückgrat für das ganze Design dienen die Larrabee-New-Instructions, kurz LRBni.
Detaillierte Informationen können Sie unserem Bericht Intel Larrabee-Architektur entnehmen.

Offensichtlich hat man sich bei Intel nun dazu entschieden, sich zunächst auf das Profisegment zu konzentrieren und Larrabee als Co-Prozessor für parallele Berechnungen zu vermarkten und seine Grafikpläne dagegen zunächst nach hinten zu verschieben. Dieser Schritt ist nicht verwunderlich, denn gerade im HPC-Segment kann Intel die x86-Kompatibilität und Flexibilität seines Many-Core-Prozessors als größten Trumpf ausspielen.

Das Problem, welches Larrabee für die Darstellung von Spielen hat, ist seine vergleichsweise niedrige Rechenleistung. Während die GPUs seit Jahren speziell auf die Bedürfnisse der Spiele "gezüchtet" und daher viele Operationen - vor allem aus Microsofts DirectX - fest in die Hardware integriert wurden, muss Larrabee einen Großteil davon emulieren, also in Software berechnen. Das kostet Leistung, wodurch die oben genannten 417 Gigaflops Dauerleistung weiter zusammenschmelzen. Damit dürfte dieser Prozessor in keinster Weise eine Konkurrenz zu aktuellen Spiele-Grafikkarten darstellen. Gleichzeitig darf man davon ausgehen, dass die Verlustleistung bei Larrabee den Rahmen aktueller Grafikbeschleuniger momentan noch deutlich sprengt. Hier wird Larrabee also wahrscheinlich seine Flexibilität eher zum Nachteil. Fraglich auch, ob Intel preislich mit den Grafikkarten mithalten könnte. Somit stünde hier momentan wohl einer niedrigeren Spieleleistung ein höherer Preis und ein höherer Verbrauch gegenüber.

Als Ausweg aus diesem Dilemma, das Intel wohl selbst sehr früh bewusst war, hatte man stets Echtzeit-Raytracing beworben, das neue Möglichkeiten in der Grafikberechnung ermöglichen sollte und bisher traditionell eigentlich rein Aufgabe der CPU war. Aber abgesehen davon, dass die erste Vorführung von Intels Raytracing Projekt "Enemy Territory: Quake Wars"-Raytraced auf Larrabee keinen sonderlich überzeugenden Eindruck hinterließ, werden zunehmend auch GPUs - dank ihrer programmierbaren Shader - für das Raytracing eingesetzt und sind dabei sogar sehr effizient, wie sich an mehreren, kürzlich vorgestellten professionellen Raytracing-Engines zeigt. Ein weiteres Problem beim Raytracing ist aber immer noch der hohe Rechenaufwand, der kaum in einem sinnvollen Verhältnis zum Nutzen steht, wenn es um Spiele geht. Auch hier scheint Intel also schwerlich Anschluss zu finden.

Das letzte Feld, das Intel bleibt, ist momentan das High-Performance-Computing, also der Bereich der Groß- und Supercomputer. Da hier parallele Rechenaufgaben zum Standard gehören, wäre ein Prozessor wie Larrabee eigentlich perfekt. Bestehender Code lässt sich dank x86 recht leicht portieren und gleichzeitig ist die hohe Flexibilität von Larrabee in diesem Segment ein entscheidender Vorteil.

Intel erzielt schon heute schätzungsweise große Gewinne im HPC-Segment, wie man an der kürzlich veröffentlichten Liste der schnellsten Supercomputer ablesen konnte. Dort ist Intel schon in 95 der 500 schnellsten Rechner mit seinen relativ jungen Nehalem-EP-5500-Xeons vertreten.
Dass man im HPC- und Profi-Segment gut verdienen kann, weiß auch Nvidia und versucht nun mit seiner kommenden Grafikarchitektur Fermi ebenfalls ein Stück vom HPC-Segment zu ergattern, was Intels Stellung erheblich bedroht. Die aktuellen Grafikkarten besitzen erheblich mehr Rechenleistung für parallele Aufgaben und haben dabei einen deutlich niedrigeren Strombedarf. Nvidia hat bei der Entwicklung sehr viele Details wie ECC-Speicherkontrolle bedacht, die Fermi tatsächlich hochgradig attraktiv für den Supercomputer-Bereich machen. An fünfter Stelle in den Top500 der Supercomputer rangiert mit dem chinesischen "Tian-He" übrigens schon ein System, in dem neben Intels Nehalem-Xeons vor allem ATI Radeon 4870 X2-Karten für ordentlich Rechenleistung sorgen. Hier zeigt sich aber auch der Hemmschuh, den die derzeitigen Grafikkarten im HPC-bereich aktuell noch besitzen: Sie sind unselbstständig, benötigen also immer auch leistungsfähige CPUs, die sie mit Daten versorgen und sich um serielle Rechenaufgaben kümmern.

Intel muss also vor allem im HPC-Segment zwangsläufig kontern, weil die sehr großen und aufwendigen aktuellen CPU-Kerne für hochparallele Aufgaben schlicht zu ineffizient sind. Larrabee ist die einzige Möglichkeit, die Rechenleistung der x86-Prozessoren in diesem Segment annähernd konkurrenzfähig zu halten. Damit wird auch erklärbar, warum Intel nach wie vor versucht, Larrabee im ersten Halbjahr 2010 auf den Markt zu bringen. Nvidias Fermi könnte sich in der Supercomputer-Welt als eine Art "Game-Changer" erweisen, sollte er halten, was Nvidia inzwischen beinahe gebetsmühlenartig verspricht.
Da auf der Supercomputing-Konferenz allerdings keine Details zum Verbrauch oder der Größe des Larrabee genannt wurden, kann man nur spekulieren, ob Intel tatsächlich langfristig in der Lage sein wird, den Grafikbeschleunigern im HPC-Segment paroli zu bieten. Im Spielebereich ist seine Lage jedenfalls derzeit als aussichtslos zu bezeichnen.


Kommentar schreiben

  • Loggen Sie sich oben mit ihren Benutzerdaten ein, um Kommentare zu verfassen.
  • Falls Sie noch kein Mitglied sind, können Sie sich in unserem Forum registrieren.

5 Kommentare

5.) isigrim 27.11.2009 - 07:11 Uhr
@SunBlack
Angeblich plant Intel die LRBni mit 512bit breiten Registern inkklusive einiger Larrabee-Kerne auch in Haswell - seiner 22nm Architektur für 2012 - zu integrieren. Prinzipiell soll eine CPU entstehen, die auch FMA (fused multiply-add) ausführen kann. Was das genau heißt wird sich erst zeigen müssen, dazu muss auch erstmal mehr über Larrabee bekannt werden, aber es geht wohl in die Richtung die du ansprichst.
Allerdings ist ein Design, welches große Rechenkerne beliebig "zerlegen" und "wieder zusammensetzen" kann kann nicht so einfach zu verwirklichen. Das war im Zusammenhang mit AMDs Bulldozer Architektur im Gespräch, ob es dort so eine Art "Reverse-Hyperthreading" geben würde. Zwar hat Bulldozer eine FPU die 1x256 bit oder 2x128bit arbeiten kann, aber bei Integer wird das nicht möglich sein. Und laut John Fruehe von AMD ist "Reverse-HT" auch so schnell nicht zu erwarten.
Wahrscheinlicher ist erstmal eine Architektur wie Haswell oder AMDs 2. Fusion-Generation und danach, bei der CPU und GPU weiter verschmelzen, so dass die Rechenwerke der GPUs tatsächlich integrierter Bestandteil der CPUs werden und über deren Befehlssätze angesprochen werden können. Ein Hybrid-Ansatz im Sinne von gemischt, nicht chamäleonartig. Man kombiniert dicke Kerne für serielle Aufgaben mit vielen kleinen, einfachen Kernen für massiv parallele Operationen.
4.) SunBlack 27.11.2009 - 00:14 Uhr
Das wird schon seinen Grund haben. Du weißt doch das Nvidia immer wieder mal gesagt hat, die Zukunft gehört der GPU (da einiges schneller mit der GPU als mit der CPU berechnet werden kann). Und wem welches Geschäft gehört weißte ja auch. Also versucht Intel zu kontern - nur wie? Auf dem Stammgebiet von Nvidia und ATI hätte Intel schlechte Karten. Also was macht man? Man nimmt eine andere Technik die Rechenintensiv ist und von der aktuellen Architektur nicht so effizient ist: Raytracing. Und da weder AMD noch Nvidia zu dem Zeitpunkt richtig Raytracing in anklang gesprochen hat und es doch eine Verbesserung in der Darstellung verspricht, versucht Intel da einzuspringen. Und wie sollten die mit Raytracing gegen Rastergrafiken richtig einen Fuß bei der Kundschaft fassen, wenn der Chip dann solangsam ist, dass er Meilenweit hinterhinkt und keiner wirklich etwas von Raytracing hat? Oder würdest du als Spieler gerne 5 FPS geraytracet Bild haben, wenn du auch 30 FPS Rastergrafik haben kannst, dass nur unwesentlich schlechter aussieht? Wohl eher kaum. Nunja, das die Entwicklungsgeschwindigkeit anders verlief als geplant ist dann wohl eher nen anderes Thema ;).

Was ich eher interessant finden würde: wir haben doch x86-CPUs. Wenn wir nun auch noch x86-GPUs hätten, wäre doch eine Verschmelzung interessant, da es auch ein ganz paar Gemeinsamkeiten gibt. Was ich mir so vorstelle: ein Chip der z.B. entweder ein paar lange Pipes hat (wie bei CPUs) und bei anderer Belastung die einzelnden Pipestücke so zerlegt, dass es ein riesiger Multicore mit vielen kleinen Kernen wird (so wie GPU). Ich weiß dass das nicht so direkt möglich ist (bisher). Aber wer weiß. vlt. gibt es irgendwann ein paar pfiffige Köpfe die das hinbekommen ohne zuviel Leistung zu verschenken. Zumindestens würde damit das Problem mit der aufgabenbezogenen Last verringert werden (einige brauchen halt mehr GPU und einige halt CPU - aber richtig ausgeglichen hat man seltener)
3.) Dr. Acula 26.11.2009 - 23:33 Uhr
Ich verstehe nicht warum Intel versucht mit aller Macht ins High End Grafikkarten Geschäft einzusteigen. Ich dachte das würde sich sowieso nicht lohnen, weil es so wenig Abnehmer gibt und man das nur für Prestige macht, damit die Leute auch die billigen Karten für gut halten.
2.) Madbomb 26.11.2009 - 18:57 Uhr
Naja, das zeigt einzig und allein das man mit viel Geld halt nicht das Know-How kaufen kann um direkt Konkurrenzfähig zu sein.

Ich mein auch irgendwo mal gelesen zu haben das mit der zweiten Larrabee Generation Neuerungen kommen sollen die für den Spielesektor wichtig sind. Glaub das war als Intel die Stellenausschreibung herausgegeben hat für die Larrabee 2, und nebenbei ein paar Eckpunkte genannt wurden. Aber bis dahin ist es ja noch nen paar Tage.
1.) MacTen 26.11.2009 - 16:51 Uhr
Hatte auch nicht damit gerechnet, dass wir nächstes Jahr alle unsere ATI und NVIDIA Karten verkaufen müssten um uns ne intel Karte zu holen weil sie so toll ist. Wenn der Larrabee im Supercomputing Segement tatsächlich noch hinter dem Fermi hängen sollte, dann wird er wortwörtlich ein Tera-FLOP ^^