Larrabee Itaniums Erbe?

KOLUMNE » Weiterempfehlen

Larrabee Itaniums Erbe?Mit dem Itanium wollte Intel einst den Server- sowie insbesondere den HPC-Bereich (High Performance Computing) revolutionieren. Auch war das gesamte Projekt mit einem gewissen Ehrgeiz verbunden, galt es doch das Mooresche Gesetz zu bewahren – ein „Gesetz“ oder besser eine Gesetzmäßigkeit, die auf Intel-Mitgründer Gordon Moore aus dem Jahre 1965 zurückgeht und besagt, dass sich die Transistorenanzahl eines modernen Mikroprozessors alle zwei Jahre etwa verdoppelt.

So war es wenig verwunderlich, dass die jeweils neuste Itanium-Generation in Bezug auf Transistorzahlen und dementsprechend auch Chipgröße zu einem der wohl imposantesten Produkte am Markt zählte. Auch die inneren Werte können heute noch überzeugen. So gesellen sich aktuell (letzter Itanium von 2007) bis zu 24 MiB Cache bei 1,77 Milliarden Transistoren in der CPU – und das im 90 nm-Prozess auf nahezu 600 mm². Für den aktuell geplanten Nachfolger „Tukwila“ in 65 nm sind gar 2,05 Milliarden Transistoren auf 699 mm² geplant. Auch war der Itanium eine 64 Bit-CPU, allerdings nicht hardwareseitig x86-kompatibel, geschweige denn abwärtskompatibel zu 32 Bit-Programmen, was allerdings keinen allzu großen Nachteil für Server im HPC-Markt bedeutet.

„Doch was hat all' dies mit Larrabee zu tun?“, mag sich nun der ein oder andere fragen. Natürlich sind die Ansätze bereits grundverschieden. So war der Itanium auf eine sehr hohe Single-Threaded-Performance ausgelegt, während Larrabee hingegen vor allem durch seine überragende Skalierbarkeit mit mehreren Cores punkten soll (Multi-Threaded-Performance). Dieser Ansatz ermöglicht für Intel zugleich auf einfachste Weise, nämlich durch simple Änderung der Anzahl an Kernen, verschiedene Produkte auf Basis der gleichen Architektur zu präsentieren. Dementsprechend erweitert man dieses Mal sogar die Zielgruppe.

Hatte man zuvor „nur“ den Bereich Server auf der Liste, wird man jetzt auch Spieler ansprechen. So soll Larrabee nicht nur die Leistung von Servern durch sehr hohe theoretische Leistungswerte sowie massiven Multithreading steigern, sondern es auch ermöglichen, Spiele zu spielen. Besonders das Thema Raytracing scheint hier im Fokus Intels zu liegen.

Doch die Methoden der Realisierung erscheinen auf dem ersten Blick recht ähnlich. Aus technologischer Sicht versucht es Intel hier abermals mit der Brechstange – was in diesem Fall so viel bedeutet wie viele Transistoren auf viel Silizium als Kampfansage gegen die Konkurrenz. Doch wird der Markt(miss)erfolg auch ähnlich dem des Itanium, welche Aussichten hat Larrabee?

Über Konsumenten und Produzenten

Das Problem liegt in dem zuletzt erwähnten Punkt. Intel legt mit Larrabee sicherlich einen guten Grundstein, wenn es um reine Raytracing-Anwendungen geht, denn hier könnte er durchaus punkten. Raytracing lässt sich mit der Kernanzahl zu beinahe 100% skalieren. Allerdings wissen wir, dass Raytracing in heutigen Spielen de facto keine Rolle spielt. Auch für die nähere Zukunft von etwa zwei bis vier Jahren sind hier nur wenige Änderungen zu erwarten. Zumindest lässt sich dies bei der aktuellen Entwicklung nicht erwarten: Denn wie man bereits beim „Umstieg“ auf DirectX 10 – welcher über zwei Jahre nach der Einführung sowie etwa drei DirectX 10-fähigen GPU-Generationen nicht ansatzweise abgeschlossen ist - gesehen hat, tun sich besonders die Spieleentwickler sowie Publisher schwer, sich auf neue Technologien zu fokussieren.

Dieses Verhalten ist durchaus verständlich, bedenkt man doch, dass der Aufwand für eine entsprechende Portierung teilweise enorm hoch ist und der Nutzen unter Umständen gering ausfällt. Allerdings ist Nutzen hier eher in Form von „Wie viele der Spieler könnten potentiell diese Möglichkeiten nutzen?“ anstatt von „Die Leistung/Grafik verbessert sich nicht entsprechend“ gemeint. Denn die Entwickler müssen bei einer für den Kunden auch brauchbaren beziehungsweise merklichen Mehrleistung früh mit der Integrierung der entsprechenden Features anfangen. Und da all' dies Geld kostet, wird man verständlicherweise solange warten, bis entsprechend viele User überhaupt die Möglichkeiten haben, dies zu nutzen. Im Fall von DirectX 10-Grafik hieß das, man hat gewartet, bis abzusehen war, dass sich DirectX 10-fähige Grafikkarten sowie dementsprechend Vista als Betriebssystem halbwegs durchgesetzt hatten.

Für den Kunden beutetet dies wiederum, dass es vorerst keinen wirklichen Grund gibt, den Rechner aufzurüsten sowie sich gegebenenfalls noch zusätzlich ein neues Betriebssystem zu kaufen – falls eines der Dinge nicht bereits geschehen war. Denn auch hier gilt das Prinzip einer Kosten/Nutzen-Rechnung. Und diese wäre in dem Fall wohl mehr als nur schlecht. Ein Teufelskreis ähnlich dem, an denen sich viele wahrscheinlich noch aus den ersten Jahren der Multicore-x86-CPUs erinnern.
Dementsprechend ist praktisch der gesamte Markt von innovativen Firmen abhängig, die das finanzielle Risiko auf sich nehmen. Oft arbeiten hier allerdings Hardware-Hersteller Hand in Hand mit den entsprechenden Softwareproduzenten, um entsprechend mehr verkaufen zu können.

Einfach zu früh am Markt?

Nach diesem „kleinen“ Ausflug in die Grundlagen der Marktmechanismen wollen wir dies auf Larrabee projizieren: Zwar ist der Larrabee nicht darauf angewiesen, dass sich Windows Vista oder das neue Windows 7 schnell verbreiten, zumindest nicht direkt, dafür wiegt der Nachteil im Bereich Hardware allerdings umso schwerer.

In Sachen Hardware konnten sich die Programmierer im Bezug auf DirectX 10 ziemlich sicher sein, dass sich diese innerhalb eines Jahres schnell verbreitet. Die Leistungssteigerung und optische Aufwertungen waren zu eklatant, als dass sich viele Gamer dem hätten entgegenstellen können, zumal es egal war, ob sich die Spieler dabei für Nvidia oder AMD/ATI entscheiden. Bei Larrabee sieht dies etwas anders aus.

Intel versucht sich im Bereich der dedizierten Grafikkarten neben Nvidia und AMD als dritte große Partei aufzustellen, eben mit dem besonderen Augenmerk auf Raytracing-Performance. Dieses wird sich allerdings nicht ansatzweise so schnell ausbreiten können wie DirectX 10, solange Nvidia und AMD weiterhin an den – auch gut funktionierenden und auch weiterhin ausbaufähigen – Methoden und Architekturen (Rasterizing) festhalten.

Denn auch bei finanzieller Unterstützung seitens Intels wäre es aus Marketing-Sicht ein – ja sagen wir Himmelfahrtskommando –, das Spiel komplett auf Raytracing-Basis zu programmieren, ohne jegliche Abwärtskompatibilität mit entsprechedem, zusätzlichem Aufwand sicherzustellen. Auch eine Teilintegrierung in dem Maße, dass es ohne Raytracing-optimierte Hardware auch nur stellenweise zu unspielbaren FPS-Einbrüchen kommt, wäre inakzeptabel. Es ist also nicht wirklich möglich, eine breite Basis an Kaufanreizen in Form von Spielen zu schaffen, da Abwärtskompatibilität gewahrt bleiben muss.

So wären die Entwickler fast gezwungen, zwei teilweise unterschiedliche Engines zu schreiben. Einen Kostenfaktor, den wohl meist Intel tragen müsste. Bei einigen Spielen durchaus denkbar, für einen kompletten Markt und dementsprechend so viele Spiele, dass es sich für viele Kunden lohnen würde, beim nächsten Grafikkartenupdate über eine Larrabee-basierte Grafikkarte nachzudenken, kaum vorstellbar. Also muss Intel auch bei Rasterization-Grafik mindestens mit der zum Erscheinen aktuellen, oberen Mittelklasse mithalten können – wir tippen mal auf Karten wie HD 5850/HD 5870 sowie GTX 360 (die Namen sowie deren Zuordnung sind aktuell reine Spekulationen). Und genau hier liegt sprichwörtlich „der Hund begraben“.

Technische Probleme

Wie erst vor kurzem zu höhren war, hat Larrabee mittlerweile einige Revisionen hinter sich, bei denen es wohl nicht zuletzt um die Performance des Chips ging. Auch gab und gibt es allgemein viele Spekulationen um die Leistungsfähigkeit, von einer überragenden Leistung war allerdings nie wirklich die Rede. Meist hieß es lediglich „auf dem Niveau aktueller Grafikkarten“ und selbst dies wäre in Anbetracht des sich mehr und mehr verschiebenden Erscheinungstermins schlecht. Denn selbst was heute noch auf dem Niveau aktueller Grafikkarten (GTX 260 bis GTX 280, HD 4800-Serie) ist, wird mit der nächsten Generation das untere Ende der Mittelklasse sein. Und auch wenn der Larrabee doch noch Anfang 2010 erscheinen würde, dürften AMDs und Nvidias Next-Gen-GPUs keine neun bis zwölf Monate mehr auf sich warten lassen. Die Lage hört sich aussichtslos an, aber warum?

Schlussendlich gehört zu Intels Problemen weder Geld noch Know-How. Beides hat man mehr oder minder ausreichend zur Verfügung. Ersteres für die Entwicklung, Spieleentwickler, Kaufanreize durch geringe Preise usw. und letzteres für die Entwicklung eines leistungsfähigen Grafikchips. Allerdings ist wie beim Itanium das Fixieren auf gewisse Kernaspekte ein Problem, die anscheinend bewirken, am Markt vorbeizuentwickeln.

Denn trotz eines – wie schon beim Itanium zu bewundernden – Transistorenberges aus Silizium wird man es schwer haben, an die Leistung einer aktuellen Grafikkarte heranzureichen, solange es um herkömmliche Berechnungen geht. Diese verlangen genau diese Genauigkeit der Berechnung nicht, die Intel mit Larrabee bietet. GPUs sind im Verhältnis zu CPUs relativ „dumm“. Sie können nicht vieles, aber was sie tun, überragend schnell. Fixed-Function-Units wie TMUs und ROPs sind alle so speziell in ihrer Art, dass sie kaum für anderweitige Berechnungen als Grafik zu gebrauchen sind. Die Shader bilden hier zwar eine Ausnahme, weil sie theoretisch frei programmierbar sind, in der Praxis ist die Programmierbarkeit dennoch eingeschränkt, da sie mitten in der Renderingpipeline sitzen.

Zwar ist es Intel dank des flexiblen Designs möglich, via Treiber sehr viel Performance aus Larrabee zu holen - auch hat man einige Optimierungen für den Grafikbereich vorgenommen (u.a. TMUs verbaut), mehr dazu im Technik-Artikel Larrabees -, umgekehrt ist man aber auch geradezu verdammt, stets sehr gute Treiberarbeit abzuliefern, was viele ob der desaströsen Treiber für die IGP-Lösungen zumindest einmal in Frage stellen. Mut sollte machen, dass für die Treiberentwicklung Larrabees ein anderes Team aufgestellt ist. ;-)
Daneben könnte es Larrabee schlichtweg auch an Rohleistung fehlen. Die Shaderleistung sollte hier weniger ein Problem darstellen, weil jeder Kern über eine 16-wide SIMD-Einheit verfügen wird, ebenso kann man einigermaßen besonnen der erwarteten Texturleistung gegenübersehen, aber beispielsweise könnten sich akute Schwächen bei der Rasterization-Performance offenbaren, weil Intel eben hier keine Fixed-Function-Units bereitstellt.

Dazu kommt das Problem, dass entsprechend viele Transistoren auf der entsprechenden Fläche auch einen enormen Stromverbrauch und so auch hohe Wärmeentwicklung bedeuten. Einen Fakt, den AMD beispielsweise bei seinen 140 Watt-TDP-Prozessoren zu spüren bekam. Die Kritik sowie Verkaufszahlen sind meist schlechter.
Insbesondere deswegen war Intel auch mehrmals dazu gezwungen, neue Revisionen seines Chips aufzusetzen. Die gewünschte Performance konnte bislang nur mit einer extrem hohen Leistungsaufnahme bewerkstelligt werden - man munkelt, dass ein Larrabee-Kern zurzeit etwa 20 Watt benötigt.

Perspektive

Ja, diese gibt es durchaus, aber wahrscheinlich weniger in Intels Sinne. Den Weg, den man aktuell mit der Brechstange probiert, wird mit großer Wahrscheinlichkeit so nicht funktionieren. Der Markt wird sich wie immer langsam entwickeln und mit DirectX 11 und Compute-Shadern ist bereits ein weiterer Schritt getan, dass auch heutige GPUs für Raytracing eingesetzt werden können. So behalten die GPUs einen Großteil ihrer Leistungsfähigkeit, sind aber auch für anderweitige Zwecke nutzbar.

Auch in den nächsten Jahren werden Spiele wohl meist noch auf herkömmliche Grafikberechnung beruhen, die von aktuellen und wohl auch zukünftigen Grafikkarten sehr effizient und schnell berechnet werden kann. Vorstellbar ist für die Zukunft eher eine Kombination von Raytracing- und Rasterization-Grafik – eine Kombination, die wir im Bereich PC-Spiele wohl am ehesten für die nächsten Jahre erwarten dürfen. Damit ließen sich beispielsweise komplexe Spiegelungen via Raytracing berechnen, der restliche Teil des Bildes könnte allerdings weiterhin wesentlich performanter mit herkömmlichen Methoden berechnet werden.

So sollte Intel eher probieren, im Bereich Grafik auch darauf zu achten, möglichst nativ herkömmliche Grafik berechnen zu können und nicht via Treiber für jede Engine anfangen, ein durchaus leistungsfähiges Design auf gewisse Funktionen beschränken zu müssen. Denn nichts anderes passiert, wenn simple Rasterization-Grafik auf komplexeren, x86-kompatiblen CPU-Kernen ausgeführt wird.

Im Bereich HPC könnte für das aktuelle Larrabee-Design eher eine Chance liegen – allerdings ist die Konkurrenz hier bedeutend vielfältiger als auf dem doch sehr beschränkten x86-Markt. So wird man hier zeigen müssen, wie gut ein x86-Design für HPC-Anwendungen zu gebrauchen ist – und das möglichst energieeffizent.

Nichts desto trotz werden wir uns wohl oder übel überraschen lassen müssen, was Intel bis zur Veröffentlichung alles optimieren kann. Unter Umständen erlebt der Markt auch eine positive Überraschung – zu wünschen wäre ein konkurrenzfähiger, dritter Player im Grafikkartenmarkt auf jeden Fall.

Kommentar schreiben

  • Loggen Sie sich oben mit ihren Benutzerdaten ein, um Kommentare zu verfassen.
  • Falls Sie noch kein Mitglied sind, können Sie sich in unserem Forum registrieren.

7 Kommentare

7.) Duplex 03.09.2009 - 13:19 Uhr
ist es eigentlich möglich mit einer reinen X64 CPU z.b auf Windows server 2008 x64 , mit dem WOW64 mode 32bit anwendungen zu "emulieren" ?

oder können 64bit cpus ausschliesslich 64bit sachen ?
6.) f1delity 02.09.2009 - 15:14 Uhr
Sehe das Thema Larrabee eher wie Phenocore, erst eine relativ gute Marktdurchdringung schaffen und dann zum Raytracing übergehen, was allerdings voraussetzt das der Larrabee auch in Rasterisierung mindenste eine mittelmäßige Performance erzielen muss.

Vllt. lieg ich ja auch komplett falsch und dann Dx11 wird Larrabee später halt viel für Berechnung und nicht für Grafik benutzt, wir werden sehen.
5.) Undergroundking 02.09.2009 - 10:07 Uhr
schön geschrieben und bestätigt meine meinung. larrabee wird ein supergau für intel.
4.) N1truX 02.09.2009 - 07:05 Uhr
Phenocore:
Der Vorschlag herkömmliche Rasterisierungsverfahren und Raytracing für Effekte in einer Engine zu kombinieren wird, wenn es den technisch umsetzbar wäre/ist, allein schon daran scheitern, dass dafür die Softwareprogramierer einen noch höheren Aufwand betreiben müssen. Da wäre es vielleicht gar billiger zwei komplett verschiedene Renderpfade zu schreiben.

Es wurde auch schonmal von Entwicklern angesprochen das man unter Umständen auch darüber nachdenkt die beiden verfahren zu kombinieren. Sind ja nicht alle so stur wie Tim Sweeney ;)
Quote:
PS: Dieser Beitrag kann als Ergänzung zur Kolumne angesehen werden. Ich hoffe mit einer zweiten Meinung hier einfach mehr Kontraste in die Betrachtung des Themas zu bringen.
Ja das bringt er sicherlich. Nur glaube ich gehört es irgendwie zu einer Kolumne (auch wenn die oben und auch deine von der Länge nicht passen^^) ein Thema von einer Seite zu beleuchten.
Finde das Thema an sich aber auch spannend.
3.) Phenocore 01.09.2009 - 22:01 Uhr
Die Zukunft der 3D-Anwendungen ist ein spannendes Thema.
Neue Wege zu gehen war natürlich nie einfach und mit einem gewissen Risiko verbunden. Schon damals hat nVidia z.B auch T&L eingeführt und musste erst die Fachpresse und Publisher von den Vorteilen überzeugen... Ein Sprung in der Entwicklung, der damals gelungen ist. Intel will mit Larrabee nicht einfach nur einen Sprung machen, sondern gleich auf eine andere Parallelstraße wechseln.

Natürlich kann und muss man die Performance betrachten. Doch Performance ist nicht alles. Schon jetzt fragen sich viele Konsumenten, wozu sie eine High-End-Karte kaufen sollen, wenn eine Midrange-Karte das meiste auch schafft. Schon jetzt fragen sich Entwickler wie sie ihren Spielen mehr Individualität geben können. So setzen inzwischen auch viele auf PhysX um die Spiele lebendiger aussehen zu lassen und PhysX wird aktuell nur von nVidias DX10 Grafikkarten unterstützt. Der Grafikkartenmarkt ist im Gegensatz zum CPU-Markt extrem schnelllebig, so dass man hier auch schneller neue Ideen durchsetzen kann. Larrabee muss also nur zwei Generationen mittelmäßig bei konventionell gerenderten Spielen durchhalten um eine gewisse Marktdurchdringung zu erreichen. Danach muss Intel nur noch Entwickler und vor allem Publisher von Raytracing überzeugen. Viele Effekte lassen sich mit Raytracing leicht und schnell umsetzen, im Gegenzug müssen sich Softwareentwickler nur auf das neue Verfahren umstellen.

Der Vorschlag herkömmliche Rasterisierungsverfahren und Raytracing für Effekte in einer Engine zu kombinieren wird, wenn es den technisch umsetzbar wäre/ist, allein schon daran scheitern, dass dafür die Softwareprogramierer einen noch höheren Aufwand betreiben müssen. Da wäre es vielleicht gar billiger zwei komplett verschiedene Renderpfade zu schreiben.

Entscheidend für den Erfolg von Larrabee ist nicht nur die Performance. Entscheidend ist vor allem wie gut Raytracing von Entwicklern und Konsumenten in Zukunft angenommen wird. Wenn die Bewegung stark sein wird und Raytracing auch tatsächlich überzeugt, werden auch andere GPU-Hersteller dazu gezwungen ihre Architektur weniger Richtung Rasterisation zu optimieren und mehr Richtung Raytracing, so dass sich Larrabes Rückstand in der klassischen Renderingmethode verkleinern wird.

Eine Perspektive zu geben ist schwierig, hängt die doch von vielen Faktoren ab und es gilt diese zu begutachten und muss am Ende sich auch noch von Variablen überraschen lassen, die man gar nicht bedacht hat. Viele Publisher sehen Performance nicht als oberstes Ziel an und wünschen sich einfach nur mehr Freiraum für individuelle Spiele. Viele Konsumenten sehen kaum einen Unterschied zwischen 4xAA und 8xAA und wollen etwas anderes. Es gibt also durchaus Impulse, die Larrabee nutzen könnte, so dass ich die Sache doch etwas positiver für Larrabee sehe.

PS: Dieser Beitrag kann als Ergänzung zur Kolumne angesehen werden. Ich hoffe mit einer zweiten Meinung hier einfach mehr Kontraste in die Betrachtung des Themas zu bringen.
2.) VinD 01.09.2009 - 21:16 Uhr
@Luk Luk: Maya; Cinema4D usw. ;D ... oder meintest du in echtzeit?
In Echtzeit gab es mal eine Demo, deren Namen ich leider nichtmehr kenne. War eine Art Bench.
1.) Luk Luk 01.09.2009 - 17:31 Uhr
Sehr interessanter Artikel, das Lesen macht Spaß!

Ich bin sehr gespannt auf den Larrabee......

Kleine Off-Topic-Frage:

Gibt es ein Programm, mit dem man Raytracing-Szenen selbst rendern kann? Bzw. einfach ein Prorgamm wo Raytracing-Szenen berechnet werden.......fänd ich interessant :D