Intel "Larrabee" kleckert nicht, sondern klotzt

IntelIntels Senior Vize-Präsident und gleichzeitig Manager, Pat Gelsinger, ließ es sich - wie erwartet - nicht nehmen, die Eröffnungsrede auf dem dieser Tage in Shanghai anlaufenden Intel Developer Forum Spring 2008 zu halten. Im Interesse der Medien stand neben dem Intel Atom, den man mit Taktraten von bis zu 1,86 GHz vorführte, Intels Nehalem sowie allen voran "Larrabee", das lange Zeit geheim gehaltene Grafikprojekt, mit dem man im kommenden Jahr zum Großangriff auf AMD und Nvidia blasen möchte.

Gelsinger erklärte, dass es sich bei "Larrabee" um einen Multifunktionschip handelt, der eine Vielzahl von Kernen besitzt sowie darüber hinaus einen gemeinsamen Cache. Der Aufbau dieses Chips ähnelt also mehr einer CPU- statt einer GPU-Architektur, die Gelsinger auch öffentlich abwatschte. "Die heutigen Grafikchip-Architekturen gehen ihrem Ende zu", wurde er deutlich. Weiter ergänzte er, dass diese einfach nicht genügend skalierbar wären und somit für zukünftige Bedürfnisse ungeeignet. Auf wessen Entwicklung der Intel-Macher schielt, ist offensichtlich: Raytracing heißt für ihn das Zauberwort.

Intel "Larrabee": Neue Grafikkartenarchitektur

So ließ es sich Herr Pat Gelsinger auch nicht nehmen, erneut das Quake 4 Raytracing-Projekt, das vom ehemals deutschen Studenten Daniel Pohl entwickelt wurde, vorzuführen. Das allgemeine Interesse an Raytracing und damit auch auf "Larrabee" ist nach seinen Angaben riesig. Er betont, dass er in seiner nunmehr 30-jährigen IT-Karriere noch nie so viel Interesse um dieses eine Projekt seitens der Software-Entwickler erfahren hätte. Intel verspricht Programmierern, sich künftig nicht mehr mit hardwareseitigen Beschränkungen rumärgern zu müssen. Man könnte sich wieder vollständig auf Inhalte konzentrieren, so die vollmundigen Versprechungen.

Bezüglich der realen Leistung des kommenden "Larrabee" Chips hielt man sich wieder betont zurück. Gelsinger verriet lediglich, dass die Architektur auf einer sehr kurzen Pipeline basiert, schnell zum internen Cache sowie Hauptspeicher angebunden wäre und darüber einige TeraFLOPS an Leistung aufbringen könne. Ob man im Verlauf des mehrtägigen Forums noch etwas konkreter wird, lässt sich derweil schwer einschätzen. Die ein oder andere "Larrabee"-Neuigkeit wird aber schon noch erwartet. Wir werden Sie selbstverständlich auf dem Laufenden halten.


Kommentar schreiben

  • Loggen Sie sich oben mit ihren Benutzerdaten ein, um Kommentare zu verfassen.
  • Falls Sie noch kein Mitglied sind, können Sie sich in unserem Forum registrieren.

6 Kommentare

6.) NoName 04.04.2008 - 15:52 Uhr
für die die es interesiert : http://www.gamestar.de/hardware/news/gr ... intel.html
5.) NoName 02.04.2008 - 17:15 Uhr
larabee ist nicht auf raytracing ausgelegt,der chip ist auf simultane berechnungen ausgelegt. zum bsp. bei spielen wo man mehrere sachen auf einmal berechnen muss,oder bei irgendwelchen berechnungen. der chip ist auch nicht explizit auf grafik ausgelegt,sondern schlicht auf simultane anwendungen / threads.man kann damit nicht nur spiele darstellen,sondern auch wissenschaftliche simulationen durchführen.und da der chip auf x86 basis aufgebaut ist kann man ihn genau wie eine cpu programmieren (theoretisch ;) ).

raytracing in spielen ist eher ein mitläufer. raytracing wird sich erst in der filmindustrie breit machen,dann für diverse simulationen wo es auf hohe präzision ankommt (bsp.: boeing wollte eins für ihr flugzeug ;) ).
raytracing in spielen hat sich heutzutage eigtl. nnur noch nicht durchgesetzt,weil es zuviel performance braucht. heutige grafikkarten würden bei gleicher bildqualität hoffnungslos einbrechen.aber irgendwann wird man nach heutigen programmiermethoden die grafik nicht mehr verbessern können,und dann wirds raytracing übernehmen.
raytracing skaliert sehr gut mit vielen kernen,d.h. bei doppelt so vielen kernen wird auch (fast) doppelt so schnell gerendert.von daher ist larrabee ein "mehrkernchip". was hat das jetzt mit raytracing zu tun? ganz einfach: bei raytracing (übersetzt euch mal den namen ;) ). werden vom virtuellen standpunkte strahlen ausgesendet.wenn sie auf ein objekt treffen werden sie abgelenkt bzw. geändert (bei einem spigel gespiegelt,bei nem objekt wird die farbe geändert und hinter dem objekt ein schatten erzeugt usw usw....). bei einer auflösung von 1280x1024 sind es mindestens 1280x1024 strahlen. logisch,je mehr parallel abgearbeitet werden kann umso schneller gehts,wenn jeder strahl nach der reihe berechnet wird dauerts halt ewigkeiten.

raytracing an sich ist nicht immer komplizierter zu programmieren,es erleichter auch zahlreiche sachen (spiegelungen bspw. werden viel einfacher als bisher).
bsp.: vllt. kennt jemand die geschichte des spiels "Prey": es sollte schon vor über 10 jahren rauskommen,wurde aber wegen technischen schwierigkeiten (portale) eingestellt. mit raytracing wären die probleme erst gar nicht aufgetreten ;)

imho ziemlich interessant:
Quote:
Was an Larrabee so toll sein soll, verriet Gelsinger auch auf hartnäckiges Nachfragen nicht - dass man das Konzept auch als Grafikbeschleuniger nutzen könnte, wollte er ebenfalls nicht bestätigen. Dafür verriet er, dass es sich um einen Many-Core-Prozessor handelt, für den Polaris die Vorarbeit geleistet hat - inbesondere, was die Kommunikation der Kerne untereinander betrifft. Gegenüber anderen Beschleunigern, so Gelsinger weiter, ist Larrabee aber mit x86-Code zu programmieren - und den dafür vielfältig verfügbaren Werkzeugen.
4.) touly 02.04.2008 - 16:41 Uhr
ich frage mich wenn intels larrabee auf raytracing ausgelegt ist dann wird das teil ja total versagen oder nicht?

Und wird später wenn sich raytracing durchsetzt auf eienr dafür optimierten karte auch ältere spiele laufen?
3.) Phenocore 02.04.2008 - 16:27 Uhr
Die Architektur im GPU-Segment ist bereits sehr viel höher parallelisiert als im CPU-Segment, was auch einer der Gründe für die relativ hohen GFlops-Angaben ist.

8800 GTX: 8 Schadercluster mit 128 Streamprozessoren. Wie viele Cores willst du den noch?

GX2- und X2-Versionen ist was ganz anderes. Wenn man das mit einem CPU-System vergleichen würde, wäre das eher so was wie ein Multisockelsystem.

In dieser Meldung geht es auch um was ganz anderes.
2.) eXEC 02.04.2008 - 16:18 Uhr
Ich fände es spitzenmäßig, wenn Intel am Grafikkartenmarkt mal ordentlich auf den Putz haut! Dieses Geschnarche, wie es aktuell stattfindet und vor allem wie ich finde skandalöse Nutzung von Multicore ist lächerlich. Ein ECHTER Dualcore (2 Dies auf 1 Chip!) wäre LÄNGST überfällig! DANN würden auch die Games diese Technik unterstützen und DANN wäre auch ein Performancesprung von bis zu 99% möglich, wie es bei einer gut optimierten Dualcoreanwendung im vergleich zu singlecore auch ist!
Die Zeit der Singlecore's ist vorbei! Aber das was momentan als X2 und noch heftiger als GX2 (auf 2 PCB's! LÄCHERLICH!) angepriesen wird ist einfach nur witzlos!
1.) Vulture 02.04.2008 - 15:46 Uhr
Ich habe vor kurzem etwas über Raytracing bei 3dcenter.de gelesen. Dort war der Grundtenor eher, dass es mindestens 5 Jahre, wohl eher sogar 10, dauern wird bis sich Raytracing bei Spielen durchsetzt. Das ist insofern nachvollziehbar, da es sich bei Raytracing um eine Methode zur Errechnung eines 3D-Bildes handelt die sich von der aktuellen völlig unterscheidet. Spiele müssten auf völlig andere Art und Weise programmiert werden. Es wäre die größte Veränderung seit der Einführung der Polygone.
Daher denke ich, dass wenn Larrabee wirklich 2009/2010 erscheint und konsequent auf Raytracing ausgelegt ist, Intel etwas zu früh drann ist und vorerst keine Chance gegen die Alteingessenen AMD und Nvidia haben wird. Erst wenn eben diese beiden mitziehen könnte es interessant werden.