Pat Gelsinger verlässt Intel wegen Larrabee

IntelVor wenigen Tagen sickerte durch, dass Pat Gelsinger Intel in nächster Zeit verlassen würde. Die sich rasant verbreitete Meldung ließ die Beweggründe allerdings offen.
Pat Gelsinger war über 30 Jahre bei Intel angestellt und hatte gute Aussichten, Paul Otellini als CEO zu beerben.

Wie jetzt die Kollegen von Bright Side Of News berichten, soll hinter dem Weggang Gelsingers das von Fehlern überhäufte Larrabee-Projekt stehen. Übereinstimmend wird gemeldet, dass Larrabee Gelsingers Baby wie einst die Netburst- oder Core-Mikroarchitektur im CPU-Desktop-Segment war.

Besonders verärgert soll Intel darüber sein, dass Gelsinger schon vor Monaten durch provokante Äußerungen mit Nvidia in direkte Konkurrenz gezogen sei, ohne je etwas vorzeigbares aufbieten zu können. Nach letzten Gerüchten mussten für den ersten, verkaufsfertigen Larrabee bereits vier Chips herhalten und es soll bereits sieben verschiedene Steppings gegeben haben. Frühestens ist wohl Ende nächsten Jahres mit ersten Larrabee-Karten zu rechnen.

Wie im Netz zu lesen ist, wird Intel das Projekt Larrabee trotz aller Widrigkeiten mit dem Weggang Gelsingers aber nicht an den Nagel hängen. Es sollen weiter Millionen fließen, um endlich einen lauffähigen Chip präsentieren zu können. Als nicht unwahrscheinlich gilt dabei, dass dieser kaum die Performance aktueller High-End-Grafikkarten übertreffen wird, was angesichts seines verspäteten Erscheinens nichts gutes heißen kann.

Ein Schelm, wer hierbei böses denkt, aber Gelsinger wird weiter in Santa Clara arbeiten, ja sogar weiter am Mission College Blvd. Nur heißt sein Arbeitgeber nicht mehr Intel, sondern EMC.


Kommentar schreiben

  • Loggen Sie sich oben mit ihren Benutzerdaten ein, um Kommentare zu verfassen.
  • Falls Sie noch kein Mitglied sind, können Sie sich in unserem Forum registrieren.

12 Kommentare

12.) SirGollum 21.09.2009 - 17:24 Uhr
Alles klar dann weiß ich bescheid , danke ;)
11.) Duplex 21.09.2009 - 17:09 Uhr
es war die rede davon

von Fanboys , ausn ATI Forum

das sind nur möchtegern geschichten die sich mit aktuellen GPUs nicht durchsetzen lassen


unter anderen sollte der RV800 bereits dieser "dualcore" sein , das wird bei jeder geschichte hochgepuscht dabei wissen alle das es nicht lohnend ist
10.) SirGollum 21.09.2009 - 15:56 Uhr
Deswegen habe ich ja aus Spass geschrieben das Intel S3 kauft um dann S3 hochzupushen ;) aber wie gesagt das war alles nur Spass ;) aber nun schluss damit und b2t ;)

@nitrux
es war aber doch mal die rede davon das es auch bald "dualcore gpu`s" geben soll?! Ich denke zu mindest das ich sowas einmal gehört habe. Ich weiß schon das man das mit CPU`s nicht vergleichen kann aber war da nicht bei ATi mal die Rede davon?
9.) Duplex 21.09.2009 - 15:52 Uhr
leider hat VIA keine interesse an sowas , da ihnen schlicht das flüssige fehlt um ganz oben mitzumischen

meinermeinung nach würde es zwar gehn auf mittelklasse segment hochzudringen und dadurch kohle zu erwirtschaften , jedoch scheint VIA eine andere strategie zu haben
8.) N1truX 21.09.2009 - 14:48 Uhr
Duplex:
nitrux was verstehst du unter DualGPU ?

Was man heute eben unter DUalGPU versteht. 2 GPUs - Also eine GTX-295 oder eine HD38x0/HD48x0 X2.
7.) SirGollum 21.09.2009 - 14:20 Uhr
Oha na dann bin ich ja mal sehr gespannt was daraus wird. Intel wird es auch keines wegs fallen lassen, dafür hat Intel schon zuviel Geld investiert. Aber wer weiß vll wird es ja doch ein "Überchip" wir werden sehen was Intel da aus dem Hut zaubert! Spass:"Wenn nicht wird mal schnell S3 von Via gekauft und diese Produkte hoch gepushed" ;)
6.) Duplex 21.09.2009 - 13:12 Uhr
nitrux was verstehst du unter DualGPU ?

so wie das heute praktiziert wird oder ehr sowas wie "dualcore CPU" ?


ich denke jedenfals nicht das Larrabee 250W verbläst ?
5.) N1truX 21.09.2009 - 07:27 Uhr
Naja selbst im Server-Bereich ist x86 Kompatibilität kein muss und reine Transistorenverschwendung und die GFLOP-Leistung kann wenn überhaupt im DP mithalten. Im SP geht man aktuell von 1+ TFOP/s aus, wenn der Larrabee nächstes Jahr kommt wäre man in Konkurrenz mit der übernächsten AMD und Nvidia Generation, die als DualGPU-Version auch in etwa die TDP eines Larrabee erreichen sollten. Und da können wir beim aktuellen Wachstum (~ Faktor 2.5/Generation) von etwa 10-14 TFOP/s ausgehen.
Und selbst im DP sollte man dann fast 2 TFOP/s bei einer Dual-GPU erreichen. Intel wollte damit vor fast einem Jahr fertig werden und da wäre das noch gegangen von der Leistung, aber nach 2 Jahren Verspätung müsste man etwa die 6-fache Leistung erbringen..
4.) Duplex 21.09.2009 - 06:58 Uhr
naja wen man alleine die G-flopleistung vergleicht könnte larrabee ne chance haben , jedoch werden die mit massiven treiber bugs zu kämpfen haben da man quasi statt ein treiber ein "emulationsprogramm" laufen hat , was wohl 1. leistung kostet 2. net gerade die schnellste ist


im serverbereich oder wissenschaft mag das nützlich sein aber fürn gamer markt ist eine karte mit einen 600<mm² einfach zu gross , zu teuer , zuviel ...
3.) eXEC 21.09.2009 - 01:47 Uhr
Naja, Larrabee ist imo ein ziemlich fehlgeschlagenes Projekt. Ich bin der Meinung Intel hällt daran fest, weil man evtl. Möglichkeiten sieht, diese als "Co-Prozessor" im Serverbereich für HighPerformance-Anwendungen absetzen zu können.
Als Grafikkarte für den normalen User ist das ein Ding der Unmöglichkeit. Wie soll das funktionieren? Ihnen steht die etwa selbe Anzahl an Die-Fläche zur Verfügung (Alles überhalb eines "GT300" dürfte den Stromverbrauch, Kosten und Ausfallrate der Chips ins unermessliche treiben und Intel hat auch keine kleinere Fertigungstechnik als TSMC)
Anstatt allerdings speziell angepasste Teileinheiten zu verwenden, werden viele nicht optimierte x86-Kerne verwendet, die via Software die Aufgaben der Spezialhardware übernehmen sollen. Das kann gar nicht funktionieren, weil allein durch die x86-Architektur viel Transistoren für "nichts" drauf gehen. Während die Konkurrenz diese Transistoren für weitere SPUs, ROPs o.ä. nutzen können, sind sie beim Larrabee für eine x86-Kompatibilität verbraucht. Während bei der Konkurrenz quasi jeder Transistor hochoptimiert für die Aufgaben eines Pixelbeschleunigers entwickelt wurde, verwendet man bei Intel Standardkost.
Auch Nvidia hat mit dem GT200 den Fehler gemacht, viel zu viele Transistoren für CUDA und irgendwelche GPGPU-Sachen zu verschwenden. Ein weiterer "Shadercluster" wäre angebrachter gewesen, mit 270 SPUs, 90 TMUs etc wäre man deutlich besser gegen die Konkurrenz aufgestellt gewesen. Alternativ hätte man auch einfach die Chipfläche einsparen können, um Geld zu sparen

Meine Prognose: Bei gleicher Fertigungstechnik wird Larrabee trotz größerer Die-Fläche den HighEnd-Single-GPUs von ATI und Nvidia um 1/3 (=33,3%) in der Leistung unterlegen sein UND dazu noch massive Treiberprobleme aufweißen.
2.) Phenocore 21.09.2009 - 01:23 Uhr
Nvidias Hauptquartier ist halt einfach zu weit weg :-D

Übrigens war mein erster Gedanke bei Pats Ausscheiden aus dem Unternehmen auch, dass vielleicht Pat wegen Larrabee gehen musste, wofür ich aber keine Quellen finden konnte. BSN scheint aber ebenfalls keine Quellen zu haben, aber gut, wenigstens war ich nicht allein mit dem Gedanken...
1.) eXEC 21.09.2009 - 01:17 Uhr
Ich hätte es lustig gefunden, wenn Nvidia sein neuer Arbeitgeber gewesen wäre :D