Tim Sweeney über Ende der GPU

GrafikkartenUnter der Überschrift The End Of The GPU hat Tim Sweeney, Epic-Programmierchef, im Rahmen der High Performance Graphics 2009 einen Vortrag über die Zukunft der Grafik gehalten.

Wie bereits die markante Überschrift hervorhebt, glaubt Sweeney mittelfristig an das Ende der klassischen GPU. Überspitzt ausgesprochen soll die Grafikkarte der Zukunft nur noch aus einem Display-Anschluss und purer Rechenleistung bestehen, wobei er Textureinheiten und Rasterizer ebenfalls noch für mögliche Hardwareelemente hält - dieser Ansatz ähnelt stark Intels Larrabee-Konzept, das weitgehend auch alles in Software berechnet und so genannte Fixed-Function-Units offenbar nur noch für Texturfilterung sowie Decodieren bereithält.

Sweeney moniert die klassische DirectX- und OpenGL-Grafikumgebung, beklagt die steigenden Anforderungen, die insbesondere durch Multi-Core-Prozessoren verursacht worden wären und die damit verbundene, längere Entwicklungszeit. Er wünscht sich allgemein ausführbaren Programmcode wie unter C++, der nicht nur auf CPUs inklusive Larrabee, sondern auch Nvidia-GPUs mittels CUDA lauffähig wäre - ATIs Stream bietet bereits ähnliche Ansätze.

Tim Sweeneys "The End Of the GPU"-Präsentation (6 Bilder)
Tim Sweeneys

Ein weiteres Schlagwort seiner Präsentation ist damit auch Software-Rendering. Dazu beruft er sich auf die Ende der Neunziger präsentierte Unreal 1-Engine. Damals habe man es auf einem Pentium mit 60 MHz bei 320x200 Pixeln und 30 Hertz auf 16 Operationen pro Pixel gebracht, 2012 seien bei 1920x1080 Pixeln und 60 Hertz 16.000 Operationen pro Pixel möglich. Dazu spekuliert er mit 4 Gigaflops Rechenleistung, die für AMDs und Nvidias übernächste Grafikgeneration nicht unrealistisch erscheinen.
Die Vorteile sind für ihn nicht nur eine flexiblere Programmierung, auch die Bildqualität hat er hier im Blick und spricht sich beispielsweise vehement gegen das klassische MSAA aus. Analytisches FSAA sei besser als 1024x MSAA.

Die neuen Grafikkarten beziehungsweise Prozessoren sollen laut Sweeney so einfach gestrickt sein, dass sie nur noch zwischen zwei Arten von Code unterscheiden können: Skalaren und Vektorisierten. Die Rechenleistung soll sich dann aus der Anzahl der Kerne, der Taktrate und der Breite der Vektoreinheiten ableiten.
Sweeney schätzt, dass die Rechenleistung von 2012 (4 Teraflops) bis 2020 um bis zu Faktor 1024 steigen kann. Generiert werden soll die neue Leistung nicht nur durch Multithreading, sondern auch Vektorisierung. Raytracing ist dann auch hier wieder ein Begriff.


Kommentar schreiben

  • Loggen Sie sich oben mit ihren Benutzerdaten ein, um Kommentare zu verfassen.
  • Falls Sie noch kein Mitglied sind, können Sie sich in unserem Forum registrieren.

4 Kommentare

4.) Phenocore 24.08.2009 - 00:33 Uhr
Ich dachte, ich würde hier eine Intel-Präsentation sehen, die Larrabee anpreisen soll. Vieles, was der Typ haben will, soll Larrabee bringen. Sogar solche Details wie Cache Coherenz, die Larabee bringen soll, will er standardmäßig haben.
3.) Duplex 18.08.2009 - 14:41 Uhr
wie sagte mein meister immer, wer sich beklagt der kanns nicht......

wen ich mir so anseh wie man früher bei besserer grafik noch mehr performance finden konnte da sieht man wie faul oder untalentiert die leute sind , früher hat man sich den umständen angepasst, nun müssen sich hardware an den leuten anpassen...
2.) eXEC 17.08.2009 - 23:26 Uhr
Ich weiß noch als die 7800 GTX erschien und alles bisher dagewesene in den Schatten stellte. Oder der FX-60 CPU, der damals Verglichen das komplette Prozessorfeld einfach nur Pwnte... Jetzt ist ein PC mit ner FX-60 CPU und ner 7800 GTX so schnell wie ein gängiges Notebook im Mittelklassesegment...
1.) Spider 17.08.2009 - 20:33 Uhr
Mann das wäre ja schon echt der HAMMMMER!!!
Wie schnell doch die Zeit vergeht.... ;)