Nvidia PhysX war, ist und wird

KOLUMNE » Weiterempfehlen

Nvidia PhysX war, ist und wirdWir schrieben das Jahr 2006, als eine diskrete Physik-Karte angekündigt und veröffentlicht wurde - die Rede ist von Ageias PhysX-Beschleuniger. Seinerzeit hießen die Duelle im Grafikkartenrummel noch Geforce 7 versus Radeon X1000. Dementsprechend waren auch DirectX 10 und GPGPU (noch) Fremdworte.
Physik - was ist das überhaupt? Texturen braucht ein Spiel, ja, vielleicht noch Shader, aber jetzt auch noch Physik? Eine weitere Steckkarte mehr im Pflichtenheft bei der Neuanschaffung eines PCs? Bisher hatte das doch alles der Hauptprozessor quiekfidel geregelt.

Die Neugier bei der Präsentation der Ageia-PhysX-Karte war groß - zu groß? Mit weniger als einer handvoll Spielen zweiter Klasse versuchte das Startup-Unternehmen zu locken. Klar, dass man binnen weniger Monate nicht die gesamte Spielelandschaft hinter sich ziehen konnte - eigentlich klar, für den ATI- oder Nvidia-verwöhnten Nutzer allerdings nicht.

Doch wenn dies das einzige Problem geblieben wäre! Die auf den Bildschirm projetierten Physik-Effekte dieser optisch mickrig wirkenden Grafikkarte waren ja wirklich schön anzusehen, aber für ein unbeschriebenes Blatt, bei dem man nicht weiß, ob es in zwei Jahren überhaupt beschrieben ist, sind 300 Euro ein ganz schönes Sümmchen, das - zumindest aus dem Blickwinkel des seinerzeit gebildeten Hardware-Lesers - besser in eine neue Grafikkarte investiert werden wollte. Nvidia lieferte mit der ebenfalls in 2006 präsentierten Geforce 8 besonders starke Argumente - die Ironie des Schicksals.

Und so verlief Ageias PhysX-Karte mehr oder minder im Sande. Man lockte zwar mit Gratis-Games und Preissenkungen, die Presse hatte die Karte jedoch schon dermaßen verhöhnt, dass solcherlei Meldungen sehr gerne einfach untergingen und keinesfalls mehr das beim Leser fest einverbrannte Bild einer bösen, bösen Steckkarte löschen konnte.
Kurioserweise musste Intel erst Havok, ebenfalls ein Unternehmen, welches eine Physik-Engine entwickelte, aufkaufen, damit Ageia wieder zurück in die Schlagzeilen fand. Das war inzwischen Mitte 2007.
Doch Ageia wusste dann weniger durch ein jetzt gutes Produktlineup zu glänzen - die schleppenden Abverkäufe ließen eine Weiterentwicklung auf Software- sowie Hardwareebene schlichtweg nicht zu - als vielmehr durch Übernahmegerüchte. Wer bietet mehr?

Das Ende vom Lied ist bekannt. Im Februar dieses Jahres kaufte Nvidia Ageia inklusive der Rechte an der PhysX-Engine auf. Binnen zwei Wochen verkündete man, die Technologie künftig mittels CUDA, der eigenen, in C-geschriebenen Programmierumgebung für GPGPU-Anwendungen - Aufgaben eines Pixelbeschleunigers, die über die Spieleinszenierung hinausgehen - auf die Geforce 8- und 9-Produkte zu portieren.
Den Versprechungen folgten dann im Juni Taten, als der Geforce-177.39-Treiber von der Nvidia-Präsenz zu beziehen war.

Natürlich war es kein Zufall, dass im selben Zeitraum auch eine neue Nvidia-Grafikkartengeneration sich ihren Weg bahnte. Gemeint ist der Nvidia-GT200-Chip aka Geforce GTX 200.
Der Chip wurde unter besonderer Berücksichtigung auf GPGPU entwickelt. Die extra eingepflanzten Double-Precision-Einheiten sind nur eine von vielen Schmankerl, mit denen Nvidia das Transistorbudget seines Chips anhob, ohne die eigentliche Spieleleistung zu erhöhen. Dies endete bekanntermaßen darin, dass Konkurrent AMD mit einer deutlich kostengünstigeren Grafiklösung in modernen 3D-Spielen ein fürs andere Mal Nvidia gefährlich nahe kam und schließlich mit einer Dual-Grafikkarte die Show vorerst zu seinen Gunsten diktierte.

Bereits beim Fazit des GT200-Launchartikels hielten wir fest, dass GPGPU, und hier war insbesondere PhysX gemeint, für Nvidia funktionieren müsse, um den Chip ins rechte Licht zu rücken.
Und unsere Worte wurden offenbar erhört. Innerhalb dieser kurzen Periode - seither sind fünf Monate durchs Land gezogen - hat Nvidia es tatsächlich geschafft, PhysX zum Topthema zu machen. Jeder kennt PhysX, weiß, was man darunter grob zu verstehen hat und auch der schlechte Ruf ist wie weggewischt. Vermutlicher Grund: Besitzer einer Geforce 8- und 9-Karte - und dies sind ob des großen Erfolgs erstgenannter Serie eben besonders viele - hatten plötzlich ohne Aufpreis einen deutlichen Mehrwehrt erhalten, nämlich PhysX-Unterstützung ohne separate Steckkarte.

Es folgten weitere zwei Monate, bis auch die PhysX-Systemsoftware zum Standardrepertoire des Geforce-Treibers gehörte. Spätestens seit diesem Zeitpunkt ist PhysX angekommen.
Um das Glück für Geforce-Besitzer jetzt perfekt zu machen, fehlen eigentlich nur noch passende Titel. Zwar gibt es inzwischen den ein oder anderen, von richtiger Rückendeckung seitens der Spieleentwickler konnte man bisher jedoch nicht sprechen. PhysX hat sich derweil eher in synthetischen Tests profiliert.
So paradox es denn auch klingen mag, problematisch ist das nicht wirklich, denn die Nvidia-Käufer haben bekanntermaßen das Feature gratis einverleibt bekommen und insofern ist auch die Erwartungshaltung nicht hoch - getreu dem Motto einem geschenkten Gaul schaut man nicht ins Maul.

Doch dieser Monat, und damit schreiten wir auch allmählich in die Gegenwart, könnte in gewisserweise den Durchbruch PhysX' darstellen - quasi die Bergspitze erklommen.
Die Branchengrößen Electronic Arts, 2K Games und THQ haben alle diesen Monat Nvidias PhysX-Technologie lizensiert und damit indirekt angekündigt, in ihren künftigen Krachern die Technologie zu nutzen. Das Ganze passierte relativ beiläufig, man schenkte diesen Meldungen, die Nvidia über Pressemitteiler entsandte, kaum Beachtung, dabei sind sie von enormer Tragweite. Es genügt vermutlich nur ein Topspiel ala Crysis und schon hat Nvidia ein extrem schlagkräftiges Argument gegen den direkten Konkurrenten gewonnen. Ob PhysX unterstützt wird oder nicht, macht in der Regel nämlich gut und gerne - so zeigen jüngste Techdemos - Performanceunterschiede von 100 bis 200 Prozent aus!

Und obwohl man meinen könnte, PhysX sei die Zukunftsmaschine, gibt es doch Ungewissheit über den Werdegang der API - insbesondere die nächsten Jahre.
Bleibt PhysX doch nur wieder eine Episode, wie man schon zu Beginn zwischen ersten Steckkarten und Übernahmegerüchten spekulierte? PhysX steht in den nächsten Monaten definitiv eine rosige Zukunft bevor. Was danach folgen wird, ist allerdings völlig offen. Lädt Nvidia AMD dazu ein, PhysX zu nutzen und letzterer gibt sich auch die "Blöße", so wird PhysX voraussichtlich noch lange leben können, wobei hier auch nicht die Einflussnahme Intels, immerhin "ausgestattet" mit Havok, unterschätzt werden sollte.
Bleibt PhysX dagegen ein Nvidia-only-Feature, so werden Dritthersteller OpenCL (Khronos Group) oder Compute Shader (Microsoft, DirectX 11) sicherlich als Backend für eine neue, herstellerübergreifende Physik-Bibliothek nutzen. Wie lange Nvidia dann noch Flagge zu PhysX hält?

Kommentar schreiben

  • Loggen Sie sich oben mit ihren Benutzerdaten ein, um Kommentare zu verfassen.
  • Falls Sie noch kein Mitglied sind, können Sie sich in unserem Forum registrieren.

21 Kommentare

21.) Luk Luk 25.12.2008 - 18:40 Uhr
Herzlich Willkommen im Forum von HWI feris!

Ich hab mal nach Vergleichen geguckt, aber bisher noch nichts gefunden.
Ich glaube aber nicht, dass die Grafik so extrem drunter leidet, denn die PhysX Karten von Ageia hatten auch nur 130mio Transistoren und die GTX 200er Serie hat mehr als eine Millarde.
Man kann es zwar nicht wirklich vergleichen, da sie verschiedene Strukturen haben, aber ich denke, dass die Physikberechnung nichts ist im Vergleich zur Grafikberechnung.
20.) feris 25.12.2008 - 14:48 Uhr
Hallo!

Netter Artikel, jedoch finde ich auch das PhysX sehr gehyped wird. Eine Frage beahndelt der Artikel leider nicht: Was kostet PhysX auf der GPU an Performance?

Hier werden immer nur die Vorteile beleuchtet. Die Grafikkarte ist in aller Regel der limitierende Faktor. Daraus folgt: Grafikkarte ist zu 100% ausgelastet. Wenn jetzt noch die Physikberechnung auf die Grafikarte ausgelagert wird dann kostet das Performance im Grafikbereich. D.h. ggf. müßte man die Auflösung oder Details runterschrauben. Wurde das mal untersucht? Gibt es Links wo das getestet wurde? Wie verhält es sich auf verschiedenen Grafikkarten? Ab wann bremst das eine das andere aus? Seltsamerweise hört man davon überhaupt nichts obwohl sich die Problematik förmlich aufdrängt.

Wie will man die Problematik lösen? 2 GPU's wären eine Möglichkeit. Doch wer hat die schon? PhysX wird sich nur verbreiten wenn es Mainstream ist - ergo wird es auf 2-GPU-Systemen nicht für eine Verbreitung sorgen sondern ein Nischenprodukt bleiben -> für Softwarehäuser uninteressant und so schnell verschwinden wie es aufgetaucht ist.

Ich hätte auch gern goodies for nothing. Noch mehr da ich selbst eine GTS im Rechner habe. Aber den Weihnachtsmann, den Nvidia mir da verkaufen will glaube ich nicht. Es gibt im Leben nichts umsonst. Und diesem Fall riecht das nach einer zweiten GPU die man kaufen soll um PhysX vernünftig nutzen zu können.

p.s. gibt es einen Artikel wo das von mir angesprochene Problem mal anhand von Zahlen/Daten/Fakten aufgerollt wurde?
19.) Luk Luk 24.12.2008 - 17:43 Uhr
Stell dir vor, du hast in Crysis 100 Fässer, die herumfliegen.

Es ruckelt, 10FPS. (Habe auch einen E6600, ich kenn das)
Dann haste Physx an, und die CPU muss nur Daten an die Grafikkarte schicken. Heißt also, kein Verlust von FPS durch Physik. Im Endeffekt hat man statt 10FPS die normale FPS Anzahl. (50/10/20/30......was man eben so hatte)
18.) TurboT4 23.12.2008 - 21:43 Uhr
@LGEEE
wie kannst du behaupten dass du mit CUDA 50 fps mehr rausholst?
welches Spiel lastet denn bitte welche cpu soo stark aus?
soger ich mit meinem E6600 erreich nur bei 3 Spielen 100% CPU Auslastung, ich glaub daher nicht dass 50 fps mehr rausschaun würden, wenn man der CPU die "Physik-Arbeit" abnimmt...
17.) hmd 22.12.2008 - 23:56 Uhr
Aaaaaaaaalso, ich als ATI-Jünger seh das so. :D;)

Vergleich Codec - Physik-API
Im einen Fall des Video-Codec ist die cPU immer im Stand die Sprache zu interpretieren. Im Fall von Physx sperrt man aber die Hardware des Hauptgegners auf dem Markt aus und versucht einen Standard zu etablieren, der einer API nicht würdig ist. Die Hardware (unified Shader) ist da, wird aber nicht angesteuert, weil Nvidia null Interesse an funktionierenden/schnell rechnenden ATI-Karten hat. Das System von Microsoft ist hardwareunabhängig und bevorzugt keinen der GPU-Konkurrenten, deshalb wird sich diese API hoffentlich durchsetzen. Genau so wie es bei DirectX (Grafik und Audio) auch der Fall war, es ist eine Schnittstelle (API) wo man harwareunabhängig hardware-nahe Befehle an eben die Hardware schicken kann. Ich seh nicht ein, wieso jetzt ausgerechnet Nvidia hier den Standard setzen soll, eine Bude die sich in der letzten Zeit wirklich nicht so verhalten hat, als das man ihr "Standards setzen" anvertrauen sollte.


Zum Speed:
Klar, wenn man im Spiel eine unnötig aufwendige Physik laufen lässt, die selbst Quadcore in die Knie zwingen, dann nimmt man dem Spiel so viel CPU-Power weg, dass unnötigerweise die Grafikleistung einbricht sofern die unified Shader mit CUDA nicht umgehen können (es dann die CPU rechnen muss). Da wundert man sich noch, wieso fast bei jedem neuen Spiel grüne Männchen ihre Finger im Spiel haben.
16.) LGEEE 22.12.2008 - 23:12 Uhr
hmd:
Hast du den Artikel geschrieben? Meiner Meinung nach unterstützt (Begeisterung???) du hier etwas, was ein völliger Nonsens ist. Mit DirectX haben wir endlich einen Standard, mit dem man mit jeder Grafikkarte vernünftig gamen kann. Jetzt kommt wieder so was Dummes wo jeder wieder in eine eigene Richtung entwickelt, obwohl ein Standard nötig wäre.


@hmd - Du frecher ATI Lümmel. :P :twisted:

Du verdrehst hier etwas. Macht nichts passiert mir ständig. PhysX ist eine (erste) Software die durch CUDA auf der GPU abläuft und nicht wie alle anderen Physik-Engines auf der CPU. Spiele erhalten dadurch bis zu 50 FPS mehr an Speed.

Als Hilfe der Vergleich mit Video. MPEG-4 ist ein Standard trotzdem gibt es viele Video-Codecs die alle zum gleichen Ergebnis kommen müssen.



hmd:
Da kann ich nur auf Microsoft hoffen, dass sie mit Compute Shader (DX11) schnell den Standard schaffen, damit nicht wieder dieser unkompatible Quatsch entsteht.


Das entscheiden die Spiele Studios.

1.) DirectX 11 gibt es erst 2010 mit Windows 7. Bis dahin gibt es bestimmt 100 Spiele für PhysX, der Verbreitungsgrad ist hoch, die Software vielfach verbessert. PhysX lässt sich sogar für alte Spiele nachrüsten.

2.) PhysX braucht CUDA. CUDA ist ab jeder Nvidia der 8xxx er Reihe automatisert durch Treiber aktiviert. Glaubst Du wirklich 70 Millionen (bis 2010 wahrscheinlich Verdopplung) wollen ihre 8800,9800,280,260 wieder verkaufen für eine neue DirectX11 Graka? Oder schon wieder eine neue CPU mit lächerlichen 10 FPS mehr? Spiele mit PhysX sind bis zu 50 FPS schneller.

Alle Nvidia Besitzer bekommen quasi Leistung neu geschenkt ohne einen Cent ausgeben zu müssen. DirectX11 braucht neue Hard- und Software.

---

Ich vernute aber, dass PhysX erst der Anfang ist für CUDA. Nvidia wird bestimmt noch ne KI-Engine für CUDA entwicklen. Damit läuft dann neben der Grafik erstmalig die Physik und KI über die GPU und nicht CPU. Ich rechne mit Potiential von 70 FPS mehr.

---

Wie die Spiele Studios das mit ATI aushandeln werden weiss ich nicht. Sie haben die Macht. Alle PhysX Spiele werden mit ATI langsamer laufen - wenn das ein Dauerzustand bleibt könnte es das Ende der Firma ATI sein.

Aber auch Nvidia und Intel bedrohen sich im Moment gegenseitg. Intel mit Larrabee und Nvidia mit CUDA GPGPU (keine teuren CPU's von Intel nötig wenn GPU bis zu 148x schneller rechnet). 2009 kommt Larrabee - niemand weiss wie das in der Praxis aussieht. Entschärft wird das ganze nur durch die Entwickler die von Hybrid CPU-GPGPU sprechen und alles in ihrer Software einsetzen wollen.

Wenn Larrabee 2009 real wird mit den angekündigten 48 Kernen und möglichen 300 FPS in Crysis wird es das Ende von ATI und Nvidia sein vorausgesetzt es bleibt finanzierbar (sprich billig).
15.) KonKorT 22.12.2008 - 12:16 Uhr
Ja, ich bin der Autor dieses Artikels.

DirectX wird weiterhin in Bezug Grafik-APIs Standards sein und es wird auch die Möglichkeit geben, DirectX als Backend für anderweitige Berechnungen eines Grafikchips zu verwenden, die außerhalb des Darstellens von 3D-Grafiken liegen.
In den DirectX-11-Spezifikationen wird hier explizit Compute Shaders erwähnt.

Allerdings ist DirectX keine Physik-API. Momentan gibt es hier neben Havok allen voran PhysX.
Es wäre also ein Trugschluss zu behaupten, mit DirectX 11 wird PhysX oder so obselet. DirectX 11 ist keine Physik-API und wird es auch nie werden!
Es besteht lediglich die Möglichkeit, dass ein Dritthersteller DirectX 11 als Backend nutzt für eine neue Physik-API. So eine neue Physik-API lässt sich aber nicht von heute auf morgen auf die Beine stellen und warum auch eine neue entwickeln, wenn bereits eine sehr gute exisitiert, die von inzwischen mehreren Spielepublishern (THQ, EA, 2K Games) genutzt wird?

Und zurzeit funktioniert sie ja nur auf Nvidia-GPUs, weil AMD bisher ablehnte, PhysX zu verwenden. Theoretisch kannst Du mit einer Radeon ab der HD-2000-Reihe genauso gut PhysX darstellen.
Die Entscheidung pro PhysX ist ein reines Politikum.

Ich hoffe, Dir mit diesem Beitrag die Verhältnisse etwas besser dargelegt haben zu können und dass die Kolumne für Dich jetzt nicht mehr bloß Non sens ist, wenn Du sie Dir durchliest.
14.) hmd 22.12.2008 - 11:55 Uhr
Hast du den Artikel geschrieben? Meiner Meinung nach unterstützt (Begeisterung???) du hier etwas, was ein völliger Nonsens ist. Mit DirectX haben wir endlich einen Standard, mit dem man mit jeder Grafikkarte vernünftig gamen kann. Jetzt kommt wieder so was Dummes wo jeder wieder in eine eigene Richtung entwickelt, obwohl ein Standard nötig wäre.

Da kann ich nur auf Microsoft hoffen, dass sie mit Compute Shader (DX11) schnell den Standard schaffen, damit nicht wieder dieser unkompatible Quatsch entsteht.
13.) KonKorT 22.12.2008 - 10:53 Uhr
DirectX 11 ist keine Physik-API wie PhysX. ;)

Man kann DirectX 11 bestenfalls als Backend für eine neue Physik-API nutzen. Aber warum das tun, wenn mit PhysX bereits eine sehr gute Physik-Engine am Markt ist?
12.) hmd 22.12.2008 - 10:11 Uhr
Versteh ich nicht was ihr hier diskutiert. Wenn DirectX11 das auch anbieten wird, wird Cuda sterben, das ist so sicher wie das Amen in der Kirche.
11.) KonKorT 22.12.2008 - 01:26 Uhr
Habe gerade die letzten beiden Abschnitte nach längerer Überlegung noch einmal etwas umgeformt.
10.) Streamline 21.12.2008 - 19:54 Uhr
CUDA wird weder von der Spieleindustrie verwendet, noch wird das AMD adoptieren, ist ja eindeutig auf die Nvidia-GPUs zugeschnitten und nur eine Schnittstelle, ähnlich dem Treiber. Was du meinst ist PhysX. Dazu siehe die Kolummne hier oben.

Ich denke nicht, dass sich PhysX ohne ATI-Unterstützung durchsetzen wird, Effekt-Physik begeistert eh nicht, was man braucht ist Spielphysik. Das geht aber nur, wenn die auf allen Grafikkarten läuft und dazu braucht man einen offenen Standard.
9.) Duplex 21.12.2008 - 19:41 Uhr
ATI selber schafts net mal werbung zu machen für die grakas ?
Cuda ist schon teil hauptprogramm bei der spiele industrie , siehe zusammenarbeiten mit 3 namenhaften spielehersteller...


ob AMD/ATI das schaft ?

amd kann doch Cuda nehmen nvidia meinte doch es sei jeden zugänglich?
8.) LGEEE 21.12.2008 - 16:57 Uhr
Duplex:
wen ATI mal auf Cuda mitsteigen würde würde DX11 und OpenCL dumm da stehen

ich verstehe net warum AMD so lange zögert


1.) Das geht nicht weil Cuda ein Produkt von Nvidia ist.

2.) ATI's äquivalent. Damit will ATI 2009 (Ankündigung) es krachen lassen. Bei ATI heisst es 'ATI Streams'.

ATI hat schon im Sommer eine Tech Demo gezeigt wo sogar die KI über die GPU läuft.
7.) LGEEE 21.12.2008 - 16:50 Uhr
KonKorT:
Videos werden doch inzwischen über CUDA codiert, Passwörter entschlüsselt, Molkekühle berechnet (SETI HOME und co.) etc.


Logo - war in Bezug auf Spiele und GPU gemeint. Physik und KI lief ja bisher immer über CPU. :D
6.) Bulldozer 21.12.2008 - 16:23 Uhr
für AMD ist Cuda nur ein zwischenschritt
5.) ConVuzius 21.12.2008 - 13:30 Uhr
Super Kolumne, großes Kompliment an den Autor, ich hab selten so lange und intensiv beim Lesen mit dem Kopf genickt.
4.) touly 21.12.2008 - 12:10 Uhr
WÄr doch ein Traum immer unabhängiger von der Cpu zu werden und beim Aufrüsten nur Grafikkarte austauschen zu müssen. ALte karte raus neue rein und nicht etwa wie bei cpus ,bei der man häufig einen komplettwechsel der hardware vor sich hat(board,ram,usw.).
3.) Duplex 21.12.2008 - 12:09 Uhr
wen ATI mal auf Cuda mitsteigen würde würde DX11 und OpenCL dumm da stehen

ich verstehe net warum AMD so lange zögert
2.) KonKorT 21.12.2008 - 11:15 Uhr
Videos werden doch inzwischen über CUDA codiert, Passwörter entschlüsselt, Molkekühle berechnet (SETI HOME und co.) etc.
1.) LGEEE 21.12.2008 - 05:17 Uhr
Klasse Beitrag Florian.

http://www.ozone3d.net/benchmarks/physx-fluidmark/

---

NVIDIAs CUDA-Architektur unterstützt OpenCL

Santa Clara, Kalifornien, 9. Dezember 2008


http://www.nvidia.de/object/io_1229090804255.html

Da die Updates (neue Treiber = neue PhysX Version) bei Nvidia rasend schnell sind wird nach meiner Meinung DirectX 11 und andere Bewerber sich weniger durchsetzen. Diese neue UP-TO-DATE Haltung mit Abwärtskompatibilität wird Nvidia stärken. Sie müssen diesen Zug nehmen da in Sachen Video (Transkodierung,UVD 2.2), Bildqualität und Bildschärfe ATI überlegen ist.

PhysX ist erst der Beginn. Ne eigene KI-Engine für CUDA kommt bestimt auch noch. CudiX?

Physik und KI - was könnte man noch auf die schnellere GPU anstatt CPU verlagern?