AMD beklagt CPU-Vernachlässigung in PhysX

NvidiaNvidia hat 2008 die kleine Firma Ageia aufgekauft und sich damit deren Physikbeschleunigungs-API PhysX angeeignet. Fortan übernahmen ausschließlich Nvidias GPUs die Aufgaben von Ageias speziellen PhysX-Karten zur Berechnung der Physikeffekte. Doch PhysX ist eigentlich so konzipiert, dass auch die CPU die Berechnungen übernehmen kann, wenn keine geeignete GPU bzw. kein PhysX-Beschleuniger im System vorhanden ist, dann allerdings sehr viel langsamer.

Gerade in letzter Zeit hat Nvidia viele Entwickler dabei unterstützt, Physikeffekte in Spielen durch seine proprietäre Schnittstelle zu ermöglichen. Prominentestes Beispiel in dieser Hinsicht dürfte das im letzten Jahr für den PC erschienene Batman: Arkham Asylum gewesen sein, das dank seines "The way it's meant to be played"-Status' - einer Empfehlung von Nvidia-Grafikkarten für höchsten Spielgenuss - für heftigste Auseinandersetzung zwischen AMD und Nvidia sorgte. So war es zum Beispiel nicht möglich, aus dem Spiel heraus Antialiasing auf ATI-Grafikkarten zu aktivieren und ähnliches. In diesem Zusammenhang gab es eine längere öffentliche Auseinandersetzung zwischen AMD und Nvidia über die Unterstützung von Spieleschmieden und die künstliche Beschränkung von Konkurrenz-Produkten.

Eine neue Beschwerde seitens AMD sorgt nun für Aufsehen. Richard Huddy, weltweit für die Beziehungen AMDs zu den Entwicklern zuständig, beklagt sich darüber, dass Nvidia bei neueren Titeln die Mehrprozessorunterstützung für PhysX stark zurückgefahren habe, um so künstlich ein Verkaufsargument für Nvidia-Grafikkarten zu schaffen, obwohl viele Effekte durchaus von modernen Mehrkern-CPUs emuliert werden könnten. Dadurch seien auch die hohen Geschwindigkeitsvorteile, die Nvidia für Grafikkarten bei der Berechnung der PhysX-Effekte anführt, eigentlich künstlich. Auffällig sei das Ganze vor allem deshalb, weil bei der Übernahme Ageias noch eine sehr gute Ausnutzung von mehreren CPU-Kernen vorhanden war, inzwischen aber nur noch einer, höchstens zwei CPU-Kerne genutzt würden, wenn die CPU die Berechnung der Effekte übernimmt. Huddy glaubt, dass ein Großteil der Effekte sehr wohl auf aktuellen Quad-Core-CPUs berechnet werden könnte, wenn denn die Mehrkernunterstützung nicht beschnitten worden wäre. So sei PhysX, das von Nvidia als "Gottes Antwort auf alle Physik-Probleme" beworben wird, eigentlich eher "eine Lösung auf der Suche nach Problemen".
Zweifellos sind allerdings moderne Grafikkarten dank ihrer massiven Rechenleistung deutlich besser für die Berechnung von Partikeleffekten geeignet als CPUs. Dennoch scheint gerade deshalb eine künstliche Beschneidung hier unangebracht. Es bleibt abzuwarten, wie Nvidia auf die Anschuldigungen reagiert.

Da man derartige Äußerungen nicht unkommentiert lassen sollte, weil man sonst lediglich eine Plattform für Firmen-Streitigkeiten darstellt, sei hier noch ein persönliches Wort des Verfassers - der übrigens sowohl eine Radeon HD 4850 als auch eine Geforce GTX 260 sein Eigen nennt - angefügt:
Nvidia leistet mit PhysX und der Unterstützung der Spielentwickler gute Arbeit und trägt dazu bei, das Spielgeschehen einiger Titel optisch aufzuwerten. PhysX macht dabei ein schlechtes Spiel nicht gut, aber gute Spiele können davon profitieren. Und ein Titel wie Batman: Arkham Asylum bleibt gerade deshalb auch ohne PhysX noch ein gutes Spiel.
Allerdings sieht man gerade bei den Videos zu dem kürzlich erschienen Titel Dark Void, der aggressiv als PhysX-Spiel beworben wird - mit der Empfehlung einer Geforce GTX 260-216 als dediziertem PhysX-Beschleuniger -, dass derartige Bemühungen auch in die falsche Richtung gehen können. Das Spiel sieht ohne Frage dank PhysX sehr gut aus, abgesehen von dem etwas zu stark wirkenden Rauch des Jetpacks vielleicht. Der Vergleich ohne PhysX-Beschleunigung wirkt dagegen auf den Videos tatsächlich steriler. Allerdings sieht es bei genauer Betrachtung so aus, als ob die Grafik künstlich beschnitten wurde, um die Unterschiede stärker herauszustellen. So fehlen an einigen Stellen Partikeleffekte, an denen man durchaus auch ohne PhysX problemlos Partikel hätte darstellen können; sicherlich nicht immer physikalisch korrekt, aber doch grafisch ansprechend. Dazu sollte sich allerdings jeder Leser selbst ein Bild und eine Meinung machen.

Während es zudem früher möglich war, mit einer kleineren zusätzlichen Nvidia-Karte die PhysX-Berechnungen durchzuführen, während die Hauptgrafiklast von einer ATI-Karte getragen wurde, hat Nvidia mit aktuellen Treibern (seit Geforce 186.xx) PhysX deaktiviert, sobald eine ATI-Karte im System erkannt wird.
Nvidia tut demnach alles dafür, PhysX nach Möglichkeit als Verkaufsargument für seine Grafikkarten zu nutzen. Das ist an sich nichts verwerfliches, schadet aber - wie einiges andere derzeit - dem PC als eigentlich offene Plattform und somit letztlich auch den Käufern.
So bleibt PhysX momentan ein "Zuckerl" und wenn aus der Unterstützung ein Nachteil für Nicht-PhysX-Nutzer folgt, gibt das dem Ganzen doch einen bitteren Nachgeschmack.


Kommentar schreiben

  • Loggen Sie sich oben mit ihren Benutzerdaten ein, um Kommentare zu verfassen.
  • Falls Sie noch kein Mitglied sind, können Sie sich in unserem Forum registrieren.

15 Kommentare

15.) f1delity 23.01.2010 - 02:05 Uhr
Die 6-Kerner werden afaik ab 1000$ verkauft, wird sich also im Massenmarkt wohl eher nicht durchsetzen.

Was die Anfänge von PhysX angeht, also Zeitpunkt finde ich okay, allerdings war es ja damals von Ageia und der Anteil derer, die eine dedizierte Karte für Physik kaufen war gering, das hätte nVidia weit besser verbreiten können, aber die Entwicklung geht in die völlig falsche Richtung.
14.) rizawi 22.01.2010 - 15:03 Uhr
amen^^

wie gleich CF ist zeigt dieses Projekt wo unter anderem AMD/ATI Boards auf SLI umgecodet werden^^:
http://xdevs.com/e107_plugins/content/content.php?content.30
Das ganze scheint nicht mal Hardwarebasiert zu sein wenn ich das richtig verstehe, zumindest solange bis die hersteller wieder was einbauen was es hardwarebasiert macht um den moddern den Spass zu verderben^^.
(CF wär zwar die gleiche Technik aber wenn man vier Rechner hat und immer mal nen Hardware Crossoverchange macht ist es ungünstig wenn man mittendrin immer die hersteller wechselt^^, ich persönlich hoffe noch auf Nvidias gemunkeltes Weltwunder XD)

In sachen PhysiX hab ich n bisl das Gefühl das wurde 1. zu spät auf den Markt gebracht, 2. als es raus war viel zu spät wirklich eingesetzt und 3. war das Marketing miserabel. Ich hab z.b. erst vom hören sagen erfahrn das Gothic 3 schon physix hatte und davon auch kaum was gesehn (wenn das auch so schon nicht grad das grafische Musterbeispiel ist XD). Das is ja im Prinzip auch nur wie ne Beschleunigerkarte für zusätzliche Funktionen. Bei dem rapiden Anstieg der PC-Leistung den man momentan verzeichnen kann ist die Technologie aber kaum noch sinnvoll. Die paar Spiele die kamen wurden bestimmt von Nvidia gepusht. Wär die Technologie begehrt würden die Entwickler von selber massig Spiele mit Physikeffekten auf der Plattform bringen, was dann aber wieder den ATI-Usern auf den Magen schlägt, angesichts der Probleme die sowas meist nach sich zieht, die sogar oft absichtlich verbaut sind, was der Technology auch so schon schlechte Publicity bringt. Das lässt dann auch durchblicken warum AMD so gern in der Wunde bohrt.

Naja, für diese Jahr wurden ja nun schon 6-Kern CPUs angekündigt da könnte man mal 2 Kerne für ne PhysiX Emulation abstellen und sehen was es bringt, vieleicht is das ja auch AMD's momentanes anliegen von wegen CPU Vernachlässigung^^. Im 3D-betrieb gammeln ja selbst bei den meisten starken Quadcores schon ein zwei Kerne fast Idle rum, ab 8 Kernen kann man eigentlich schon ne Starke Graka emuliern vorausgesetzt man erweitert das Speicherinterface.
13.) f1delity 22.01.2010 - 11:48 Uhr
AMD unterstützt zwar kein SLI, aber CF was ebenfalls die selbe Technik ist ;)

Und was PhysX angeht, dass was zur Zeit darüber berechnet wird kann jeder Quad nebenbei erledigen, zwar nicht physikalisch korrekt (ist PhysX allerdings auch nicht), dafür auf gleicher Qualität ohne so extrem Performance zu vernichten wie in Dark Void.

Ich hoffe einfach das sich W7 und Dx11 schnell etablieren und endlich Direct Compute oder halt OpenCL benutzt werden.
12.) rizawi 20.01.2010 - 21:45 Uhr
Irgendwie frage ich mich was diese ganze Diskussion soll. Der Stand der Dinge ist das bei AMD weder SLI noch HybridSLI unsterstützt werden, weil die jetzt ihre eigenen Grafikchips verbauen und im Highend bereich auf dem Board schon ein ATI Grafikchip steckt. Somit steuert Nvidia mit seiner ach so bösen Taktik nur in Folge 1000 des gemezels mit ATI, das eigentlich schon verloren ist. Intel baut bald seine eigene Grafik on chip und AMD und ATI sind die selbe Firma. Nvidia kann jetz den Heiligen Gral finden und AMD wird trotzdem meckern das Made ich China unten drauf steht, ob das nun stimmt oder nicht. Intel hält Nvidia nur noch solange bei der Stange bis sich was besseres ergibt und kauft zum Spotpreis. Wenn Nvidia weder Intel noch AMD in den allerwertesten kriecht, einen von beiden Aufkauft, den nun schon seit 4 Jahren gemunkelten eigenen x86 Chip bringt oder eine andere Form des 8. Weltwunders passiert, werden wir jegliche Nvidia Technik bald nur noch in Handys oder Konsolen sehn und das mit Glück. Damit wäre dann auch die physiX und SLI hin oder her Diskussion hinfällig. Was das technisch beste und billigste wäre interessiert doch da oben eh keinen, da zählt nur Geld. Und zwischen AMD/ATI und Intel ist Nvidia als 3. einer zu viel. Dazu kommt das die Technik momentan eh jenseits jeglicher Notwendigkeit liegt und viele Käufer gar nicht wissen was sie überhaupt kaufen sollen. Die Schlacht die eigentlich auf der Testseite einer Hardwarezeitschrift stattfinden sollte ist zu einem Mediengerangel geworden wo Sodom und Gomorrha sich die Klinke in die Hand geben und doch eigentlich nur noch ein paar Dutzend Leute wissen was überhaupt noch Sache ist.
(Und nur so am Rande, wenn PhysiX so doll ist, wer will dann seine Physik noch auf dem CPU berechnen da is es doch logisch das man den dann von der Berechnung ausschliesst. Würde man das nicht so machen würde Nvidia ja fast zugeben das es eigentlich egal ist ob das nun der PPU oder der 4. Kern der CPU berechnet.) So oder so ist Nvidia ohne ein Wunder hinüber. Die neue Graka soll ja nu auch nich so der Hammer sein, die Uhr zum Ende hin tickt.
11.) N1truX 20.01.2010 - 16:18 Uhr
Zum Thema PhysX-Lizenz: Fast zum gleichen Zeitraum hat Intel Havok und Nvidia Ageia übernommen. Danach hat AMD wohl Angebote von Intel als auch Nvidia bekommen.

Wie Duplex es schon richtig gesagt hat, soll eine der Bedingungen von NV der Zugang zu einigen Architekturdetails der AMD-Grakaserie gewesen sein, unter dem Vorwand den Code entsprechend anzupassen.
Das AMD da nicht zugestimmt hat ist klar. Nvidia würde sich nie den Aufwand machen für einen Konkurrenten so Hardware-nah (Assembler) zu programmieren, das ihnen kein ausführlicheres SDK gereicht hätte. Dazu hätte Nvidia nach entsprechender Verbreitung von PhysX den Vertrag nicht verlängern müssen und AMD hätte dann da gesessen. Nicht gut.

Alternative Intel mit Havok. HavokFX wurde von Intel direkt nach der Übernahme gestrichen - klar. Kein GPU im Angebot => keine Software dafür. Eine größere Kooperation mit Intel viel für AMD auch flach. Intels eigene (weit verbreitete) Compiler sind schon so getrimmt, AMD CPUs bewusst auszubremsen - besser nicht zu beschleunigen (Wer es genauer wissen will muss mal im WWW nach "Feature Flag" "Vendor ID" usw. suchen).
Also warum hätte man da kooperieren sollen? x86 (x64) wäre es zwecks Windows eh geworden, dann noch ggf. SSE (2, 3, 4.x) - also alles wie immer.

Stattdessen hat man sich bei Bullet zwecks OpenCL-Physik, allgemein OpenCL sowie bei Dx11 (Direct Compute) stärker mit reingehangen. Hat den Vorteil, dass man offene Standards unterstützt, die sich erfahrungsgemäß (zum Glück) eh fast immer durchsetzen.
Bullet ist auch keine schlechte Wahl, ist zwar vom Namen nicht so bekannt, aber auch sehr weit verbreitet.
10.) core 20.01.2010 - 14:46 Uhr
Ob diese Randerscheinung PhysX überhaupt in der Lage ist wem zu nutzen oder zu schaden, dass wage ich mal in Frage zu stellen!
Intel braucht kein PhysX um Prozessoren zu verkaufen, die lassen sich ja nichtmal von der Wirtschaftskriese beindrucken....ebenso vekaufen sich auch nicht PhysX Karten äußerst gut,siehe HD5er...

Einzig und allein dem Anwender wird durch dieses Gehabe seitens NV etwas vorenthalten....
9.) Duplex 20.01.2010 - 14:21 Uhr
warum , es schadet im dem fall dann nur Nvidia

da sie möglichst viele Grakas verkaufen wollen

eine CPU-Mehrkern. wäre von vorteil für Intel und den direkten konkurenten AMD

verständlich das man da nur noch 2threads freigibt
8.) Lumi25 20.01.2010 - 14:13 Uhr
Das mit der CPU-Mehrkernunterstützung müsste doch auch eigentlich Intel schaden oder?
7.) hmd 20.01.2010 - 12:58 Uhr
Wo endet das? Ist wie 2 Stunden am Tag Staubsauger laufen lassen, tschuldigung aber das ist unter dem Aspekt der CO2-Problematik wirklich nur noch mit saublöd zu bezeichen. Langsam muss man die Kiddies mal informieren, dass der Strom nicht in der Steckdose entsteht. Fast die doppelte Menge an Energie verbraten, damit ein wenig Physik simuliert wird, ist sicher nicht der richtige Weg.
6.) Undergroundking 20.01.2010 - 12:29 Uhr
laut nvidia braucht man für die "raucheffekte" in dark void eine zusätzliche GTX260 für die physikberechnung. und wenn man sich dann das eher bescheidene ergebnis anschaut, ist das schon ernüchternd. insofern hat amd recht.
und wer baut sich schon ne 2. graka ein, die nur strom verballert, um n bissle rauch zu sehen.
5.) core 20.01.2010 - 11:47 Uhr
...und wieder eine diese unsäglichen debatten über PhysX XD

Nvidia wird PhysX nie und nimmer mit ATI "teilen" oder es gar, zur freude alle PC-Zocker, zu einem offenen Standart werden lassen...nein es wird mit aller Kraft daran gearbeitet einen Wettbewerbsvorteil zu generieren...

...wenn die beim NV-Marketing auch nur eine Hirnwindung mehr hätten würden sie PhysX freigeben und dadurch ohne Kostenintensives Publischer-Pushen und negative Monopol- Kritik automatisch eine vielfalt an Qualitativen PhysX Games erzeugen, um dann mit ihren eh schon PhysX optimierten Karten zu punkten und den Markt aufzumischen....

Naja....sollen se mal machen ;)
4.) Duplex 20.01.2010 - 11:44 Uhr
Nvidia hat durchaus interesse , PhysX weit zu verbreiten

und es gibt stimmen , die bereits besagen das Nvidia AMD gleich nach der vorstellung der PhysX AMD ein angebot gemacht haben soll , einzelheiten sind zwar nicht bekannt , aber es gibt welche die meinen das AMD dann tiefere details zu den chip hergeben müsste ( was ich auch ablehnen würde )

jedoch gibts immer eine gewisse verhandlungs basis


und Nvidia setzt absolut niemanden unter druck, spiele hersteller werden gefördert wen sie "Nvidia" technologien einsetzen , da kann man sich vorstellen das die Spielehersteller allgemein für Nvidia sind , von dene sie "hilfen" bekommen und Geld


AMD hat ein ähnliches programm , jedoch wirds immer seltener

Intel ist eig sogut wie in jeden spiel drin.. --> siehe Logos am anfang
3.) Seb 20.01.2010 - 11:42 Uhr
Es ist klar, dass Nvidia sich damit rühmt PhysX Effekte auf ihren Karten zu haben und AMD eben nicht. Das würde jeder von uns genauso machen. Sie haben ja schließlich auch viel Geld rein investiert.
Die Mittel, die Nvidia da einsetzt sind jedoch alles andere als fair.

Nvidia und AMD sollten sich wirklich einfach mal zusammen setzen und sich auf einen offenen Standard einigen. Das wäre für alle das beste.
@Vulture: Das ist wahrscheinlich auch das was Duplex meinte.
2.) Vulture 20.01.2010 - 11:27 Uhr
@duplex:
aha, AMD hats also verpennt mit Nvidia ne PhysX-Lizenz auszuarbeiten? LOL!
Als ob Nvidia hier irgendein Interesse daran hätte mit dem größten Konkurenten zusammen zu arbeiten. Sie habe eine Technologie und Mauern jetzt damit, wie sie es immer machen, während AMD sich schon seit langem für einen offenen Standard einsetzt.
Ich verstehe aber auch die Spieleentwickler nicht wirklich. Wie kann ich ein Feature in mein Produkt einbauen dass am Ende nur die Hälfte meiner Kunden, nämlich die mit Nvidia-Karte, nutzen können, während der Rest aussen vor bleibt? Hat Nvidida wirklich eine so große Marktmacht, dass sie die Entwickler derartig unter Druck setzen können? Oder gibts ordentlich Kohle für solche Aktionen?
1.) Duplex 20.01.2010 - 09:30 Uhr
anfangs wurde PhysX auf der GPU belächelt , da es keine spiele gibt

nun kommen diese nach und nach , dann ist es klar das man versucht sich rauszureden , und bestenfals andere die schuld gibt

AMD hats einfach verpennt , anstatt sich ne PhysX lizenz auszuarbeiten mit Nvidia sind die offensichtlich strickt dagegen und planen eigenes

von HavokFX wurde bisher nix bekannt
und von der Bullet auch nix , ich frage mich ob sich sowas überhaupt lohnt , letzten endes haben wir 2schienen , wo beide hersteller auf einer punkten


die sollten sich mal am tisch setzen und was zusammen ausarbeiten , dann gäbe es auch darin konkurenz , möglichst ein produkt vorzustellen der bei hinzugeschalteten PhysX nicht absackt