Interview mit Nvidia über Multi-GPUs

NvidiaIn einem von Golem geführtem Interview mit Nvidias Chefwissenschaftler David Kirk wurde dieser über die Zukunft der Multi-GPUs befragt. In seinen Augen ist dies kein kurzfristiger Trend, sondern sogar notwendig für die Zukunft, da immer mehr Kerne benötigt werden, um beispielsweise die Physik zu berechnen.

Wirft man einen Blick auf unsere Grafikkarten-Charts, so stellt man fest, dass die beiden ersten Plätze von solchen Multi-GPUs belegt werden. Dabei gibt es diese Technologien nicht erst seit der 7950 GX2, sondern wurde schon vor 10 Jahren von "3dfx" eingeführt. Ob die GPUs auf der gleichen Platine oder in zwei einzelnen Grafikkarten verbaut und durch SLI beziehungsweise Crossfire verbunden sind, ist - zumindest hinsichtlich der Performance - gleichgültig.

Die GPUs sollen sich nicht nur um die Grafik kümmern, sondern auch um die Physik- und eventuell sogar um die KI-Berechnung. Die Implementierung der Physik soll auf allen Geforce-8-Modellen möglich sein und Nvidia ist auch gerade dabei, die Physik-Engine "PhysX" von Ageia auf die Programmierschnittstelle CUDA zu portieren.

Nicht nur Physikberechnungen sollen eine weitere Aufgabe für GPUs werden, sondern auch beispielsweise das Konvertieren von Filmen in unterschiedliche Formate. Bei der Vorführung wurde ein HD-Film mit einer Qualität von 720p in das .MP4-Format des iPod umgewandelt und nahm angeblich 10-mal weniger Zeit in Anspruch, als wenn man dafür eine Quad-Core CPU mit 3 GHz verwenden würde. Wann dieses Tool veröffentlicht wird, ist allerdings noch nicht bekannt.

Es gibt jedoch auch Komplikationen bei der Verwendung von Multi-GPUs. So gibt es immer noch mangelhafte Unterstützung der Thread-Verteilung durch Betriebssysteme. Deswegen wurde die Verteilung der Threads bisher durch den Treiber gelöst. Seit der Geforce 8-Serie gibt es sogar einen eingebauten Scheduler. Es wird aber trotzdem über einen Hardware-Scheduler nachgedacht, um die Verteilung noch effizienter zu gestalten.

Ein weiteres Problem - ähnlich wie bei CPUs - ist die Leistungsaufnahme. Mehr als 200 Watt kann man in einem normalen Gehäuse schlichtweg nicht mehr zufriedenstellend kühlen. Bis jetzt wurde das Problem aber geschickt durch die Verkleinerung der Strukturbreite umgangen, jedoch wird dies nicht mehr lange möglich sein, da man sich immer weiter der Grenze des Machbaren nähert.

"Der PC ist nicht mehr einzigartig" gibt David Kirk in Anbetracht der neuen Konsolen zu. Bedroht durch die Konsolen fühlt sich Nvidia aber nicht, da man bei einem PC jedes Jahr die Grafikkarte austauschen kann und man somit neue Technologien und erhöhte Performance erhält. Man muss sich aber darauf einstellen, dass Spielehersteller auch weiterhin parallel für Konsolen und PCs programmieren. Von daher dienen all diese Bestrebungen auch nur einem Ziel: Den PC als High-End-Plattform für Spiele weiterhin interessant zu halten.


Kommentar schreiben

  • Loggen Sie sich oben mit ihren Benutzerdaten ein, um Kommentare zu verfassen.
  • Falls Sie noch kein Mitglied sind, können Sie sich in unserem Forum registrieren.

1 Kommentar

1.) Luk Luk 17.04.2008 - 21:32 Uhr
Solange die Verlustleistung im Verhältnis zur (nutzbaren) Rechenleistung im Gleichgewicht bleiben, würde ich Multi-GPU's unterstützen!