Distributed-Computing: AMD besser als Nvidia

GrafikkartenDie Kollegen von Planet3DNow! haben vor wenigen Tagen ein Review online gestellt, das sich mit der GPU-Computing-Performance aktueller Desktop-Grafikkarten beschäftigt bzw. der Distributed-Computing-Performance mangels weiterer GPU-Computing-Software.
Die Ergebnisse, die man mit den AMD-Grafikkarten HD 4890, HD 5770 und HD 5850 sowie den Nvidia-Grafikkarten GT 220, GTS 250 und GTX 275 eingefahren hat, sind dabei durchaus überraschend.

So dominieren die ATI-Grafikkarten in allen vier getesteten Distributed-Computing-Anwendungen, namentlich Milkyway@home, Collatz@home, distributed.net und folding@home. Dabei ist die HD 4890 unter Collatz@home, distributed.net und folding@home gut doppelt so schnell wie die GTX 275; unter Milkyway@home gar viermal so schnell. Interessanterweise ist dann der Sprung zur HD 5850 aber gar nicht mehr so riesig, die zwischen 19 und 75 Prozent schneller rechnet als die HD 4890.

Planet3DNow! betont am Ende seines Tests, dass an dieser Stelle lediglich Distributed-Computing-Anwendungen gegenübergestellt wurden und somit nicht allgemein gesagt werden kann, dass AMD-GPUs eine deutlich bessere GPU-Computing-Performance besitzen. Ein Blick auf die Marktanteile in der professionellen Grafikkartensparte lässt dies bereits erahnen: Hier dominiert Nvidia mit über 90 Prozent Marktanteil.

Nvidia wirbt bereits seit dem G80 massiv mit GPU-Computing, ist mit CUDA Vorreiter in dieser Sparte, hat den GT200 mit dedizierten Double-Precision-Einheiten ausgestattet und wird auch im kommenden GF100 weitreichende Verbesserungen einbringen. AMD schafft es aber offenbar zumindest in Distributed-Computing-Anwendungen durch die bloße, theoretische Shaderleistung, Nvidia auszustechen.


Kommentar schreiben

  • Loggen Sie sich oben mit ihren Benutzerdaten ein, um Kommentare zu verfassen.
  • Falls Sie noch kein Mitglied sind, können Sie sich in unserem Forum registrieren.

13 Kommentare

13.) rizawi 18.02.2010 - 15:41 Uhr
Damit wär dann geklärt wieso wir uns mit Systemen wie Vista rumschlagen müssen^^, weil alle einfach den Standartgedanken hegen und pflegen^^. Zugegeben, für den Arbeitsbereich ist Windows XP auch ungeschlagen. Aber mit etwas mehr Aufwand ist es einfach möglich da auch ein Debian oder Mandrake laufen zu lassen, wenn man will. Wäre das Interesse grösser würde es nicht lange dauern bis auch der Support für alles mögliche kommt. Und eins ist Fakt. Es gibt fast keine sinnlosen Tools, Funktionen, Optikspielereien etc., denn wer würde sich auch hinsetzen um ein Prog für sich zu schreiben, das andere auch nutzen, das iwelche Zusatzfunktionen hat die keiner braucht. Und jeder der den Quellcode hat kann sich auch leicht noch schnell was dazu dichten was er gern hätte. Dafür können ihm dann die vielen User denen das was nutzt ne Grusskarte zu Weihnachten schicken^^. Schon heute gibts für einige der UNIX Ableger satt Programme. Wenn man das Internet bedienen kann findet man genau wie bei MS auch für andere OS alles OpenSource. Gut einige Programme aus dem Pro Bereich funzen nur exklusiv auf Microsoft, dafür nehmen die dann auch noch gerne mal 300€ aufwärts Lizenzkosten, da lohnt sichs auch noch 200 eus für MS und 2000 aufwärts für den dazu passenden Rechner auszugeben. Wer übrigens nur ein Unix System verwendet um nicht Microsoft zu nutzen ist selber schuld, ein Linux z.b. macht viel mehr Installationsarbeit als MS und viele installieren es so, das es ausseht wie Windows und versuchen dann das damit zu machen was sie mit Windows auch gemacht haben, da kann man Win7 auch als 2. System laufen haben, wenn mans für verschiedenes braucht.

Apple wird übrigens absaufen weil sie den StandartPC nutzen. Microsoft hat so viel von denen geklaut und anders rum(Crosslicenzing), das die einfach beide auf der IBM Schiene fahrn ,weils besser zusammen funzt, was auch der Grund ist warum es vollkommen sinnlos ist Apple zu kaufen. Man kauft ja quasi den StandartPC nur ohne Custom Content und das für den doppelten Preis, nur weil n angefressener Apfel drauf is(so viel zu anständigen Preisen, nix gegen Apple im Mobilbereich, da ham die die Nase vorn mit ihrem Appsystem^^(was übrigens genauso funzt wie bei Linux die Progs, OpenSource)).

Übrigens würde ich DX9 und 11 nicht zu hoch loben, OpenGL lief seit Ewigkeiten besser wenn man die Wahl hatte, MS hat nur bei Dx9 mal im Feld das vierblättrige Kleeblatt gefunden und alle Entwickler an die Plattform gebunden. Und grad DX 10 war ja ma wieder ein griff ins Klo. DX11 is dann die Fortsetzung des ganzen, die jetzt sichtbare Effekte zeigt die einem auch wirklich was bringen obwohl das auch alles nichts zu melden hat weil das nur die Softwareseite ist. Die Hardwareseite ist interessant, auch bekannt als Shader, die werden dann nur von DX unterstützt bzw. angesprochen, das würde übrigens bei jedem OS gehn, gäbs da nich die Lizenzen von MS.
Ich hab übrigens schon als Kind nen Robotron gehabt und seit dem so ziemlich alle Entwicklungen über mich ergehen lassen. Die ganzen Inkompatibilitäten sind mir daher sehr wohl ein Begriff, da ich auch selbst immer irgendwo ein lauffähiges Windows hatte, was von Version zu Version mehr Fehler beinhaltete.

Mich regt an der ganzen Diskussion auch einfach nur auf das man nicht mehr objektiv zwischen den Grafikarten unterscheiden kann. Wer unbedingt das Nvidia Megateil mit zwei GPUs und 32A Starkstromanschluss brauch solls von mir aus haben wenn er damit irgendwelche 3D renderings für in 3 Jahren macht^^. Aber alle döhnsen einen mit irgend einem Hickhack zu, wo keiner mehr durchblickt. Es gab mal Zeiten, da gabs 3-4 extensions, GT, Ultra, SE und zu jeder dann ne mobile Variante und eine Desktopvariante. Da konnte man noch sagen, die Ultra is das Schlachtschiff, die GT die gepimpte und der rest is Standart für n Workstationbereich bzw. is ne Weiterentwicklung im SE-fall. Dazu gabs dann immer mal was ausgefallenes auf ner Messe oder für den HighEndBereich und vor allem gabs zu allem ne Referenzhardware, wo man wusste, Board mit dem Chipsatz, so viel Ram und dann lief das auf jeden Fall innerhalb der Parameter die man sich gedacht hatte.
Heute gibts zu jeder Reihe 30 Modelle, die im Rechentest jeweils paar Frames auseinander liegen und Preislich in keiner Relation stehn. Dazu kommt dann noch SLI und Crossfire die nachweislich im Homebreich keinen Sinn haben, genau wie dieser Hybridmist im Homebereich nix bringt, weil das System Fehlerhaft entworfen ist und das ganze ist noch gepaart mit Kilowattnetzteilen, die ne Einzimmerwohnung beheizen können. Obendrauf auf alles setzen sich dann Grafikkarten die technologisch so hoch gepusht sind das die Chipproduktion schon unter 50% funktionierender Hardware bringt. Der quasi entstehende Abfall ist die Grundalge für die Low-Levelvarianten für die manche auch noch satt Kohle raushaun. Von den Mobochipsätzen und restlicher Referenzhardware will ich gar nich anfangen die noch versuchen sich gegenseitig die Augen aus zu hacken mit Problemen Marke Eigenbau.
Insgesammt fragt man sich dann was soll das? Und dazu kommen dann solche sinnlosen Tests an allen Ecken, die das ganze noch mehr durcheinander würfeln, da geht mir der Hut hoch^^.
12.) hmd 18.02.2010 - 09:44 Uhr
Sorry, aber das ist doch ein wenig objektiver Rundumschlag. x86/x64/Microsoft ist nun mal der Standard, da kannst du jetzt noch 1000x jammern und dein UNIX heraufbeschwören. Wenn man sich fürs Linksfahren entschieden hat, machts einfach keinen Sinn das ständig zu ändern. Auch wenn sich UNIX als Standard duchgesetzt hätte (möglicherweise wärs besser, bestreite ich nicht), das System veraltet mit der gleichen Geschwindigkeit wie das von Microsoft und den ganzen Krempel an Kompatibilität muss man selbstverständlich auch mitziehen. Aber gut bei UNIX sind die User ja sehr tolerant, wenn sich was nicht installieren lässt, ist es halt so (jeder ist ja ein Profi und kann in den Systeminternas suchen ;), Hauptsache man verwendet kein Microsoft = Kiddielogik.

Und ja, ich kenn die Problematik bezüglich Treiber, Programmierung, fehlende Standards aus dem Sektor AutoCAD. Ich denke du hast keinen Schimmer wieviel Probleme, Inkompatibiltäten damals die Norm war. Das ist heute alles um Faktoren besser. Mit DX9-11 die Standards für Hardware-Shading mit simuliertem Licht in den 3D-Programmen wie 3DS-Max auch ohne Spezialkarten wirklich gut funktioniert. Früher musste dafür 2000 Euro hinblättern, damit ein Spezialtreiber überhaupt die Hardware ansteuern konnte.

Die Preise sind mit zunehmenden Standards immer stärker gefallen, selbst der Apple-Computer ist heute ein normaler PC (auch langsam anständige Preise). Hat man einen Standard, kann man die Hardware untereinander auswechseln, was mehr Produkteauswahl und schlussendlich durch die Konkurrenz ud schlussendlich der günstige Preis entstehen kann. Aber gut für euch ist das selbstverständlich.

Wenn jeder hardwarenah sein eigenes Ding produzieren würde, hat man ganz bestimmt keine Kompatibilität. Was bewirkt, dass jeder in seiner Nische wegen fehlender Konkurrenz hohe Preise verlangen kann. Wer keine Konkurrenz hat, hat auch kein Grund sich zu verbessern. Da wähl ich doch lieber auf der tiefen Ebene des OS den Monopolisten, als das ich mich bei den Programmen mit den Inkompatibilitäten herumschlagen muss.
11.) Luk Luk 18.02.2010 - 04:10 Uhr
Schöner Post rizawi, lustig :D
10.) rizawi 18.02.2010 - 01:09 Uhr
@hmd Was da aus dem Nvidia Lager kommt ist keine Ideologie, wenn du mal ne eigene Hardware mit ner eigenen Software entworfen hättest, wüsstest du, das ne abgestimmte Hard- und Software bis zu 100% mehr Leistung bringt als der ganze Crossovermist. Der bringt nämlich die Kompatibilitätsprobleme. Wenn man sich mal ARM Solutions anguckt sieht man, was ne komplett eigene Plattformentwicklung bringt, mit eigenem Betriebssystem. Ist irgendwo auch logisch. Das Problem kommt z.B. erst mit dem Microsoftmonopolismus.
Da versucht eine Firma, aus einem 20 Jahre alten Kernel, ein System zu bauen, was die komplette Bandbreite an völlig überladener und sinnlos gepushter Hardware abdecken will und gleichzeitig noch den Powerhunger anheizen soll. Würden AMD und ATI bzw. Intel und Nvidia ihr eigenes Süppchen kochen auf gleichem Preisniveau mit ähnlichen Leistungswerten und vielei 10 Solutions pro Jahr mit abgestimmten OS, hätten wir einen schönen eindeutigen Markt. Wer leistet mehr, wer kostet mehr...Angebot, Nachfrage und die Zusatzsoftwareentwickler müssten dann halt sehn für wen sie entwickeln. Das was wir jetzt haben, ist ein Hickhack, was nicht mehr in der Realität ausgetragen wird, sondern in Artikeln irgendwelcher Schmierblätter, die den Wert ihrer Verträge mit den Herstellern etwas Pushen wolln, indem sie ne Absatzsteigerung für Vertreiber X erreichen. Nichts anderes zeigen diese tollen Tests, nichts reales, alles virtuell, theoretisch möglich.
Und das is es auch nur was die wollen, würden die Leute alles verstehn wär das für die der Untergang, dann wäre UNIX das Weltweit meist betrieben System, alle hätten nen Rechner von vor zwei Jahren, der wie ich gut behaupten kann alles von heute auf super quali wiedergeben kann und iwelcher kram, wo man sich statt in der Realität zu leben durch virtuelle Welten schlägt wäre unbeliebt, wegen Stumpfsinnigkeit. In dem Fall, gäbe es keinen Grund auszutüfteln, ob nun die Nvidia Geforce 1Trillionen284GTX super sontwas edition mit Helicopterkühlung, die ati 2Milliarden870 dualcore 20fach Crossfire mit eigenem Stromgenerator um 5 punkte im Polygonentest schlägt^^. Und wenn man mal die Foren etwas eingängig nach allen Grafikkartenversionen die es zu jeder Grafikkarte so gibt durchsucht(und auch andere Hardware), ist Inkompatibilität eine Massenbewegung...(das geht da nich, blackscreen hier, bluescreen da und ab und zu ein exception error sonst wo mit Driver is not working Zugabe...)
9.) Madbomb 17.02.2010 - 21:14 Uhr
Ich bedanke mich mal bei Dampfkanes für die Fortführung des Artikels.
War schon bei der Überschrift etwas verdutzt weil man immer aus der Nv Ecke höhrt, dass von dort die bessere Lösung für GPU Computing kommt. Zumal Planet3DNow! mir immer etwas Pro ATI vorkommt, aber was solls.

Editiert doch einfach den Artikel um die aufgeführten Infos, dann ist der Artikel okay und zeigt auf, dass auch ATI unter bestimmter Software aufwarten kann!
8.) hmd 17.02.2010 - 10:09 Uhr
Macht einmal mehr klar, dass mit DX11 und Windows7 unabhängige Standards nötig sind, damit man in Zukunft die Rechenkraft der Grafikkarten nutzen kann. Hier haben wir jetzt den Fall wo die ATI-Karten profitieren. Man muss sich mal vorstellen, wenn dieser Unsinn auch bei den CPUs vorhanden wäre. Je nachdem AMD oder Intel-CPUs nicht mal ansatzweise ihr Potenzial nutzen könnten. Da würde sich auch jeder an Kopf fassen.

Bei den Grafikkarten gibts jede Menge Fürsprecher (spez. aus dem Nvidialager), die die Ideologie vertreten, dass man mit spezialiserter Software die nur auf dieser Hardware läuft, Fortschritte erzielen würde. Auf lange Sicht ist das der beste Weg zu saftig überhöhten Preisen, Spezialtreiber-Gebastel und Inkompatibilitäten.
7.) rizawi 16.02.2010 - 23:54 Uhr
Das is ja mal wieder n Artikel mit der Aussagekraft eines Interviews mit der Merkel. Man stellt iwelche theoretischen Werte zur Schau und dann: Planet3DNow! betont am Ende seines Tests, dass an dieser Stelle lediglich Distributed-Computing-Anwendungen gegenübergestellt wurden und somit nicht allgemein gesagt werden kann, dass AMD-GPUs eine deutlich bessere GPU-Computing-Performance besitzen.
Man sagt aus, wir ham mal gemessen aber bitte verlassen sie sich nicht drauf, lol. Da kann ich auch ne bestoch, äh gekaufte Hardwarezeitung lesen, die behaupten wenigstens ihre Tests währen 100% verlässlich. Wozu schreiben die so nen Mist? Es zählt nur eins, InApp FPS und die sind von Anwendung zu Anwendung extrem verschieden zwischen den Herstellern und auch extrem Plattformahängig. Für mich is dieser Test nur ein weiterer Versuch die Nvidia vs. ATI diskussion neu aufzuwärmen bevor die neuen Grakas kommen...
6.) core 16.02.2010 - 19:47 Uhr
ah ok hab mir den Originaln Artikel nicht angeschaut! Danke für die Info...

vlt sollte man das mal überarbeiten, der HWI-Artikel ist doch recht irreführend
5.) Dampfkanes 16.02.2010 - 19:29 Uhr
was ich noch vergessen hatte (im Artikel würde es aber drin stehen): für ATI und nVidia gibts unterschiedliche Clients und unterschiedliche Projekte. Auch gibts innerhalb des jeweiligen Graka-Herstellers unterschiedliche Projekte. Von daher kann man die Rechenzeit pro relativem Rechenfortschritt (bzw. pro Frame; der Client zählt von 0 bis 100 % hoch) nicht unbedingt miteiander vergleichen. Auf meiner GTX 280 läuft momentan ein Projekt, das benötigt pro Frame nur 99 Sekunden und die Graka erreicht dabei 7600 PPD (in etwa das, das auch in dem Test trotz der höheren "Rechenzeit" erreicht wurde)
edit den Edit-Button bzw. das Fenster dazu hab ich leider zu spät gesehen
ich hatte die HD 5870 selbst bei F@H ausprobiert. Leider wird die theoretische Rechenleistung dort bei weitem nicht genutzt.
4.) Dampfkanes 16.02.2010 - 19:26 Uhr
@core der entscheidende Wert bei Folding@Home ist der PPD-Wert (Point per Day=Punkte pro Tag). Der Hinweis "niedriger ist besser" bei der Rechenzeit ist an der Stelle irreführend. Die Spalte "Leistung" bezieht sich auf die Spalte "Points per Day". Auf Seite 17 des Testberichts von planet3dnow steht ja sogar folgendes zu lesen: "Unter dem Strich fährt man mit den aktuellen Applikationen unter Folding@home mit einer NVIDIA-Karte deutlich besser."
Aber ja, ich hätte wohl nicht davon sprechen sollen, dass die GTX 275 schneller ist. Die Leistung ist gemessen an der PPD 95 % höher, hätte wohl besser gepasst.
3.) core 16.02.2010 - 11:28 Uhr
@Dampfkanes... oben im text steht doch das die 4890 doppelt so schnell bei folding@home arbeitet wie die 275...von daher verstehe ich deine Aussage jetzt nicht ganz...
2.) KonKorT 15.02.2010 - 23:21 Uhr
Das lässt sich nicht mit Sicherheit sagen. Die angegebenen Prozentzahlen lassen tatsächlich diesen Schluss zu, allerdings ist in der Tabelle die Rechenzeit auf den Nvidia-Karten deutlich höher und niedriger ist hier besser.
1.) Dampfkanes 15.02.2010 - 20:21 Uhr
in allen 4 testen dominiert ATI nicht. Bei Folding@Home ist die GTX 275 95 % schneller als die HD 5850. Allerdings ist die Umsetzung für ATI wohl recht alt. Da aber noch kein neuer ATI-Client (bzw. ein Client mit OpenCL-Unterstützung) in Sicht ist, der dies eventuell ändert, kann die Empfehlung für Folding@Home momentan immer noch nur nVidia lauten.