R700 holt Multi-Core in den Grafikkartenmarkt

AMDAuch wenn sich die schreibende Zunft momentan ausschließlich auf den R600 fokussiert, ist es nicht uninteressant, einen weiteren Schritt voraus zu schauen; natürlich immer mit der Ungewissheit im Nacken, ob es sich tatsächlich um stichhaltige Informationen handelt oder eben nur um gut inszenierte Gerüchte. Rein subjektiv betrachtet, können wir dem Gedankengang von "The Inquirer" aber sehr gut folgen und halten die aufgestellten Informationen durchaus für glaubwürdig, weswegen wir sie nachfolgend darlegen wollen.

Demnach wird uns mit dem R700 der erste Multi-Core Chip ins Haus stehen. Er verwirft quasi das Prinzip des einen, hochkomplexen Chips und teilt die Lasten auf mehrere Chips auf. Anschaulich könnte man dies so erklären: Anstatt auf einem Chip 64 Shader- und 16 Textureinheiten unterzubringen, werden nunmehr auf acht einzelnen Chips je 8 Shader- und 2 Textureinheiten untergebracht.

Zudem wird spekuliert, dass ein weiterer, so genannter "Kontroll-Chip" eingesetzt wird, der die Aufgaben der einzelnen Kerne verwaltet und somit für einen hohen Effizientheitsgrad sorgt. Der "Kontrol-Chip" stände somit immer in direktem Kontakt zur CPU und würde deren eingehende Informationen dynamisch auf die einzelnen Chips verteilen. Es gibt aber auch noch dahingehend Gerüchte, dass jeder der insgesamt acht Chips eine eigenständige Kontrollfunktion inne hat und entsprechend nicht auf einen separaten "Kontroll-Chip" angewiesen ist. Für diese Lösung spräche, dass wertvolle Transistoren eingespart werden könnten, dagegen, dass man Performance auf der Strecke lassen würde.

Es kann sogar noch eine dritte Variante zu Rate gezogen werden, nämlich die, dass die CPU den Verwaltungsaufwand übernimmt. In Anbetracht der Tatsache, dass die Prozessorhersteller immer mehr dem Trend "Multi-Core" folgen, eine nicht ausschließbare Möglichkeit. Ja, sogar sehr wahrscheinlich, wenn man bedenkt, wie eng ATi doch mit AMD zusammenarbeitet. Sie sind nach der Übernahme bekanntlich ein und dasselbe Unternehmen.

Wie eingangs erwähnt, wird die Arbeit nicht mehr nur auf einen Chip abgewälzt, sondern auf mehrere. Als Außenstehender darf man zurecht fragen, worin in dieser Lösung der Vorteil begründet liegt. Denn im Endeffekt kommt hinten das gleiche an Leistung raus; ob man jetzt acht kleine oder eben einen großen Chip die Arbeit verrichten lässt, spielt dabei eine eher untergeordnete Rolle. Nein, die Hersteller streben diese Lösung an - nVidia wird sicherlich ebenfalls alsbald auf den Zug springen -, um ihre Chips wirtschaftlicher zu machen.

Bei jeder neuen Grafikkartengeneration müssen die Hersteller beträchtliche Summen in die Entwicklung neuer Grafikchips stecken, denn der Kunde will nicht nur ein High-End Produkt, sondern auch abgespeckte Lösungen mit weniger Pipelines und oder Shader-Einheiten. Im Schnitt müssen die Grafikschmieden mit jeder Generation mindestens drei unterschiedliche Chips entwickeln, entsprechend gering fällt ihre letztliche Marge aus. Mit dem Prinzip der mehreren Chips müsste man pro Generation nur noch einen einzigen Grafikchip entwickeln. Auf Low-Cost- oder Mainstream-Lösungen würde man einfach derer sechs oder vier einsetzen und bei High-End Lösungen eben jene acht. Natürlich rein hypothetisch. Wie es die Grafikkartenhersteller letztendlich handhaben, bleibt ihnen überlassen.

Normalerweise blicken wir angesichts der eher spärlichen Informationen nur ungern soweit in die Zukunft, doch die neue Art der Grafikkartenentwicklung klingt wirklich glaubwürdig und vor allen Dingen rentabel. Falls ATi den höheren Verwaltungsaufwand meistern kann und zudem der Problematik, dass die Leistungssteigerung mit höherer Chipanzahl ein klein wenig sinkt, entgegen steuern kann, ist der Weg frei für die neue Art der Grafikdefinierung.

Über kurz oder lang werden die Hersteller auf diesen Zug steigen, denn die Vorteile im Bereich der Kosteneinsparung sind nicht zu leugnen. Einen schönen Weg, den uns ATi mit seiner übernächsten Grafikkartengeneration aufzeigt. Sicherlich werden die Hersteller dieses Konzept schon vor einigen Jahren aufgegriffen haben, wenn man einmal bedenkt, dass die Entwicklung des vor zwei Wochen erscheinenden G80 bereits 2002 begonnen hat.


Kommentar schreiben

  • Loggen Sie sich oben mit ihren Benutzerdaten ein, um Kommentare zu verfassen.
  • Falls Sie noch kein Mitglied sind, können Sie sich in unserem Forum registrieren.

0 Kommentare