Erste offizielle R600-Infos

AMDWeihnachtsstimmung mag angesichts der deutlich zu milden Temperaturen noch nicht aufkommen, weshalb man die einem bleibende Zeit vor dem großen Fest damit nutzt, hastig das Web nach neuen News zu durchforsten. Dabei wird man sicherlich hier inne halten und einmal etwas genauer vor dem Bildschirm starren. Wahrlich, erste offizielle R600-Infos sind aufgetaucht und machen Freude fürs kommende Jahr. Kein geringerer als Dave Orton, seines Zeichens gut bezahlter ATi CEO, ließ erste Infos zum R600 durchsickern. So skizzierte er auf einer Pressefolie die Entwicklung künftiger ATi GPUs für das Jahr 2007. Auffallend hierbei, dass PCI-Express 2.0 eine dominante Rolle einnimmt und im Atemzug mit Direct3D 10 genannt wird. Insofern darf man durchaus schlussfolgern, dass ATis R600 auf die zweite PCI-Express Generation setzen wird; Indizen gab es auch schon in der Vergangenheit zu Genüge.

Rollt hier mit PCI-Express 2.0 gleich ein komplett neuer Standard an, der wie beim damaligen Wechsel von AGP zu PCI-Express ein neues Mainboard zwingend erforderlich macht? Um es kurz zu machen: Nein, PCI-Express 2.0 ist abwärtskompatibel, so dass der R600 auch auf einem "normalen" PCI-Express Mainboard ohne Probleme betrieben werden könnte. Allenfalls muss man als Nicht-PCI-Express 2.0 User einen kleinen Performancenachteil in Kauf nehmen, der allerdings erst mit mehr als zwei GPUs wirklich ersichtlich werden sollte. Wozu also überhaupt einen neuen Standard einführen, wenn der heutige im Gros der Anwendungen völlig ausreichend ist? Nun, wie einigen vielleicht noch im Gedächtnis schwebt, wird mit PCI-Express 2.0 auch die interne, maximale Leistungsaufnahme gesteigert. Kann der aktuelle PCI-Express Port "nur" 75 Watt der Grafikkarte beiführen, so sind es beim PCI-Express 2.0 Port stolze 300 Watt. Die Richtung, in welche zukünftige Grafikkarten gelenkt werden, dürfte dadurch umso klarer und ernüchterner sein.

Neben dem sehr hoch erwarteten Stromverbrauch, steht aber unbändige Leistung gegenüber, die den hohen Stromverbrauch ein klein wenig vom Tisch wischen lässt. So heißt es von offizieller Seite, dass der R600 die größte Rohleistung bieten wird, die je ein Grafikchip geliefert hat. Was das nun verbündete Unternehmen hiermit genau meint, steht noch aus; ersichtlich ist jedenfalls, dass sie optimistisch in die Zukunft gucken und nicht glauben sich vor dem G80 verstecken zu müssen. Für die Kanadier spricht, dass der R600 schon ihre zweite Unified-Shader Generation ist; mit dem Xbox 360 Chip Xenos konnte man nach eigenen Angaben wichtige Erkenntnisse sammeln. Des Weiteren kristalisiert sich immer mehr heraus, dass auf dem R600 tatsächlich ein waschechtes 512-Bit Speicherinterface sitzt, das den R600 in ungeahnte Bandbreitenregionen springen lassen könnte. Doch eines steht auch fest: Der R600 muss schneller sein als der G80; alles andere wäre eine Enttäuschung, wo man doch einiges mehr an Entwicklungszeit hatte als die Konkurrenz nVidia.


Kommentar schreiben

  • Loggen Sie sich oben mit ihren Benutzerdaten ein, um Kommentare zu verfassen.
  • Falls Sie noch kein Mitglied sind, können Sie sich in unserem Forum registrieren.

0 Kommentare