Intel - 1.000 Kerne pro CPU machbar

IntelIntel hat auf der Super Computer Conference in News Orleans zu Protokoll gegeben, dass man Prozessoren mit bis zu 1.000 Kernen in Zukunft für machbar hält. Erst bei höheren Kernzahlen soll dann das Kommunikationsnetz auf dem Chip die Performance negativ beeinflussen. Grundlage für den potentiellen 1.000-Kerner soll der 48-Kern-Chip "Rock Creek" sein, der 24 Dual-Cores über ein Onchip-Netzwerk verbindet. Bei diesem Ansatz könnte man einfach immer mehr Kerne hinzufügen.

Intel SCC Aufbau

Größte Hürde für mehr Kerne bei derzeitigen Ansätzen sei demnach die Cache-Kohärenz, die sicherstellt, dass alle Kerne den Speicher des Systems auf die gleiche Weise sehen. Dieses Prinzip führe aber schnell in eine Sackgasse, wenn man beliebig viele Kerne miteinander verbinden will. Dagegen zeige der in Braunschweig entwickelte 48-Kern-Chip, bei dem Kerne jeweils direkt mit anderen kommunizieren, dass man die einzelnen Doppelkerne über einen jeweils integrierten Router unabhängig voneinander arbeiten lassen könnte, um diesem Problem zu entgehen.

Intel SCC - Kommunikation

Dabei arbeiten beim 48-Kerner die einzelnen "Tiles" weitgehend unabhängig voneinander und werden lediglich über ein Netzwerkprotokoll miteinander verbunden. Man habe hier Tests mit TCP/IP gemacht, nutze inzwischen aber ein eigens entwickeltes Protokoll namens RCCE - ausgesprochen Rocky - für die Kommunikation.
Dieses System vermeidet Cache-Kohärenz in Hardware - eine Software-Emulation ist nach wie vor möglich -, wodurch man eine bessere Skalierung bei höherer Kernzahl erhält. Erst bei etwa 1.000 Kernen würde dann der Aufwand der Vernetzung den Nutzen übersteigen und das System werde ineffizient, meinte Timothy Mattson von Intel.

Ein weiterer Vorteil der unabhängigen Nodes auf dem Chip seien die Möglichkeiten der Energieeinsparung, da man die einzelnen "Tiles" mit unterschiedlichen Takten und Spannungen laufen lassen könne, die via Software festgelegt werden. Die Kontrolle darüber, wie viele Kerne und wie viel Takt er für eine Anwendung braucht, könnte man so dem Programmierer überlassen, was allerdings einige Herausforderungen mit sich bringe, so Mattson.

Intel SCC - Grundaufbau

So schön sich dies alles anhört, bleibt dann aber nach wie vor das Problem der Speicheranbindung, welches bedauerlicherweise von Intel nicht angesprochen wurde. Denn wenn 1.000 Kerne gemeinsam auf den Arbeitsspeicher zugreifen wollen, wird dieser schnell zum Flaschenhals im System werden. Bei traditionellen Cloud-Systemen ist dieses Problem nicht gegeben, da dort jeder Node seinen eigenen Arbeitsspeicher hat. Eine Analogie wäre hier daher, jedem Kern gleich den Arbeitsspeicher mit auf den Chip zu packen, ähnlich wie dies derzeit beim L2-Cache der Fall ist, doch dabei begrenzt schon allein die mögliche Fläche schnell die Größe des Speichers pro Kern.

Neu ist Intels Ansatz hierbei nicht, denn der Chip-Entwickler Tilera entwickelt und verkauft derartige Chips schon seit längerem. Der aktuell schnellste Chip Tile-Gx vereint dabei bis zu 100 Kerne. Größter Vorteil ist dabei die enorm hohe Leistung pro Watt, allerdings sind die Tilera-CPUs nicht x86-kompatibel.
Intel muss nach wie vor gegenüber GPGPU-Systemen deutlich bei der Effizienz pro Watt zulegen, um zukünftig konkurrenzfähig zu sein.


Kommentar schreiben

  • Loggen Sie sich oben mit ihren Benutzerdaten ein, um Kommentare zu verfassen.
  • Falls Sie noch kein Mitglied sind, können Sie sich in unserem Forum registrieren.

2 Kommentare

2.) isigrim 25.11.2010 - 11:42 Uhr
Wenn ich die letzten Xeon-Folien anschaue, dann scheint Intel für Haswell auch an heteorgenen Fusion-Prozessoren zu arbeiten (dort dann aber vielleicht wohl eher wenige dicke Kerne, plus viele kleine Kerne, plus Grafikeinheit). Eigentlich sollte da ja Larrabee-Tech einfließen,aber vielleicht macht mans ja dann doch eher mit der SCC-Technik, bei der die Kerne unabhäniger arbeiten.
1.) N1truX 25.11.2010 - 10:30 Uhr
Ich erinnere mich auch an eine Intel-Präsentation zum P4, wo davon gesprochen wurde wie mühelos man die 10 GHz erreichen könne..
Trotzdem sehr interessant zu sehen wie an den Problemen der Zukunft gearbeitet wird. Allerdings sehe ich das größere Problem fast eher auf Softwarebasis. Ein starker PC für ein ganzes Haus mit vielen VMs drauf die mit je einem Light-Peak Kabel die jeweiligen Arbeitsplätze verbinden - das wäre für mich Mittelfristig eine sehr starke Bereicherung :)