Intel demonstriert Resilient Computing

IntelUnter Resilient Computing fasst Intel eine neue Technologie, mit der man seine Prozessoren noch effizienter rechnen lassen möchte. Einen ersten Prototypen, der Resilient Computing nutzt, führte man jetzt auf einer Veranstaltung in Brüssel vor.
Generell gilt bei Resilient Computing: Je öfter sich ein Prozessor verrechnet desto schneller oder sparsamer wird er.

Werden auf Halbleiter Taktraten angelegt, die die vorgegebene Spannung nicht Stand halten kann, kommt es zu elektronischen Anomalien, die nicht selten in einem Absturz des Chips münden. Würde man im Vorfeld die Fehler erkennen können, könnte man daraus Profit schlagen und die Taktfrequenzen erhöhen. Erhöhte Taktfrequenzen würden zwar unweigerlich zu mehr Fehlern führen, derer wäre man sich aber ja im vorhinein bewusst und könnte entsprechend optimieren und Leistung steigern oder Verbrauch senken.

Ein Intel-Forschungschip, der es vermag, wie oben dargelegt, elektronische Anomalien im Vorfeld zu erkennen, ist Palisades, der auf einem RISC-Design aufsetzt. Er besitzt schlichtweg zusätzliche Schaltungen, die den Zustand der CPU überwachen können. Ein Teil dieser Schaltungen ist wohl auch schon in der Power Control Unit der Nehalem-Prozessoren enthalten, die aus etwa 1 Millionen Transistoren besteht und sich dafür verantwortlich zeigt, ob der Takt einzelner Kerne erhöht oder gesenkt wird (Intel Turbo Mode-Technologie).

Intel gibt inzwischen sogar schon konkrete Steigerungen an, die durch Resilient Computing erzielt werden: Entweder erhöht sich die Rechenleistung um etwa 40 Prozent bei gleicher Leistungsaufnahme oder die Leistungsaufnahme fällt um etwa 20 Prozent bei selber Rechenleistung.
Wann Resilient Computing marktreif wird, ist noch unbekannt. Vielleicht gibt es ja schon in der kommenden Sandy Bridge-Architektur erste Ansätze.


Kommentar schreiben

  • Loggen Sie sich oben mit ihren Benutzerdaten ein, um Kommentare zu verfassen.
  • Falls Sie noch kein Mitglied sind, können Sie sich in unserem Forum registrieren.

9 Kommentare

9.) Overclocked 08.05.2010 - 16:12 Uhr
danke für den Link hat geholfen :)
8.) SunBlack 08.05.2010 - 11:52 Uhr
Vlt. hilft dir beim verstehen dieser Artikel hier weiter
7.) Overclocked 08.05.2010 - 09:57 Uhr
Quote:
Generell gilt bei Resilient Computing: Je öfter sich ein Prozessor verrechnet desto schneller oder sparsamer wird er.


ist für mich irgendwie logisch nciht nachzuvollziehen? Könnte mir jmd das mit anderen Worten erklären :P

Quote:

Werden auf Halbleiter Taktraten angelegt, die die vorgegebene Spannung nicht Stand halten kann, kommt es zu elektronischen Anomalien, die nicht selten in einem Absturz des Chips münden. Würde man im Vorfeld die Fehler erkennen können, könnte man daraus Profit schlagen und die Taktfrequenzen erhöhen. Erhöhte Taktfrequenzen würden zwar unweigerlich zu mehr Fehlern führen, derer wäre man sich aber ja im vorhinein bewusst und könnte entsprechend optimieren und Leistung steigern oder Verbrauch senken.
´

Was bringt es einem zu wissen das sich die CPU verrechnet? Dadurch verrechnet sich die CPU ja trotzdem noch... und man erhält ja nicht das richtige Ergebniss einer Berechnung oder? wenn man dann die Taktfrequenzen noch erhört wird die CPU doch noch seltener richtig rechnen... somit bekommt man fast nur falsche Ergebnisse? Oder verstehe ich da was komplett falsch?! :shock:
6.) N1truX 08.05.2010 - 09:47 Uhr
Ich bin da recht skeptisch. Ich denke mal 40% dürften das Optimum darstellen. Allerdings muss die Fehlererkennung ja zu 100% treffen, sonst verrechnet sich die CPU und das darf einfach nicht passieren. Also wird man wie schon heute beim CPU-Takt gewisse Puffer einbauen müssen, damit die CPU auch garantiert richtig rechnet.
Und dann könnte man genauso gut mit mehreren Taktdomänen arbeiten.
5.) Flare 07.05.2010 - 23:09 Uhr
Soll das bedeuten: "Ein Gehirn, das selbst Tumore oder ineffiziente Bereiche in sich erkennen kann und dann diese nicht mehr mit Energie versorgt, sondern nur noch seine gesunden Teile versorgt"

Bin ich auf dem richtigen Weg oder nicht ?
4.) eXEC 07.05.2010 - 20:07 Uhr
Das würde aber gleichzeitig für eine unregelmäßige Leistung sorgen...
3.) MrMad 07.05.2010 - 19:54 Uhr
Vielleicht gibts dann ja irgendwann die 10 GHZ..... hätten ja schon mit Netburst kommen sollen. ^^
2.) touly 07.05.2010 - 17:17 Uhr
steht da doch gar nicht, da steht 40% mehr rechenleistung. Kann ja aus den Optimierungen kommen weil andere chips bei gleicher Taktrate Fehler verursachen, die nicht berücksichitgt sind in der Berechnung und da schlechter drauf reagiert wird all es diese neue technologie tun würde. Habs jedenfals so verstanden
1.) Flamingdart 07.05.2010 - 17:06 Uhr
40% mehr Takt o,O ??
Ich glaube das ist vllt. im besten Fall so.