Nun ist Overclocking aber ein richtiger Volkssport geworden und wird von Hardware-Herstellern mit den einfachen Tools geradezu gefördert, darüber hinaus scheint es geradezu ratsam zu sein in Kombination mit Undervolting, um die optimale Energieeffizienz für's DC zu erreichen. Also habe ich ein paar Versuche gemacht und nach scheinbar schnellen Erfolgen auch einige schmerzhafte Verluste erfahren.
Während der Rechner im 'Normalbetrieb' mit allen Overclocking-Settings gut klarzukommen scheint, sieht das bei viele DC-Projekten ganz anders aus. Also ist hier die Toleranz-Schwelle noch viel niedriger, was ich auch gleich mit Verlusten an fast fertigen WUs und an Laufzeit teuer bezahlt habe. Insgesamt scheint es sich auch bei einem einzigen Rechner kaum zu lohnen, solange der gerade 'powercruncht'. Die Auszeit, Testzeit und Fehlerausfälle können hier wohl kaum durch bessere Performance anschliessend wettgemacht werden. Und wahrscheinlich sollte man dann auch konsequent die Finger von alpha- und möglicherweise beta-Clients lassen, solange nicht klar ist, ob die absolut stabil laufen.
Auch das Testen mit verschiedenen Tools scheint nicht immer zu helfen: meine Graka schien perfekt mit 1700 MHz Shader unter Furmark zu laufen, Folding@home interessiert das aber wenig. Bei 1800 würde es erst gar nicht starten (instable client), bei 1700 oft mit Fehler im letzten Drittel abbrechen, erst bei 1600 MHz habe ich dann stabil WUs zu Ende gebracht. Bei der CPU dagegen hat mir Prime95 geholfen, den Fehler zu finden: bei FSB 360 treten Bluescreens auf, bei 355 läuft alles prima. So habe ich wenigstens eine mögliche Erklärung gefunden, warum mir QMC alpha-Clients abgeschmiert sind und das System mitgenommen haben.
Nach langem hin und her bin ich also (vorläufig) bei diesen Einstellungen gelandet. Vielleicht habt Ihr noch Tips, wie ich das verbessern kann oder effizienter machen kann:
Die CPU kann meinetwegen auch so bleiben, bis ich einen leiseren Lüfter gefunden habe, die Graka macht mir aber echt Probleme. Die GPU-Profile habe ich mit nTune erzeugt (rechnet vorab anhand der GPU-Clock), aber es ist mir nicht gelungen, stabil einen höheren Shader-Takt zu finden. Ausserdem muss ich das Profil immer über Autostart laden, da ich mich noch nicht an NiBiTor herantrauen mag. Auf Dauer werde ich das wohl aber machen müssen, denn das ganze Gefrickel mit Autostart-Profilen nervt doch ordentlich, und Undervolting ist so auch nicht möglich. Riva-Tuner scheidet auch aus, weil er nur unter Administrator-Rechten voll funktioniert.CPU
Specification Intel(R) Core(TM)2 Quad CPU Q9550 @ 2.83GHz
FSB 355 (Bios)
Core Speed 3017.6 MHz
Undervolting: 1.06xx V im Bios, läuft gerade unter Volllast bei 0.98/99 V
RAM
Speicherbusgeschwindigkeit : 2x 473MHz (946MHz)
Speichermodul Hersteller : OCZ
Modell : OCZ2P10002G
Typ : 2GB DIMM DDR2
GPU
Name NVIDIA GeForce 9500 GT
Memory size 512 MB
Memory type DDR2
Core clock 694.0 MHz
Shader clock 1614.0 MHz
Memory clock 539.0 MHz
Performance Information
-----------------------
Memory Copy
Host Pinned to Device: 5217.47 MB/s
Host Pageable to Device: 2949.46 MB/s
Device to Host Pinned: 5231.69 MB/s
Device to Host Pageable: 2902.64 MB/s
Device to Device: 7094.08 MB/s
GPU Core Performance
Single-precision Float: 101859 Mflop/s
Double-precision Float: Not Supported
32-bit Integer: 20451.1 Miop/s
24-bit Integer: 101920 Miop/s
Gibt es eine Möglichkeit, die optimale Undervolting-Einstellung zu testen, ohne in den GPU Bios zu schreiben, nachdem ich einmal die beste Einstellung gefunden habe?
So, das war jetzt erst mal viel Stoff. Danke für's Lesen und Danke für Eure Hilfe. Vielleicht hilft es ja auch ein paar anderen NewBies beim DC-Overclocken.