Milkyway@home läuft bereits mit GPU-Client ?

Astronomie (Einstein, Universe@Home, Milkyway@home, ...)
Nachricht
Autor
Benutzeravatar
Schla
Vereinsmitglied
Vereinsmitglied
Beiträge: 166
Registriert: 27.11.2006 17:28
Wohnort: Düsseldorf

Re: Milkyway@home läuft bereits mit GPU-Client ?

#13 Ungelesener Beitrag von Schla » 28.02.2009 18:23

Ich hatte letztes Wochenende den GPU-Client von Gimpel in Benutzung. FAZIT: Er cruncht wie Sau, aber wie mein Vorredner schon erwähnte, die WUs kamen immer nur tröpfchenweise.

Nun hat man die WU-Rate auf 6 WUs/Kern reduziert ( wenn auch angeblich nur temporär ), sodass eine vernünftige Auslastung der Grafikkarte annähernd unmöglich ist.

Ich werde es auch nie verstehen, warum man nicht mal ein paar Tausend WUs auf Halde produziert...so langsam blicke ich bei MW einfach nicht mehr durch.
Bild

Benutzeravatar
X1900AIW
TuX-omane
TuX-omane
Beiträge: 2869
Registriert: 05.01.2008 16:34

Re: Milkyway@home läuft bereits mit GPU-Client ?

#14 Ungelesener Beitrag von X1900AIW » 28.02.2009 18:51

Hier mal ein erhaschter Blick in meine Taskliste, inzwischen ist die Bandbreite an Workunits größer geworden, ersichtlich an der CPU-Zeit:

Bild

Cluster Physik hat im MilkyWay-Forum auch Performance-Relationen der einsetzbaren Grafikkarten genannt (zur nicht verfügbaren 4890 sicherlich spekulativ, siehe Computerbase-News):
  • 3850 : 3870 : 4830 : 4850 : 4870 : 4890 (850MHz) : 4890 (850 MHz, 960 shader ?)

    1 : 1.16 : 1.72 : 2.33 : 2.80 : 3.17 : 3.81 (Quelle)
... sowie eine Erklärung für die Werte in der Taskliste:
  • "The times you see in the task list are actually CPU times. But the CPU time has no immediate meaning for WUs crunched on the GPU. With a new test version I have already seen CPU times as low as 1.0 seconds for a 8 credit WU. If you lower the CPU load of the GPU app the measured CPU times will also be lower.

    Sometimes the wall clock time in the task details will give you some indication of the real times. If for instance 4 WUs run at all times, the wall clock time will be roughly 4 times the time a single WU actually needed to be crunched on the GPU. But this also only works if you have 4 identical WUs. If they are of different types this method will also give somewhat skewed results.

    I have to think about how to measure some kind of GPU time. But this will be hard as the GPU executes the stuff asynchronously. If you want to measure it correctly, you have to poll the GPU very fast (raising the CPU load). Maybe I find a way to do this without an excessive CPU load and add it later to enable easier comparisons." (Quelle)
Zusammenkommen ist ein Beginn, Zusammenbleiben ist ein Fortschritt, Zusammenarbeiten ist ein Erfolg.
Henry Ford

Benutzeravatar
Myrmidon
Brain-Bug
Brain-Bug
Beiträge: 542
Registriert: 04.10.2007 17:55

Re: Milkyway@home läuft bereits mit GPU-Client ?

#15 Ungelesener Beitrag von Myrmidon » 01.03.2009 09:28

Also mittlerweile bekomme ich durchgängig WUs!!!
Bild

Bild

Benutzeravatar
X1900AIW
TuX-omane
TuX-omane
Beiträge: 2869
Registriert: 05.01.2008 16:34

Re: Milkyway@home läuft bereits mit GPU-Client ?

#16 Ungelesener Beitrag von X1900AIW » 01.03.2009 09:54

Kann ich bestätigen, hatte gestern die BOINC-Einstellungen nur bei MilkyWay auf 2 Prozessoren zurückgestellt (sonst verwende ich ja Quads und entsprechend die Einstellung 4), entweder es lag daran (seit dem klappt es deutlich besser) oder die Verfügbarkeit hat sich tatsächlich erhöht. An die Perfomance einer 4850/4870 komme ich trotz zwei laufender HD3850 nicht heran, obwohl beide wirklich voll ausgelastet (99%) laufen laut GPU-Z.

Gipsel spricht von einer erreichbaren Tagesleistung von 60-65k Punkte für eine HD 4850:
http://www.planet3dnow.de/vbulletin/sho ... ost3879853
Zusammenkommen ist ein Beginn, Zusammenbleiben ist ein Fortschritt, Zusammenarbeiten ist ein Erfolg.
Henry Ford

Benutzeravatar
Myrmidon
Brain-Bug
Brain-Bug
Beiträge: 542
Registriert: 04.10.2007 17:55

Re: Milkyway@home läuft bereits mit GPU-Client ?

#17 Ungelesener Beitrag von Myrmidon » 01.03.2009 10:37

X1900AIW hat geschrieben:Kann ich bestätigen, hatte gestern die BOINC-Einstellungen nur bei MilkyWay auf 2 Prozessoren zurückgestellt (sonst verwende ich ja Quads und entsprechend die Einstellung 4), entweder es lag daran (seit dem klappt es deutlich besser) oder die Verfügbarkeit hat sich tatsächlich erhöht. An die Perfomance einer 4850/4870 komme ich trotz zwei laufender HD3850 nicht heran, obwohl beide wirklich voll ausgelastet (99%) laufen laut GPU-Z.

Gipsel spricht von einer erreichbaren Tagesleistung von 60-65k Punkte für eine HD 4850:
http://www.planet3dnow.de/vbulletin/sho ... ost3879853
Die Tagesleistung kann ich bestätigen.

Bei mir laufen immer 3 threads gleichzeitig, sprich 1,5 CPUs sind ausgelastet, damit scheint die Karte gut ausgelastet zu sein.
Bild

Bild

Benutzeravatar
laguna
TuX-omane
TuX-omane
Beiträge: 2789
Registriert: 08.10.2003 09:36
Wohnort: Ettingshausen

Re: Milkyway@home läuft bereits mit GPU-Client ?

#18 Ungelesener Beitrag von laguna » 01.03.2009 10:53

Ich werde am Montag eine 4670 holen und drauf ansetzen...
Mal sehen, was die so reisst...

http://www.alternate.de/html/product/Gr ... CIe&l3=ATI
Bild Bild

Benutzeravatar
X1900AIW
TuX-omane
TuX-omane
Beiträge: 2869
Registriert: 05.01.2008 16:34

Re: Milkyway@home läuft bereits mit GPU-Client ?

#19 Ungelesener Beitrag von X1900AIW » 01.03.2009 11:25

Bist du sicher, daß die 4670 unterstützt wird ? Eine 4830 ist im Forum bestätigt worden, bei der 4670 wäre ich vorsichtig (einen Lösungsvorschlag hatte ich gesehen) bzw. würde das im P3D-Forum lieber abklären. Der Preisunterschied zwischen RV730 und RV770 ist nicht so groß, die Leistungsaufnahme jedoch spürbar (Computerbase-Test, Nachtest beachten), gebe ich zu.
  • "ATi setzt auf der Radeon HD 4830 keinen anderen Chip sondern weiterhin den RV770 ein, der ebenfalls auf der Radeon HD 4850 Verwendung findet. Damit umfasst die GPU 965 Millionen Transistoren, die bei dem taiwanesischen Fremdfertiger TSMC im 55-nm-Prozess hergestellt wird. Allerdings belässt man den RV770 auf der Radeon HD 4830 nicht bei den maximal möglichen Einheiten, sondern deaktiviert einige Teilbereiche, um so in eine andere Performanceregion vordringen und um teils defekte RV770-GPUs weiter verkaufen zu können.

    Auf der Radeon HD 4830 lässt ATi von den 160 5D-Shadereinheiten noch 128 Shader übrig, indem man anstatt der zehn nur noch acht SIMD-Blöcke arbeiten lässt. Jeder SIMD-Block besteht aus 16 Shadereinheiten, die wiederum jeweils fünf skalare ALUs beinhalten, die pro Takt ein MADD (Multiply-ADD) berechnen können. Eine der fünf ALUs wird je nach dem jedoch auch durch andere Aufgaben wie zum Beispiel eine SF-Berechnung wie eine Kosinus-Operation blockiert.

    Aufgrund der acht SIMD-Blöcke gibt es nur noch acht Texturcluster, die pro Stück auf vier vollwertige Texture Mapping Units, kurz TMU, setzen. Pro Takt kann ein Pixel adressiert und texturiert werden. Auf der Radeon HD 4830 gibt es mit 32 Textureinheiten somit acht TMUs weniger als bei einem vollaktivierten RV770. Die meisten Chipteile takten auf der Radeon HD 4830 mit 575 MHz etwas langsamer als auf der Radeon HD 4850." (Quelle)
Demgegenüber die 4670:
  • "Die ATi Radeon HD 4670 basiert auf der 514 Millionen Transistoren schweren RV730-GPU, die im 55-nm-Prozess bei TSMC hergestellt wird. Die Architektur des RV730 ist größtenteils identisch mit der des RV770, allerdings hat man diverse Recheneinheiten entfernt, um den Chip günstiger herstellen lassen zu können. Die eigentlichen Fähigkeiten sind aber identisch geblieben, weswegen wir für nähere Technik-Details immer noch das Launch-Review zur Radeon-HD-4800-Serie empfehlen können.

    Während der original RV770 über zehn SIMD-Shadereinheiten mit je 16 5D-Shadereinheiten verfügt (insgesamt 160 5D-Shader), sind von diesen auf dem RV730 nur noch acht übrig geblieben. Doch wenn man jetzt davon ausgeht, dass auf dem RV730 somit noch satte 128 5D-ALUs vorhanden sind, so müssen wir dies leider verneinen. Denn das RV700-Design scheint flexibler zu sein als man bis jetzt vermutet hatte. Anstatt 16 5D-Shadereinheiten pro SIMD wurde die Anzahl der ALUs beim RV730 halbiert. So setzt die Radeon HD 4600 auf acht SIMD-Blöcke mit je acht 5D-ALUs, was in 64 5D-Shadereinheiten resultiert.

    Die 5D-Einheiten können sich theoretisch im Verhältnis 1:1:1:1:1 aufsplitten (wobei sie sich dann wie Skalarshader verhalten), jedoch müssen die Operationen dafür vollkommen unabhängig voneinander sein. Sind sie hingegen voneinander abhängig, warten einige ALUs auf die Ergebnisse der anderen und stehen still. Der Thread-Scheduler versucht dies zu verhindern und die ALUs mit anderweitigen Aufgaben zu belegen, doch ist dazu eine Menge Treiberoptimierung von Nöten. Jede ALU kann auf dem RV730 eine MADD-Operation (Multiply-ADD) pro Takt durchführen." (Quelle)
Da der Speichertakt bei MilkyWay laut Gipsel kaum eine Rolle spielt, zählen allein die Shader-Leistungswerte. Selbst takte ich jedoch den VRAM meiner 3850 (noch) nicht herunter, falls ich´s länger laufen lasse, gehe ich das evtl. an.
Zusammenkommen ist ein Beginn, Zusammenbleiben ist ein Fortschritt, Zusammenarbeiten ist ein Erfolg.
Henry Ford

Benutzeravatar
laguna
TuX-omane
TuX-omane
Beiträge: 2789
Registriert: 08.10.2003 09:36
Wohnort: Ettingshausen

Re: Milkyway@home läuft bereits mit GPU-Client ?

#20 Ungelesener Beitrag von laguna » 01.03.2009 14:23

Ach das ist doch zum k*****...
Ich glaube ich warte auf die 47xxer...
Bild Bild

Benutzeravatar
X1900AIW
TuX-omane
TuX-omane
Beiträge: 2869
Registriert: 05.01.2008 16:34

Re: Milkyway@home läuft bereits mit GPU-Client ?

#21 Ungelesener Beitrag von X1900AIW » 01.03.2009 15:21

Sorry :-?
Die leise Luxusvariante kostet deutlich mehr: Asus EAH4850 MATRIX (edel-grafikkarten, geizhals), passiv ist bei den 4850er nur die von Gigabyte (geizhals).

Eine aktiv gekühlte, angeblich recht leise 4830 von H.I.S. wäre nichts für dich ? (Computerbase-Erfahrung 1, 2, Detail-Fotos, Review + 3Dgameman-Video). Ab 110 Euro (geizhals) bzw. 125 bei Alternate.
Zusammenkommen ist ein Beginn, Zusammenbleiben ist ein Fortschritt, Zusammenarbeiten ist ein Erfolg.
Henry Ford

Benutzeravatar
laguna
TuX-omane
TuX-omane
Beiträge: 2789
Registriert: 08.10.2003 09:36
Wohnort: Ettingshausen

Re: Milkyway@home läuft bereits mit GPU-Client ?

#22 Ungelesener Beitrag von laguna » 01.03.2009 16:27

Kannst Du ja auch nix für, das ich so zickig bin. :lol:
Nein, aktiv gekühlt kommt mir nicht ins Gehäuse. Wenn schon Graka, dann passiv.
Wenn die 4850er nicht über meinen Limit liegen würde...

Hmm.... mal sehen, vielleicht werde ich ja doch noch schwach...
Bild Bild

Benutzeravatar
Myrmidon
Brain-Bug
Brain-Bug
Beiträge: 542
Registriert: 04.10.2007 17:55

Re: Milkyway@home läuft bereits mit GPU-Client ?

#23 Ungelesener Beitrag von Myrmidon » 02.03.2009 10:48

Dual-Karten scheinen noch nicht richtig zu funktionieren, man sollte lieber nur einen Chip rechnen lassen.

Es wird im Forum von Planet 3D NOW berichtet, dass die Radeon HD4870 um die 100.000 Punkte pro Tag crunchen soll.

Wie X1900AIW beschrieben hat, ist der Speichertakt zum Crunchen unwichtig, weshalb ich ihn von knapp 1000 MHz auf 500 MHz runtergestellt habe (HD 4850). Dies erscheint insofern logisch, da beim Auslesen des VRAMs mittels Rivatuner kein Grafikkartenspeicher in Benutzung scheint.

PS: Im übrigen hab ich noch eine gebrauchte Radeon HD 3850 an den man zu bringen ;-)
Bild

Bild

Benutzeravatar
X1900AIW
TuX-omane
TuX-omane
Beiträge: 2869
Registriert: 05.01.2008 16:34

Re: Milkyway@home läuft bereits mit GPU-Client ?

#24 Ungelesener Beitrag von X1900AIW » 03.03.2009 18:35

Das Team Planet 3DNow! wurde umbenannt, um offenbar für die Punkteproblematik bei MilkyWay zu "sensibilisieren". Neuer Name: "Milkyway damages credits system" :uhoh:
http://milkyway.cs.rpi.edu/milkyway/tea ... ?teamid=58
Zusammenkommen ist ein Beginn, Zusammenbleiben ist ein Fortschritt, Zusammenarbeiten ist ein Erfolg.
Henry Ford

Antworten

Zurück zu „Astronomie“