Seite 1 von 2

[Sterne und Weltall] Einstein@home

Verfasst: 05.12.2011 21:50
von yoyo
Ein Artikel von Benjamin Knispel in der Novembersausgabe von Sterne und Weltall über Einstein@home:
http://t.co/g3rPo2h9

yoyo

Re: [Sterne und Weltall] Einstein@home

Verfasst: 05.12.2011 22:10
von M. Franckenstein
Guter Artikel !!!!

Re: [Sterne und Weltall] Einstein@home

Verfasst: 06.12.2011 14:42
von Myrmidon
Danke, super Artikel!

Re: [Sterne und Weltall] Einstein@home

Verfasst: 07.12.2011 15:36
von intFRami
Die Software von Einstein@home arbeitet ähnlich wie ein Bildschirmschoner. Wird der heimische PC nicht für andere Aufgaben genutzt, so analysiert das Programm Daten des Projekts, und auf dem Bildschirm erscheint eine farbige Grafik.
Leider suggeriert der Autor wie die meisten anderen Autoren (egal ob für Zeitschriften oder Rundfunk), dass das Berechnen normalerweise während den Zeiten stattfindet, indem der Bildschirmschoner aktiv ist. Leider hält sich diese sonderbare und ungeschickte Mär seit seligen Seti@Home-Zeiten (noch Vor-BOINC) hartnäckig.

Das mit dem Bildschirmschoner bzw. die Zeiten in denen der "Rechner nichts zu tun hat" ist natürlich nicht völlig falsch aber irgendwie ganz schön panne und desinformierend.

Re: [Sterne und Weltall] Einstein@home

Verfasst: 08.12.2011 01:26
von Michael H.W. Weber
Die Clients nehmen nach wie vor die Rest-CPU-Leitstung in Anspruch, sofern sie anständig programmiert sind. Nicht mehr und nicht weniger.

Michael.

Re: [Sterne und Weltall] Einstein@home

Verfasst: 08.12.2011 06:38
von Norman
moderne cpu schalten sich vollständig ab und werden erst garnicht gebraucht und das spart ne menge strom im gegensatz zu den ganz alten dienern die sowieso immer auf volldampf liefen.
man darf also nicht mehr sagen: ein rechner der sowieso an ist kann im hintergrund auch was rechnen und es macht keinen unterschied.
sehr wohl macht es das, denn die ganzen stromsparfeatures werden nicht mehr genutzt.
nehmen wir mal firma X mit 40 office-rechnern die fröhlich zwischen email und word idlen. würden diese 40 rechner der firma x crunchen bekäme der chef eine ordentlichere stromrechnung als die jahre zuvor, da viel höhere leistungsaufnahme ansteht. :evil2:

Re: [Sterne und Weltall] Einstein@home

Verfasst: 08.12.2011 08:31
von Torbjörn Klatt
Allerdings kann man die Clients so konfigurieren, dass das "BOINCen" die CPUs nicht aus dem Stromsparfeatures nimmt.

Re: [Sterne und Weltall] Einstein@home

Verfasst: 09.12.2011 06:02
von Michael H.W. Weber
Norman hat geschrieben:moderne cpu schalten sich vollständig ab...
Solange Du am Rechner arbeitest, tun sie das nicht und darum geht es hier. Und dann stellt sich die nächste Frage, wieviele Leute solche neueren CPUs betreiben. Bei uns werden sie jedenfalls häufiger anzutreffen sein, als bei der Mehrheit der Leute, die ich zumindest kenne. Und bei Firmen habe ich auch meine Bedenken, ob da wirklich konsequent umgerüstet wird - auf Behörden definitiv nicht.

Michael.

Re: [Sterne und Weltall] Einstein@home

Verfasst: 09.12.2011 08:30
von Norman
jo, stehen aber zumindest nicht unter heavy load und das macht einiges aus.
da hilft leider nur die richtige konfiguration des clients von seitens der user, was die wenigsten wohl machen damit die übrigen kerne nicht aus dem tiefschlaf gerissen werden.
über kurz oder lang wird es sowieso fast keine maschinen mit single/dual cores mehr geben, weil sie einfach nicht mehr produziert werden.
ganz abgesehen von der effizienz bei den immer mehr werdenden (anspruchsvolleren) projekten.
die projekte passen laufzeit und ressourcen an die technik von jetzt an.
in ein paar jahren wird ein quadcore wohl standard und der strompreis bei 30ct/kwh normalität sein.
desktop-pc werden durch energiesparende notebooks ersetzt oder sogar durch i-pod/pad/touch etc. um die bedürfnisse zu befriedigen.
24/7 cruncher werden (zumindest in kartell-deutschland) immer weniger, weil es sich kaum noch wer leisten kann/will.
ich überlege die cpus ruhen zu lassen und nur noch die grakas rechnen zu lassen, da sie wenigstens noch viel effektiver rechnen.
DC kommen hierzulande (leider) dank der explodierenden energiepreise graue zeiten entgegen und wenn man sich die gesamtstatistik anschaut ist der DC-boom schon einiges zurückgegangen.

naja...

Re: [Sterne und Weltall] Einstein@home

Verfasst: 09.12.2011 20:37
von Michael H.W. Weber
Norman hat geschrieben:ich überlege die cpus ruhen zu lassen und nur noch die grakas rechnen zu lassen, da sie wenigstens noch viel effektiver rechnen.
Dazu zwei Dinge: Erstens hätte ich ganz gerne mal den angeblich besseren Rechendurchsatz pro Stromaufnahme hieb- und stichfest nachgewiesen bekommen statt mich mit Puaschalaussagen abfinden zu müssen und zweitens scheinst Du zu vergessen, dass es zumindest nach meinem Kenntnisstand eben nicht möglich ist, alles auf GraKas zu rechnen. Ich lasse mich da aber gerne eines besseren Belehren...

Michael.

Re: [Sterne und Weltall] Einstein@home

Verfasst: 09.12.2011 21:20
von Torbjörn Klatt
Zum Thema GPGPU. Es ist richtig, dass nicht alles auf GraKas gerechnet werden kann. Und zwar genau das, was entweder speicherintensiv oder stark sequenziell ist. Wobei, es nicht ganz richtig ist, zu sagen, dass es nicht auf GraKas gerechnet werden kann. Können schon, nur alles andere als effektiv und sinnvoll.

Eine GPU hat i.d.R. nur 1GB Hauptspeicher. Dieser Hauptspeicher wird aufgeteilt in die einzelnen Multiprozessoren (min. 30) und Recheneinheiten (ALUs) der einzelnen Multiprozessoren (min. 8 ALUs pro Multiprozessor). Die Bandbreite zwischen GraKa-Hauptspeicher und den ALUs ist langsamer (ca. 100GB/s) als die Berechnungsgeschwindigkeit. Muss auf den Hauptspeicher des Hostsystems zugegriffen werden (via PCIe), muss ich wohl nicht weiter erwähnen, dass das SEHR langsam ist (~2 bis 8GB/s). Der Cache und auch der local Memory der Multiprozessoren hingegen ist sehr schnell (ca. 1TB/s), dafür aber sehr klein (16KB). Ein L2-Cache über alle Multiprozessoren ist für GraKas eher ungewöhnlich und mWn erst ab der Fermi-Architektur vorhanden. Passen die Daten für eine Reihe von Berechnungen in diesen local Memory (den sich wiederum mehrere ALUs teilen) und schafft man es die Datentransaktionen (Host-Hauptspeicher <-> Graka-Hauptspeicher <-> Multiprozessor lokal Memory) so abzustimmen und aufzuteilen, dass die GraKa in jedem Takt etwas rechnet, hat man 100% Effizienz. Die meisten dieser Speicherallokierungs und -transaktionstricks werden von openCL noch nicht und von CUDA nur beschränkt unterstützt, sondern müssten in ARB (Assembler für GPUs) geschrieben werden.

Ach ja, hinzu kommt, dass der Kernel (also das Programm, was auf der GraKa schlussendlich ausgeführt wird) ebenfalls klein sein muss und in den Register passen muss. Passt der Kernel nicht in den Register muss das Programm ständig zwischen GraKa-Hauptspeicher und Register stückweise hin- und herkopiert werden, was äußerst (!) langsam ist.

Wohl gemerkt, brauche ich nicht zu erwähnen, dass das nur sehr (!!!) schwer zu erreichen ist. Ich würde mich wundern, wenn die GraKa-Apps der DC-Projekte an die 90%-Effizienz herankommen. Am FIAS in Frankfurt, die u.a. den LOEWE-Supercomputer betreiben und online-Tracking der Daten des LHC-ALICE-Experiments auf einem GraKa-Cluster machen, wurde der High-Performance-LINPACK und das von dem verwendete Gauß-Seidel-Verfahren auf GraKas optimiert. Nach einigen Monaten Arbeit und ARB-Programmierung und vielen weiteren Tricks wurden die GraKas mit einer Effizienz von etwa 95% ausgelastet. Die Problemstellung ist ziemlich genau das, was GraKas am besten können: Matrix-Multiplikation.

Re: [Sterne und Weltall] Einstein@home

Verfasst: 09.12.2011 21:42
von Norman
GPU´s können nicht alles und das ist klar. sie berechnen massiv parallel und sind auch nur dort gut zu gebrauchen wo es möglich ist etwas parallel zu berechnen.
im netz findest man diverse beispiele und tests.

mmmh.. mal ein DC-beispiel.
eine wu von milkyway (seperation-mix) benötigt auf einem moderaten PC schon ein paar stunden ( selbst mit MT-apps )
die gleiche wutze benötigt auf einer älteren 48xx ati <3 minuten. (nvidia gtx 295 glaube 8 min wegen schlechter DP )
spendiere ich jetzt etwas strom für die 2 GPU´s oder etliche watt für die CPU´s ?!?
würde es GPUGRID-WUs ( die langen ) für cpu geben würden wir wochen brauchen... die grakas packen das in stunden.
rechenaufwand pro wu sind 5.000.000 ! Gflops
lieber doch die GPU ;)

nun sucht man sich diverse projekte je nach geschmack aus und lässt nur die grakas etwas berechnen und die cpu´s lässt man für z.b. boinc leer.
so muss man nicht komplett auf DC verzichten und ich kann in diesem system die ati und die nvidia rechnen lassen und bin bei weniger verbrauch ;)
gpuload = volle suppe ;)