[Sterne und Weltall] Einstein@home

Astronomie (Einstein, Universe@Home, Milkyway@home, ...)
Nachricht
Autor
Benutzeravatar
yoyo
Vereinsvorstand
Vereinsvorstand
Beiträge: 8045
Registriert: 17.12.2002 14:09
Wohnort: Berlin
Kontaktdaten:

[Sterne und Weltall] Einstein@home

#1 Ungelesener Beitrag von yoyo » 05.12.2011 21:50

Ein Artikel von Benjamin Knispel in der Novembersausgabe von Sterne und Weltall über Einstein@home:
http://t.co/g3rPo2h9

yoyo
HILF mit im Rechenkraft-WiKi, dies gibts zu tun.
Wiki - FAQ - Verein - Chat

Bild Bild

Benutzeravatar
M. Franckenstein
Vereinsmitglied
Vereinsmitglied
Beiträge: 5917
Registriert: 23.07.2001 01:00
Wohnort: Oldenburg
Kontaktdaten:

Re: [Sterne und Weltall] Einstein@home

#2 Ungelesener Beitrag von M. Franckenstein » 05.12.2011 22:10

Guter Artikel !!!!

Benutzeravatar
Myrmidon
Brain-Bug
Brain-Bug
Beiträge: 542
Registriert: 04.10.2007 17:55

Re: [Sterne und Weltall] Einstein@home

#3 Ungelesener Beitrag von Myrmidon » 06.12.2011 14:42

Danke, super Artikel!
Bild

Bild

intFRami
XBOX360-Installer
XBOX360-Installer
Beiträge: 65
Registriert: 04.08.2007 22:04

Re: [Sterne und Weltall] Einstein@home

#4 Ungelesener Beitrag von intFRami » 07.12.2011 15:36

Die Software von Einstein@home arbeitet ähnlich wie ein Bildschirmschoner. Wird der heimische PC nicht für andere Aufgaben genutzt, so analysiert das Programm Daten des Projekts, und auf dem Bildschirm erscheint eine farbige Grafik.
Leider suggeriert der Autor wie die meisten anderen Autoren (egal ob für Zeitschriften oder Rundfunk), dass das Berechnen normalerweise während den Zeiten stattfindet, indem der Bildschirmschoner aktiv ist. Leider hält sich diese sonderbare und ungeschickte Mär seit seligen Seti@Home-Zeiten (noch Vor-BOINC) hartnäckig.

Das mit dem Bildschirmschoner bzw. die Zeiten in denen der "Rechner nichts zu tun hat" ist natürlich nicht völlig falsch aber irgendwie ganz schön panne und desinformierend.
  • Meine Wünsche für BOINC:
  • Bei ?Anhalten?: Tasks optional erst nach nächstem Checkpoint anhalten
  • Uhrzeit der nächsten Checkpoints anzeigen
  • Netzwerkzugriff optional nur für Downloads abschalten
  • Task anhalten heißt nicht(!!!) automatisch, dass das Projekt neue WU's holen soll
  • Rechnerglobales ?Keine neue Aufgabe? bzw. ?Neue Aufgaben zulassen?
  • WU's optional möglichst am Stück durchrechnen

Benutzeravatar
Michael H.W. Weber
Vereinsvorstand
Vereinsvorstand
Beiträge: 22419
Registriert: 07.01.2002 01:00
Wohnort: Marpurk
Kontaktdaten:

Re: [Sterne und Weltall] Einstein@home

#5 Ungelesener Beitrag von Michael H.W. Weber » 08.12.2011 01:26

Die Clients nehmen nach wie vor die Rest-CPU-Leitstung in Anspruch, sofern sie anständig programmiert sind. Nicht mehr und nicht weniger.

Michael.
Fördern, kooperieren und konstruieren statt fordern, konkurrieren und konsumieren.

http://signature.statseb.fr I: Kaputte Seite A
http://signature.statseb.fr II: Kaputte Seite B

Bild Bild Bild

Benutzeravatar
Norman
Klimawolke
Klimawolke
Beiträge: 2188
Registriert: 20.03.2003 14:34
Wohnort: Saarland
Kontaktdaten:

Re: [Sterne und Weltall] Einstein@home

#6 Ungelesener Beitrag von Norman » 08.12.2011 06:38

moderne cpu schalten sich vollständig ab und werden erst garnicht gebraucht und das spart ne menge strom im gegensatz zu den ganz alten dienern die sowieso immer auf volldampf liefen.
man darf also nicht mehr sagen: ein rechner der sowieso an ist kann im hintergrund auch was rechnen und es macht keinen unterschied.
sehr wohl macht es das, denn die ganzen stromsparfeatures werden nicht mehr genutzt.
nehmen wir mal firma X mit 40 office-rechnern die fröhlich zwischen email und word idlen. würden diese 40 rechner der firma x crunchen bekäme der chef eine ordentlichere stromrechnung als die jahre zuvor, da viel höhere leistungsaufnahme ansteht. :evil2:

Torbjörn Klatt
Vereinsmitglied
Vereinsmitglied
Beiträge: 1333
Registriert: 23.04.2007 21:18
Wohnort: Bad Homburg, HR, D, Earth, Sol, Milkyway
Kontaktdaten:

Re: [Sterne und Weltall] Einstein@home

#7 Ungelesener Beitrag von Torbjörn Klatt » 08.12.2011 08:31

Allerdings kann man die Clients so konfigurieren, dass das "BOINCen" die CPUs nicht aus dem Stromsparfeatures nimmt.
alias Bohne2k7
bevorzugte Projekte: WCG, RNA World, Yoyo
Profil (RKN-Wiki) | www: torbjoern-klatt.de | Twitter: @torbjoernklatt | Diaspora*: torbjoernk@diasp.de
Bild

Benutzeravatar
Michael H.W. Weber
Vereinsvorstand
Vereinsvorstand
Beiträge: 22419
Registriert: 07.01.2002 01:00
Wohnort: Marpurk
Kontaktdaten:

Re: [Sterne und Weltall] Einstein@home

#8 Ungelesener Beitrag von Michael H.W. Weber » 09.12.2011 06:02

Norman hat geschrieben:moderne cpu schalten sich vollständig ab...
Solange Du am Rechner arbeitest, tun sie das nicht und darum geht es hier. Und dann stellt sich die nächste Frage, wieviele Leute solche neueren CPUs betreiben. Bei uns werden sie jedenfalls häufiger anzutreffen sein, als bei der Mehrheit der Leute, die ich zumindest kenne. Und bei Firmen habe ich auch meine Bedenken, ob da wirklich konsequent umgerüstet wird - auf Behörden definitiv nicht.

Michael.
Fördern, kooperieren und konstruieren statt fordern, konkurrieren und konsumieren.

http://signature.statseb.fr I: Kaputte Seite A
http://signature.statseb.fr II: Kaputte Seite B

Bild Bild Bild

Benutzeravatar
Norman
Klimawolke
Klimawolke
Beiträge: 2188
Registriert: 20.03.2003 14:34
Wohnort: Saarland
Kontaktdaten:

Re: [Sterne und Weltall] Einstein@home

#9 Ungelesener Beitrag von Norman » 09.12.2011 08:30

jo, stehen aber zumindest nicht unter heavy load und das macht einiges aus.
da hilft leider nur die richtige konfiguration des clients von seitens der user, was die wenigsten wohl machen damit die übrigen kerne nicht aus dem tiefschlaf gerissen werden.
über kurz oder lang wird es sowieso fast keine maschinen mit single/dual cores mehr geben, weil sie einfach nicht mehr produziert werden.
ganz abgesehen von der effizienz bei den immer mehr werdenden (anspruchsvolleren) projekten.
die projekte passen laufzeit und ressourcen an die technik von jetzt an.
in ein paar jahren wird ein quadcore wohl standard und der strompreis bei 30ct/kwh normalität sein.
desktop-pc werden durch energiesparende notebooks ersetzt oder sogar durch i-pod/pad/touch etc. um die bedürfnisse zu befriedigen.
24/7 cruncher werden (zumindest in kartell-deutschland) immer weniger, weil es sich kaum noch wer leisten kann/will.
ich überlege die cpus ruhen zu lassen und nur noch die grakas rechnen zu lassen, da sie wenigstens noch viel effektiver rechnen.
DC kommen hierzulande (leider) dank der explodierenden energiepreise graue zeiten entgegen und wenn man sich die gesamtstatistik anschaut ist der DC-boom schon einiges zurückgegangen.

naja...

Benutzeravatar
Michael H.W. Weber
Vereinsvorstand
Vereinsvorstand
Beiträge: 22419
Registriert: 07.01.2002 01:00
Wohnort: Marpurk
Kontaktdaten:

Re: [Sterne und Weltall] Einstein@home

#10 Ungelesener Beitrag von Michael H.W. Weber » 09.12.2011 20:37

Norman hat geschrieben:ich überlege die cpus ruhen zu lassen und nur noch die grakas rechnen zu lassen, da sie wenigstens noch viel effektiver rechnen.
Dazu zwei Dinge: Erstens hätte ich ganz gerne mal den angeblich besseren Rechendurchsatz pro Stromaufnahme hieb- und stichfest nachgewiesen bekommen statt mich mit Puaschalaussagen abfinden zu müssen und zweitens scheinst Du zu vergessen, dass es zumindest nach meinem Kenntnisstand eben nicht möglich ist, alles auf GraKas zu rechnen. Ich lasse mich da aber gerne eines besseren Belehren...

Michael.
Fördern, kooperieren und konstruieren statt fordern, konkurrieren und konsumieren.

http://signature.statseb.fr I: Kaputte Seite A
http://signature.statseb.fr II: Kaputte Seite B

Bild Bild Bild

Torbjörn Klatt
Vereinsmitglied
Vereinsmitglied
Beiträge: 1333
Registriert: 23.04.2007 21:18
Wohnort: Bad Homburg, HR, D, Earth, Sol, Milkyway
Kontaktdaten:

Re: [Sterne und Weltall] Einstein@home

#11 Ungelesener Beitrag von Torbjörn Klatt » 09.12.2011 21:20

Zum Thema GPGPU. Es ist richtig, dass nicht alles auf GraKas gerechnet werden kann. Und zwar genau das, was entweder speicherintensiv oder stark sequenziell ist. Wobei, es nicht ganz richtig ist, zu sagen, dass es nicht auf GraKas gerechnet werden kann. Können schon, nur alles andere als effektiv und sinnvoll.

Eine GPU hat i.d.R. nur 1GB Hauptspeicher. Dieser Hauptspeicher wird aufgeteilt in die einzelnen Multiprozessoren (min. 30) und Recheneinheiten (ALUs) der einzelnen Multiprozessoren (min. 8 ALUs pro Multiprozessor). Die Bandbreite zwischen GraKa-Hauptspeicher und den ALUs ist langsamer (ca. 100GB/s) als die Berechnungsgeschwindigkeit. Muss auf den Hauptspeicher des Hostsystems zugegriffen werden (via PCIe), muss ich wohl nicht weiter erwähnen, dass das SEHR langsam ist (~2 bis 8GB/s). Der Cache und auch der local Memory der Multiprozessoren hingegen ist sehr schnell (ca. 1TB/s), dafür aber sehr klein (16KB). Ein L2-Cache über alle Multiprozessoren ist für GraKas eher ungewöhnlich und mWn erst ab der Fermi-Architektur vorhanden. Passen die Daten für eine Reihe von Berechnungen in diesen local Memory (den sich wiederum mehrere ALUs teilen) und schafft man es die Datentransaktionen (Host-Hauptspeicher <-> Graka-Hauptspeicher <-> Multiprozessor lokal Memory) so abzustimmen und aufzuteilen, dass die GraKa in jedem Takt etwas rechnet, hat man 100% Effizienz. Die meisten dieser Speicherallokierungs und -transaktionstricks werden von openCL noch nicht und von CUDA nur beschränkt unterstützt, sondern müssten in ARB (Assembler für GPUs) geschrieben werden.

Ach ja, hinzu kommt, dass der Kernel (also das Programm, was auf der GraKa schlussendlich ausgeführt wird) ebenfalls klein sein muss und in den Register passen muss. Passt der Kernel nicht in den Register muss das Programm ständig zwischen GraKa-Hauptspeicher und Register stückweise hin- und herkopiert werden, was äußerst (!) langsam ist.

Wohl gemerkt, brauche ich nicht zu erwähnen, dass das nur sehr (!!!) schwer zu erreichen ist. Ich würde mich wundern, wenn die GraKa-Apps der DC-Projekte an die 90%-Effizienz herankommen. Am FIAS in Frankfurt, die u.a. den LOEWE-Supercomputer betreiben und online-Tracking der Daten des LHC-ALICE-Experiments auf einem GraKa-Cluster machen, wurde der High-Performance-LINPACK und das von dem verwendete Gauß-Seidel-Verfahren auf GraKas optimiert. Nach einigen Monaten Arbeit und ARB-Programmierung und vielen weiteren Tricks wurden die GraKas mit einer Effizienz von etwa 95% ausgelastet. Die Problemstellung ist ziemlich genau das, was GraKas am besten können: Matrix-Multiplikation.
alias Bohne2k7
bevorzugte Projekte: WCG, RNA World, Yoyo
Profil (RKN-Wiki) | www: torbjoern-klatt.de | Twitter: @torbjoernklatt | Diaspora*: torbjoernk@diasp.de
Bild

Benutzeravatar
Norman
Klimawolke
Klimawolke
Beiträge: 2188
Registriert: 20.03.2003 14:34
Wohnort: Saarland
Kontaktdaten:

Re: [Sterne und Weltall] Einstein@home

#12 Ungelesener Beitrag von Norman » 09.12.2011 21:42

GPU´s können nicht alles und das ist klar. sie berechnen massiv parallel und sind auch nur dort gut zu gebrauchen wo es möglich ist etwas parallel zu berechnen.
im netz findest man diverse beispiele und tests.

mmmh.. mal ein DC-beispiel.
eine wu von milkyway (seperation-mix) benötigt auf einem moderaten PC schon ein paar stunden ( selbst mit MT-apps )
die gleiche wutze benötigt auf einer älteren 48xx ati <3 minuten. (nvidia gtx 295 glaube 8 min wegen schlechter DP )
spendiere ich jetzt etwas strom für die 2 GPU´s oder etliche watt für die CPU´s ?!?
würde es GPUGRID-WUs ( die langen ) für cpu geben würden wir wochen brauchen... die grakas packen das in stunden.
rechenaufwand pro wu sind 5.000.000 ! Gflops
lieber doch die GPU ;)

nun sucht man sich diverse projekte je nach geschmack aus und lässt nur die grakas etwas berechnen und die cpu´s lässt man für z.b. boinc leer.
so muss man nicht komplett auf DC verzichten und ich kann in diesem system die ati und die nvidia rechnen lassen und bin bei weniger verbrauch ;)
gpuload = volle suppe ;)

Antworten

Zurück zu „Astronomie“