@Norman: Infos für die Leistungaufnahme bei den wenigen Applikationen, die überhaupt sinnvoll auf GPUs durchgeführt werden können, fehlen dennoch.
Michael.
[Sterne und Weltall] Einstein@home
- Michael H.W. Weber
- Vereinsvorstand
- Beiträge: 22435
- Registriert: 07.01.2002 01:00
- Wohnort: Marpurk
- Kontaktdaten:
Re: [Sterne und Weltall] Einstein@home
Fördern, kooperieren und konstruieren statt fordern, konkurrieren und konsumieren.
http://signature.statseb.fr I: Kaputte Seite A
http://signature.statseb.fr II: Kaputte Seite B
http://signature.statseb.fr I: Kaputte Seite A
http://signature.statseb.fr II: Kaputte Seite B
Re: [Sterne und Weltall] Einstein@home
Bei steigenden Strompreisen könnte bessere Effizienz eigentlich eine gleichbleibende Produktivität ergeben: 50 % höhere Preise versus 100 % CPU-Kerne + höhere Leistung jedes Kerns sollten "die Preise" kompensieren. Ich fürchte, einzig der Wunsch nach mehr Punkten pro Rechner (in den Köpfen der Cruncher) dürfte eine Tendenz verstärken, dass (1) weniger Cruncher sich (2) noch leistungsfähigere Hardware anschafft.Norman hat geschrieben:in ein paar jahren wird ein quadcore wohl standard und der strompreis bei 30ct/kwh normalität sein.
desktop-pc werden durch energiesparende notebooks ersetzt oder sogar durch i-pod/pad/touch etc. um die bedürfnisse zu befriedigen.
24/7 cruncher werden (zumindest in kartell-deutschland) immer weniger, weil es sich kaum noch wer leisten kann/will.
ich überlege die cpus ruhen zu lassen und nur noch die grakas rechnen zu lassen, da sie wenigstens noch viel effektiver rechnen.
DC kommen hierzulande (leider) dank der explodierenden energiepreise graue zeiten entgegen ...
Bei FAH lese ich leider nur selten im Forum mit und glaube schnellere Anschaffungszyklen zu erkennen, mittlerweile abhängig von dem Bonus-Punktesystem bei CPU-Workunits. Und Ärger darüber, nicht frühzeitig genug über zukünftige Änderungen informiert worden zu sein.
Bei mir die Entscheidung umgekehrt: Abkehr von GPUs, nachdem klar wurde, dass mit überholten Generationen kaum mehr die Deadlines der Workunits zu schaffen sind. Ist selbstverständlich abhängig vom gerechneten Projekt. Projekte mit CPU-Berechnungen scheinen mir weniger hardwareintensiv und deadline orientiert.
Ich finde nicht, dass die Energiepreise explodieren, sie kommen m.E. in die Region realistischer Preise, Strom war und ist noch zu billig. Auf die verschwendeten Subventionen für die Atom-Industrie will ich gar nicht eingehen, der Zuwachs an regenerativer Stromerzeugung war in den letzten 10 Jahren enorm, die Hoffnung dass irgendwann Strom tatsächlich wieder "billig" werden kann (in Relation zu den Einkommenn) gebe ich nicht auf, derzeit sind aber größere Investition in (alte) Strukturen zu erwarten. Jedes Hausdach könnte mehr Strom produzieren als Rechner im Haus (handelsüblich) für DC verbrauchen könnten. Zwar wäre dieser Strom zu teuer produziert hinsichtlich realisierbarer Marktpreise, aber diese Eigenproduktion wäre m.E. die beste Wahl für nachhaltige Cruncher (im doppelten Sinn).
Meine Prognose ist deshalb weniger pessimistisch. Sollten viele kleine CPU-Kerne mit herausragender Effizienz irgendwann auf den Markt kommen und herkömmliche Standard-(Monster-)CPUs (die bereits heute kein Office-Nutzer benötigt), zur Verwendung in Smartphones, Haustechnik, Auto-Technik usw. usf., dann wird aufgrund der tatsächlich vollzogenen Vernetzung aller dieser Rechenkerne ein Mitrechnen für DC möglich sein. In Parallele zur Smart-Grid-Technik für die bedarfsorientierte, zeitliche Anpassung von Haushalts-Stromverbräuchen könnte dann Smart-DC-Grid eine Erweiterung darstellen, die vom Verbraucher gewünscht wird, um vorhandene "Leerläufe" von innerhäuslichen Stromgeneratoren (BHKW, Dachs etc.) nicht ungenutzt verpuffen zu lassen.
Der Effekt bliebe (augenzwinkernd) derselbe: um an Taskforce-Wettbewerben mitzurechnen, wird das BHKW im Keller nicht mehr abgeschaltet, sobald die Heizungen warm sind, sondern produzieren fleißig weiter, um das Teamergebnis zu steigern, die Wärme kann nicht abgeführt werden, es wird wärmer und wärmer, mit dem Unterschied: im ganzen Haus und nicht allein im Raum mit den GPU-Wärmekraftwerken. Vorteil: die Punkteskala kann direkt am Thermometer abgelesen werden, per App, das per Funk an jeden Heizkörper übertagen wird, das Christmas-Race wird es folglich noch in 30 Jahren geben: lasst es uns im Haus warm und heimelig crunchen. Mit dem wesentlichen Unterschied: es wird für unser Hobby kein Atommüll mehr irgendwo auf der Welt produziert und irgendwo in der Welt abgeladen. Weil billiger Strom hieß bisher: Atomstrom ohne Umwälzung der direkten wie tatsächlichen Kosten auf den Verbraucher.
Zusammenkommen ist ein Beginn, Zusammenbleiben ist ein Fortschritt, Zusammenarbeiten ist ein Erfolg.
Henry Ford
Henry Ford
Re: [Sterne und Weltall] Einstein@home
mal ein paar allgemeine weblinks auf die schnelle:Michael H.W. Weber hat geschrieben:@Norman: Infos für die Leistungaufnahme bei den wenigen Applikationen, die überhaupt sinnvoll auf GPUs durchgeführt werden können, fehlen dennoch.
Michael.
http://de.wikipedia.org/wiki/Floating_P ... Per_Second
http://www.gpugrid.net/forum_thread.php ... =true#8566
http://www.pc-erfahrung.de/grafikkarte/ ... liste.html
http://de.wikipedia.org/wiki/Cell_%28Prozessor%29
für eine detailierte information über die performance/effizienz bestimmter apps und wie sie funktionieren, sollte man die entwickler solcher spezialsoftware anschreiben.
die eierlegende wollmichsau gibts noch nicht.
fakt ist: auf gebieten wo extrem viel parallelisierbar ist haben die gpu die nase vorn und sind sehr effektiv im vergleich zu den cpu.
bei sequenzieller berechnung sind halt die cpu besser/effizienter...
egal, mir gehts um strom einsparen und trotzdem ordentlich rechendursatz mit guter effizienz für bestimmte projekte zu erreichen.
ob folding, gpugrid, poem (gpu-app so gut wie einsatzbereit), MW etc....
parallel rechnen ist für mich effizienter für den geldbeutel und kürzere laufzeiten^^
sequentiell rechnen ohne checkpoints ist risiko und bei misslingen energie- und performanceverschwendung.
hab zu hause im system 1 ati und 1 nvidia gleichzeitig werkeln und somit keine große qual bei der projektauswahl.
cpus bleiben aus
bis ich billigstrom für ein paar cent irgendwo aus der welt hier bekomme bleibt das mal so.
wenn ich russland-/chinastrom für 10 cent bekomme aber dafür unsere welt verpesste bin ich auch nicht zufrieden, aber wenn man gezwungen wird
deutschland ist zumindest in europa seit jahren am teuersten und das **tzt mich derart an.
http://www.welt.de/wirtschaft/energie/a ... hland.html
bin wie X1900AIW der Meinung irgendwann mal strom selber herzustellen um den kartellen der welt und den blutsaugern die stirn zu bieten.
kraft der natur
-
- Vereinsmitglied
- Beiträge: 1333
- Registriert: 23.04.2007 21:18
- Wohnort: Bad Homburg, HR, D, Earth, Sol, Milkyway
- Kontaktdaten:
Re: [Sterne und Weltall] Einstein@home
Das stimmt so nicht ganz, wie ich oben bereits schrieb. Die Daten des Problems müssen in den Hauptspeicher der GraKa, besser noch in den local Memory der Multiprozessorunits passen. Das Programm (der GraKa-Kernel) muss in den Register der Multiprozessor-Units passen. Schafft man das nicht, muss man extrem viel trickreichen Aufwand betreiben, um die GraKas wirklich auszureizen.Norman hat geschrieben:fakt ist: auf gebieten wo extrem viel parallelisierbar ist haben die gpu die nase vorn und sind sehr effektiv im vergleich zu den cpu.
alias Bohne2k7
bevorzugte Projekte: WCG, RNA World, Yoyo
Profil (RKN-Wiki) | www: torbjoern-klatt.de | Twitter: @torbjoernklatt | Diaspora*: torbjoernk@diasp.de
bevorzugte Projekte: WCG, RNA World, Yoyo
Profil (RKN-Wiki) | www: torbjoern-klatt.de | Twitter: @torbjoernklatt | Diaspora*: torbjoernk@diasp.de
Re: [Sterne und Weltall] Einstein@home
ööhm, ja.
da hast du natürlich vollkommen recht und komplett verallgemeinern ist nicht ganz korrekt
da hast du natürlich vollkommen recht und komplett verallgemeinern ist nicht ganz korrekt