Japanischer Supercomputer
-
VadderSchlumpf
- Vereinsmitglied

- Beiträge: 623
- Registriert: 12.05.2002 15:58
Japanischer Supercomputer
Hi!
In der aktuellen Ausgabe der Spektrum der Wissenschaft und der heutigen Sendung von Welt der Wunder wurde ein neuer Supercomputer erwähnt. Er steht in Japan und ist der schnellste Superrechner im Moment mit 35 Teraflops.
Berechnen wird er, wie das Projekt Climateprediction, das Weltklima.
Hat Climateprediction dann eigentlich einen Sinn? So ein Projekt gegen den schnellsten Supercomputer? Wie viele Teraflops sind denn so bei DC-Projekten normal?
Gruß,
VadderSchlumpf
In der aktuellen Ausgabe der Spektrum der Wissenschaft und der heutigen Sendung von Welt der Wunder wurde ein neuer Supercomputer erwähnt. Er steht in Japan und ist der schnellste Superrechner im Moment mit 35 Teraflops.
Berechnen wird er, wie das Projekt Climateprediction, das Weltklima.
Hat Climateprediction dann eigentlich einen Sinn? So ein Projekt gegen den schnellsten Supercomputer? Wie viele Teraflops sind denn so bei DC-Projekten normal?
Gruß,
VadderSchlumpf
-
Zeuge
- Rechenkraft.net-Sponsor

- Beiträge: 433
- Registriert: 26.01.2002 16:37
- Wohnort: München
Habe noch keine Ahnung von dem Projekt Climateprediction.
Werde aber eventuell auch mitrechnen wenn dieses startet.
Ganz generell: Es nützt nichts wenn ich den schnellsten Rechner der Welt mit falscher Strategie (nur eine mögliche Annahme) rechnen lasse.
Insofern ist es wie immer gut wenn man mehrere Lösungsansätze verfolgt. Die ist ja z.B bei den Krebsprojekten auch nicht anders.
Wie leistungsfähig so ein DC-Projekt maximal sein kann ist mir auch nicht klar. In Sachen Echtzeit, also Schnelligkeit, kann ein DC Projekt bestimmt nicht mithalten.
Außerdem denke ich, dass DC-Projekte eher an den verschiedenen Strategien rechnet und die Nationalen Rechner eher an der örtlichen Vorhersage (bislang kann eh kein Superrechner detaillierte und weltumfassende Berechnungen anstellen).
Insofern macht meine Teilnahme an Climateprediction für mich wieder Sinn.
Werde aber eventuell auch mitrechnen wenn dieses startet.
Ganz generell: Es nützt nichts wenn ich den schnellsten Rechner der Welt mit falscher Strategie (nur eine mögliche Annahme) rechnen lasse.
Insofern ist es wie immer gut wenn man mehrere Lösungsansätze verfolgt. Die ist ja z.B bei den Krebsprojekten auch nicht anders.
Wie leistungsfähig so ein DC-Projekt maximal sein kann ist mir auch nicht klar. In Sachen Echtzeit, also Schnelligkeit, kann ein DC Projekt bestimmt nicht mithalten.
Außerdem denke ich, dass DC-Projekte eher an den verschiedenen Strategien rechnet und die Nationalen Rechner eher an der örtlichen Vorhersage (bislang kann eh kein Superrechner detaillierte und weltumfassende Berechnungen anstellen).
Insofern macht meine Teilnahme an Climateprediction für mich wieder Sinn.
Da bin ich mir 100%ig sicher glaube ich.
Zeuge
Zeuge
-
Wurmi
- Rechenkraft.net-Sponsor

- Beiträge: 314
- Registriert: 09.07.2002 22:44
- Wohnort: Stuttgart
Re: Japanischer Supercomputer
Die Rechner bei DF, bspw., sollten so ca. 2TFlops leisten. Mit Trickserei (SSE2) ggf. auch mehrVadderSchlumpf hat geschrieben:Hat Climateprediction dann eigentlich einen Sinn? So ein Projekt gegen den schnellsten Supercomputer? Wie viele Teraflops sind denn so bei DC-Projekten normal?
Das Problem besteht eher dahin, daß die Knoten in DC Projekten naturgemäß nur schwach gekoppelt sind. Beim Earth Simulator sind die mittleren 100 Racks ausschließlich für das Kommunikationsnetzwerk zuständig. Bingt mal eben den Faktor 100.000 oder mehr an Datenaustausch
Ob Klimasimulation mit DC Sinn macht, hängt sicher davon ab, wie gut die Zerlegung in unabhängige und kleine (Workunits sollten < 1GB sein) Pakete möglich ist. Wenn das gelingt, kann man die nutzbare Rechenleistung sehr einfach steigern. Dann ist man nämlich mit doppelt soviel Rechnern doppelt so schnell, da die "Reibungsverluste" gering sind.
Es macht wohl erst dann keinen Sinn mehr, wenn die Supercomputer viel schneller (Faktor 100 oder so) und einigermaßen verbreitet sind (Anzahl > 1). In dem Fall könnte man die alternativen Verfahren "mal eben nebenbei" mit durchrechnen
Grüßle, Wurmi
Recently, I tweaked the universe to appear even weirder. Now, e^(i*pi) equals -1. Ain't that cool?
-
Sven
- Vereinsmitglied

- Beiträge: 1310
- Registriert: 19.01.2002 01:00
Hier ist nachzulesen warum man sich so viel von dem Ding verspricht: http://www.spiegel.de/wissenschaft/mens ... 82,00.html
Tschüs, Sven.
Tschüs, Sven.
-
dismit
Wieviele Teraflops?
Bei GIMPS wird etwa mit 4 Teraflops gerechnet (z.Zt. 3.962 Gigaflops). Schwankt immer ein wenig.
http://www.mersenne.org/primenet/status.shtml
Sollten irgendwann die meisten Teilnehmer auf P4s aufrüsten, dann würde die Leistung geschätzt etwa 3-4 mal so hoch ausfallen.

http://www.mersenne.org/primenet/status.shtml
Sollten irgendwann die meisten Teilnehmer auf P4s aufrüsten, dann würde die Leistung geschätzt etwa 3-4 mal so hoch ausfallen.
-
Rechtsconsulter
- Rechenkraft.net-Sponsor

- Beiträge: 178
- Registriert: 14.06.2002 22:17
- Wohnort: Dortmund
dismit hat geschrieben: Sollten irgendwann die meisten Teilnehmer auf P4s aufrüsten, dann würde die Leistung geschätzt etwa 3-4 mal so hoch ausfallen.
Der Ausdruck "Flop" passt gut zum P4, zumindest was seine Leistung in Sachen DF betrifft. (Vgl. Thread "Speed in Anhängigkeit der CPU" im DF-Forum)
Mein Duron 1200 faltet mehr Proteine als mein P4 1700 und ich bin offenbar nicht der einzig Betroffene.
Tschau RC
-
dismit
Salz in die Wunden
Hmmm .... war nicht meine Absicht ....
wenn man ehrlich ist muss man doch zugeben, dass die Hardware erst in zweiter Linie eine Rolle spielt.
Es ist der Client, der die Resourcen nutzt oder eben nicht nutzt. Also eine Aufgabe für die Programmierer eines Clientprogramms wieder mal ein Update zu bringen, das mögliche Resourcen einer veränderten Hardwarestruktur im Netz erschließen kann.
Wenn man die zahlreichen Versionsupdates von Prime95 betrachtet ... wir sind jetzt bei Version 22 Beta 8 ... ich kenne keinen anderen Client, dessen Programmierer alle paar Wochen wieder mal was optimieren .... und das seit sechs Jahren!
Natürlich kann dabei auch mal was schiefgehen und der Code produziert bei zehntausenden Anwendern einige Zeit falsche Ergebnisse ....
....
Bei GIMPS gibt es seitdem eine Gruppe von QA-Testern, die eine Wiederholung so einer Malaise verhindern sollen.
Und ich warte seitdem nicht wieder monatelang, bevor ich George Woltman mit Fragen nerve, z.B. warum immer mehr Ergebnisse nicht so sind, wie ich dachte, dass sie eigentlich sein sollten ....
.... naja .... ist lange her (war Ende März 1999, Version 17, released Ende November 1998).
Alles eine des persönlichen Engagements .... sowohl des/der Programmierer als auch der Teilnehmer!
wenn man ehrlich ist muss man doch zugeben, dass die Hardware erst in zweiter Linie eine Rolle spielt.
Es ist der Client, der die Resourcen nutzt oder eben nicht nutzt. Also eine Aufgabe für die Programmierer eines Clientprogramms wieder mal ein Update zu bringen, das mögliche Resourcen einer veränderten Hardwarestruktur im Netz erschließen kann.
Wenn man die zahlreichen Versionsupdates von Prime95 betrachtet ... wir sind jetzt bei Version 22 Beta 8 ... ich kenne keinen anderen Client, dessen Programmierer alle paar Wochen wieder mal was optimieren .... und das seit sechs Jahren!
Natürlich kann dabei auch mal was schiefgehen und der Code produziert bei zehntausenden Anwendern einige Zeit falsche Ergebnisse ....
Bei GIMPS gibt es seitdem eine Gruppe von QA-Testern, die eine Wiederholung so einer Malaise verhindern sollen.
Und ich warte seitdem nicht wieder monatelang, bevor ich George Woltman mit Fragen nerve, z.B. warum immer mehr Ergebnisse nicht so sind, wie ich dachte, dass sie eigentlich sein sollten ....
Alles eine des persönlichen Engagements .... sowohl des/der Programmierer als auch der Teilnehmer!