Japanischer Supercomputer

Kaufempfehlungen, Hardwaretips, Softwareprobleme, Overclocking, Technikfragen ohne Bezug zu DC.
Nachricht
Autor
Benutzeravatar
VadderSchlumpf
Vereinsmitglied
Vereinsmitglied
Beiträge: 623
Registriert: 12.05.2002 15:58

Japanischer Supercomputer

#1 Ungelesener Beitrag von VadderSchlumpf » 25.08.2002 18:11

Hi!

In der aktuellen Ausgabe der Spektrum der Wissenschaft und der heutigen Sendung von Welt der Wunder wurde ein neuer Supercomputer erwähnt. Er steht in Japan und ist der schnellste Superrechner im Moment mit 35 Teraflops.
Berechnen wird er, wie das Projekt Climateprediction, das Weltklima.

Hat Climateprediction dann eigentlich einen Sinn? So ein Projekt gegen den schnellsten Supercomputer? Wie viele Teraflops sind denn so bei DC-Projekten normal?

Gruß,
VadderSchlumpf

Benutzeravatar
Zeuge
Rechenkraft.net-Sponsor
Rechenkraft.net-Sponsor
Beiträge: 433
Registriert: 26.01.2002 16:37
Wohnort: München

#2 Ungelesener Beitrag von Zeuge » 25.08.2002 19:31

Habe noch keine Ahnung von dem Projekt Climateprediction.
Werde aber eventuell auch mitrechnen wenn dieses startet.

Ganz generell: Es nützt nichts wenn ich den schnellsten Rechner der Welt mit falscher Strategie (nur eine mögliche Annahme) rechnen lasse.

Insofern ist es wie immer gut wenn man mehrere Lösungsansätze verfolgt. Die ist ja z.B bei den Krebsprojekten auch nicht anders.
Wie leistungsfähig so ein DC-Projekt maximal sein kann ist mir auch nicht klar. In Sachen Echtzeit, also Schnelligkeit, kann ein DC Projekt bestimmt nicht mithalten.
Außerdem denke ich, dass DC-Projekte eher an den verschiedenen Strategien rechnet und die Nationalen Rechner eher an der örtlichen Vorhersage (bislang kann eh kein Superrechner detaillierte und weltumfassende Berechnungen anstellen).

Insofern macht meine Teilnahme an Climateprediction für mich wieder Sinn.
Da bin ich mir 100%ig sicher glaube ich.
Zeuge :)

Benutzeravatar
Wurmi
Rechenkraft.net-Sponsor
Rechenkraft.net-Sponsor
Beiträge: 314
Registriert: 09.07.2002 22:44
Wohnort: Stuttgart

Re: Japanischer Supercomputer

#3 Ungelesener Beitrag von Wurmi » 25.08.2002 19:40

VadderSchlumpf hat geschrieben:Hat Climateprediction dann eigentlich einen Sinn? So ein Projekt gegen den schnellsten Supercomputer? Wie viele Teraflops sind denn so bei DC-Projekten normal?
Die Rechner bei DF, bspw., sollten so ca. 2TFlops leisten. Mit Trickserei (SSE2) ggf. auch mehr :roll:.

Das Problem besteht eher dahin, daß die Knoten in DC Projekten naturgemäß nur schwach gekoppelt sind. Beim Earth Simulator sind die mittleren 100 Racks ausschließlich für das Kommunikationsnetzwerk zuständig. Bingt mal eben den Faktor 100.000 oder mehr an Datenaustausch 8). DC-Projekte hingegen müssen so aufgezogen sein, daß die linke Hand nicht wissen muß, was die rechte tut.

Ob Klimasimulation mit DC Sinn macht, hängt sicher davon ab, wie gut die Zerlegung in unabhängige und kleine (Workunits sollten < 1GB sein) Pakete möglich ist. Wenn das gelingt, kann man die nutzbare Rechenleistung sehr einfach steigern. Dann ist man nämlich mit doppelt soviel Rechnern doppelt so schnell, da die "Reibungsverluste" gering sind.

Es macht wohl erst dann keinen Sinn mehr, wenn die Supercomputer viel schneller (Faktor 100 oder so) und einigermaßen verbreitet sind (Anzahl > 1). In dem Fall könnte man die alternativen Verfahren "mal eben nebenbei" mit durchrechnen :P.

Grüßle, Wurmi :Fade-color.
Recently, I tweaked the universe to appear even weirder. Now, e^(i*pi) equals -1. Ain't that cool?

Benutzeravatar
Sven
Vereinsmitglied
Vereinsmitglied
Beiträge: 1310
Registriert: 19.01.2002 01:00

#4 Ungelesener Beitrag von Sven » 25.08.2002 19:45

Hier ist nachzulesen warum man sich so viel von dem Ding verspricht: http://www.spiegel.de/wissenschaft/mens ... 82,00.html

Tschüs, Sven.

dismit

Wieviele Teraflops?

#5 Ungelesener Beitrag von dismit » 26.08.2002 09:16

Bei GIMPS wird etwa mit 4 Teraflops gerechnet (z.Zt. 3.962 Gigaflops). Schwankt immer ein wenig.

http://www.mersenne.org/primenet/status.shtml

Sollten irgendwann die meisten Teilnehmer auf P4s aufrüsten, dann würde die Leistung geschätzt etwa 3-4 mal so hoch ausfallen.

:o

Benutzeravatar
Rechtsconsulter
Rechenkraft.net-Sponsor
Rechenkraft.net-Sponsor
Beiträge: 178
Registriert: 14.06.2002 22:17
Wohnort: Dortmund

#6 Ungelesener Beitrag von Rechtsconsulter » 26.08.2002 10:15

dismit hat geschrieben: Sollten irgendwann die meisten Teilnehmer auf P4s aufrüsten, dann würde die Leistung geschätzt etwa 3-4 mal so hoch ausfallen.
:cry2: Salz in meine Wunden?
Der Ausdruck "Flop" passt gut zum P4, zumindest was seine Leistung in Sachen DF betrifft. (Vgl. Thread "Speed in Anhängigkeit der CPU" im DF-Forum)
Mein Duron 1200 faltet mehr Proteine als mein P4 1700 und ich bin offenbar nicht der einzig Betroffene.

Tschau RC

dismit

Salz in die Wunden

#7 Ungelesener Beitrag von dismit » 26.08.2002 12:30

Hmmm .... war nicht meine Absicht ....

wenn man ehrlich ist muss man doch zugeben, dass die Hardware erst in zweiter Linie eine Rolle spielt.

Es ist der Client, der die Resourcen nutzt oder eben nicht nutzt. Also eine Aufgabe für die Programmierer eines Clientprogramms wieder mal ein Update zu bringen, das mögliche Resourcen einer veränderten Hardwarestruktur im Netz erschließen kann.

Wenn man die zahlreichen Versionsupdates von Prime95 betrachtet ... wir sind jetzt bei Version 22 Beta 8 ... ich kenne keinen anderen Client, dessen Programmierer alle paar Wochen wieder mal was optimieren .... und das seit sechs Jahren! :D

Natürlich kann dabei auch mal was schiefgehen und der Code produziert bei zehntausenden Anwendern einige Zeit falsche Ergebnisse .... :uhoh: ....

Bei GIMPS gibt es seitdem eine Gruppe von QA-Testern, die eine Wiederholung so einer Malaise verhindern sollen.

Und ich warte seitdem nicht wieder monatelang, bevor ich George Woltman mit Fragen nerve, z.B. warum immer mehr Ergebnisse nicht so sind, wie ich dachte, dass sie eigentlich sein sollten .... :worry: .... naja .... ist lange her (war Ende März 1999, Version 17, released Ende November 1998).

Alles eine des persönlichen Engagements .... sowohl des/der Programmierer als auch der Teilnehmer!

Zurück zu „Hardware, Software, Technik, Betriebssysteme“