Hardwarespenden

Alles zu unserer Maschine mit purer Rechenkraft (nur registrierte Benutzer)
Nachricht
Autor
Benutzeravatar
Patrick Keller
Vereinsmitglied
Vereinsmitglied
Beiträge: 1202
Registriert: 25.03.2003 15:06
Wohnort: Mainz
Kontaktdaten:

#25 Ungelesener Beitrag von Patrick Keller » 07.10.2003 12:53

Aber wenn es möglich ist sollte man doch auf jeden Fall ein echtes Cluster bauen, um das Projekt schneller voranzutreiben ...

Pascal

#26 Ungelesener Beitrag von Pascal » 07.10.2003 13:04

Keller hat geschrieben:Aber wenn es möglich ist sollte man doch auf jeden Fall ein echtes Cluster bauen, um das Projekt schneller voranzutreiben ...
Ich würd mal fast sagen, dass das ziemlich egal ist, weil das Cluster eh 24/7 laufen wird - und die FAH-WUs im Schnitt keine zwei Wochen oder länger brauchen.

Benutzeravatar
LinuxFan
Vereinsmitglied
Vereinsmitglied
Beiträge: 1200
Registriert: 17.07.2001 01:00
Wohnort: Berlin
Kontaktdaten:

#27 Ungelesener Beitrag von LinuxFan » 07.10.2003 13:55

Bauen wir den Cluster jetzt nur für Folding@Home oder wie? :)

Kommt doch mal endlich wieder auf den Boden der Tatsachen zurück.
Wie SpeedKing schon schrieb, eignet sich Mosix nicht für alle Anwendungen, und erst recht nicht für DC-Projekte.

Mosix ist ideal, wenn man eine große CPU-lastige Berechnung auf mehrere CPUs verteilen will. Dabei entsteht aber ein gewisser "Overhead" durch die Prozess-Kommunikation, der verhindert, dass wirklich alle CPUs zu 100% ausgenutzt werden.

Vor langer Zeit war mal ein Artikel im "Linux User", in dem beschrieben wurde, wie man mit LAME und Mosix eine MP3-Datei auf mehreren CPUs gleichzeitig encoden kann. Am Ende stellte sich dann raus, dass man eben nicht die Geschwindigkeit erreichte, die alle CPUs zusammen theoretisch haben müssten, sondern nur 75% davon...

Mag ja sein, dass der F@H-Client dafür eine ganz tolle Anwendung wäre, wenn er denn mit Mosix liefe.

Zumindest für alle anderen Projekte gilt aber: Um die Geschwindigkeit des Clusters zu optimieren (und das wollen wir ja alle ;)), muss jede CPU ihre eigene WU bekommen.

Ich würde auch lieber auf Mosix setzen, weil die Technik äußerst interessant ist und wir dann erst einen "echten Cluster" hätten. In diesem Falle sehe ich aber leider keinen Sinn darin, mit Mosix Prozesse auf CPUs zu verteilen, die schon einmal vom Projektserver in WUs zerlegt wurden.

Die einzig interessante Frage ist für mich derzeit, ob wir wirklich jedem Node eine eigene Festplatte spendieren sollen. SpeedKing und Pascal vertreten dort unterschiedliche Ansichten, die beide jeweils Vor- und Nachteile haben.

HIER muss weiter diskutiert werden, damit wir am Ende wirklich zu einer Mehrheitsentscheidung kommen, statt willkürlich auf eine der beiden Möglichkeiten zu setzen.

Benutzeravatar
Michael H.W. Weber
Vereinsvorstand
Vereinsvorstand
Beiträge: 22434
Registriert: 07.01.2002 01:00
Wohnort: Marpurk
Kontaktdaten:

#28 Ungelesener Beitrag von Michael H.W. Weber » 07.10.2003 14:46

Muhahahaha - Äpfel, Birnen und Fehlinformationen... :lol: Gestern wollte man mir noch weismachen, das Betriebssystem (MOSIX) alleine würde schon dafür sorgen, daß die nötigen Prozesse auf mehrere CPUs verteilt würden, während ich noch vehement der Meinung war, ein spezialisierter Client müsse dafür vorliegen. Auch die Infos oben zu FAH sind nicht wirklich richtig - nicht nur was die Zahl der Projekte betrifft. Naja, egal.
Um mal auf den Kern der Dinge zurückzukommen, bin ich der Meinung, daß jeder "node" des Clusters über einen eigenen Festplattenbereich verfügen können muß - der muß NICHT lokal vorliegen, wie SpeedKing schon vorschlug. Pro Client sollte allein für die dc Clients MINDESTENS 1 GB zur Verfügung stehen (CP benötigt allein ca. 600 MB). Daher schlage ich statt des Einbaus einer Festplatte pro "node" den Kauf eines anständigen RAID für den Clustercontroller (Server) vor (nicht das bei Abkratzen einer Platte plötzlich alles weg ist). Identische Platten mit je 80 GB - ich plädiere für die WD8000JB (hat nämlich auch noch schnuckelige 8 MB Cache) - dürften da ideal sein. SCSI wäre zu teuer. Booten über onboard LAN (100 MBit reicht) - fertig.

Michael.
Fördern, kooperieren und konstruieren statt fordern, konkurrieren und konsumieren.

http://signature.statseb.fr I: Kaputte Seite A
http://signature.statseb.fr II: Kaputte Seite B

Bild Bild Bild

Benutzeravatar
LinuxFan
Vereinsmitglied
Vereinsmitglied
Beiträge: 1200
Registriert: 17.07.2001 01:00
Wohnort: Berlin
Kontaktdaten:

#29 Ungelesener Beitrag von LinuxFan » 07.10.2003 15:06

@MW: Mosix ist kein Betriebssystem, sondern eine Kernelerweiterung + Usertools zur Steuerung.
Mosix kümmert sich selbst darum, dass "Prozesse migrieren", dazu ist es ja da. Im Gegensatz zu Beowulf z.B. muss man an dem Sourcecode des DC-Clients nichts ändern. Trotzdem muss der Client einige Bedingungen erfüllen. Das größte Problem ist, dass zwei Prozesse auf zwei verschiedenen Rechnern auf denselben Speicher zugreifen wollen.

Der Duron 800, der als Fileserver dienen soll, hat ein Asus A7V133 mit RAID-Controller, allerdings nur ATA100.
Ob wirklich zwei 80 GB-Platten nötig sind, muss man sich überlegen. Auf jeden Fall würden die uns zusammen nochmal 160 Euro kosten.

Benutzeravatar
SpeedKing
TuX-omane
TuX-omane
Beiträge: 2943
Registriert: 12.09.2003 17:14

#30 Ungelesener Beitrag von SpeedKing » 07.10.2003 16:38

LinuxFan hat geschrieben:Der Duron 800, der als Fileserver dienen soll, hat ein Asus A7V133 mit RAID-Controller, allerdings nur ATA100.
Ob wirklich zwei 80 GB-Platten nötig sind, muss man sich überlegen. Auf jeden Fall würden die uns zusammen nochmal 160 Euro kosten.
ATA100 ist mehr als ausreichend - die Clients sind fast ausschließlich mit Rechnen beschäftigt, Dateizugriffe sind äußerst selten.
Zum Platzbedarf: 2 GByte pro Node + 1 GB fürs System = 9 GB wären mehr als ausreichend.
Ein RAID wäre nur Stromverschwendung. Gerade die laufenden Kosten müssen wir aber niedrig halten.
Michael H.W. Weber hat geschrieben: (nicht das bei Abkratzen einer Platte plötzlich alles weg ist).
Ja und? Schon mal überlegt, was das eigentlich für Auswirkungen hat, wenn plötzlich alles weg ist? Welcher Wert da verloren geht? Wieviel man also höchstens investieren darf, um diesen Wertverlust zu vermeiden?

Wir wollen hier doch nicht irgendein cooles Gerät zum Angeben(*), sondern eine möglichst effiziente Rechenmaschine bauen, oder?
(*) "Boah krass, hab ich konkretes Cluster mit 4 Nodes und korrektem RAID mit brontalen 160GB!" ;-)

Pascal

#31 Ungelesener Beitrag von Pascal » 07.10.2003 16:47

SpeedKing hat geschrieben:..
ATA100 ist mehr als ausreichend - die Clients sind fast ausschließlich mit Rechnen beschäftigt, Dateizugriffe sind äußerst selten.
Zum Platzbedarf: 2 GByte pro Node + 1 GB fürs System = 9 GB wären mehr als ausreichend.
Ein RAID wäre nur Stromverschwendung. Gerade die laufenden Kosten müssen wir aber niedrig halten.
Gut. RAID ist also nicht unser Ding. 2 GB pro Node könnte evtl. knapp werden, wenn Vorinstallationen zu mehreren Projekten vorliegen - und ein Projektwechsel nur alle 6 Wochen stattfinden sollte.
Ich würde eine 20 GB-Platte als Minimum empfehlen, das erlaubt auch eine höhere Nodezahl in Zukunft.

Benutzeravatar
Michael H.W. Weber
Vereinsvorstand
Vereinsvorstand
Beiträge: 22434
Registriert: 07.01.2002 01:00
Wohnort: Marpurk
Kontaktdaten:

#32 Ungelesener Beitrag von Michael H.W. Weber » 07.10.2003 16:59

LinuxFan hat geschrieben:@MW: Mosix ist kein Betriebssystem, sondern eine Kernelerweiterung + Usertools zur Steuerung.
Muhahahahaha - ich hatte nachträglich noch überlegt, ob ich nicht besser hätte Linux/MOSIX schreiben sollen. Jetzt zufrieden? :lol:
SpeedKing hat geschrieben:Ein RAID wäre nur Stromverschwendung. Gerade die laufenden Kosten müssen wir aber niedrig halten.
Ich komme da auf zusätzliche 6 W.
SpeedKing hat geschrieben:Ja und? Schon mal überlegt, was das eigentlich für Auswirkungen hat, wenn plötzlich alles weg ist? Welcher Wert da verloren geht? Wieviel man also höchstens investieren darf, um diesen Wertverlust zu vermeiden?

Wir wollen hier doch nicht irgendein cooles Gerät zum Angeben(*), sondern eine möglichst effiziente Rechenmaschine bauen, oder?
(*) "Boah krass, hab ich konkretes Cluster mit 4 Nodes und korrektem RAID mit brontalen 160GB!" ;-)
Nun, offenbar sind wir in diesem Punkt anderer Meinung, aber ich habe keine Lust, nach mehreren Wochen (!) 24/7 Rechenzeit bei Climate Prediction am Ende der Phase 3 auf n "nodes" (für die fleissig Strom bezahlt wurde) alles zu verlieren. RAID muss her. Muß ich die Stromrechnung für sagen wir 5 "nodes" pro Monat zusammenstellen? :lol:
Pascal hat geschrieben:Gut. RAID ist also nicht unser Ding.
Eigentlich doch. :D

Michael.

[edit]: Achso - zum Thema "voll krasser RAID Cluster": Ein simpel-einfach-fieses IDE RAID hat doch heute fast jeder zweite Ballermax zu Hause, seit die Billigcontroller auf nahezu jedem Popelboard zu finden sind. Ob ich mich damit aus'm Fenster lehnen müßte... Weiß ja nicht... :roll:
Fördern, kooperieren und konstruieren statt fordern, konkurrieren und konsumieren.

http://signature.statseb.fr I: Kaputte Seite A
http://signature.statseb.fr II: Kaputte Seite B

Bild Bild Bild

Benutzeravatar
SpeedKing
TuX-omane
TuX-omane
Beiträge: 2943
Registriert: 12.09.2003 17:14

#33 Ungelesener Beitrag von SpeedKing » 07.10.2003 17:37

Michael H.W. Weber hat geschrieben: [...]RAID wäre nur Stromverschwendung [...]Ich komme da auf zusätzliche 6 W..
Du kennst eine billige, stromsparende Festplatte? Aber gut, ob 6 W oder 15 W ist eigentlich auch egal. Rechnen wir mal mit deinen 6W.
Michael H.W. Weber hat geschrieben: Nun, offenbar sind wir in diesem Punkt anderer Meinung, aber ich habe keine Lust, nach mehreren Wochen (!) 24/7 Rechenzeit bei Climate Prediction am Ende der Phase 3 auf n "nodes" (für die fleissig Strom bezahlt wurde) alles zu verlieren.
1. Climate Prediction ist das einzige Projekt mit so ewig langen WUs und Climate Prediction gibt es nur für Windows.
Bei allen anderen Projekten verliert man nur Stunden oder wenige Tage. Oder gibts da noch ein Projekt, bei dem man Wochen verlieren würde?
2. Eine Platte crasht im Mittel alle 5 Jahre (heutzutage eher noch seltener)
6W*24h*365*5 = 262,8 kWh
Mit 262,8 kWh können die 4 Nodes (4*120W) ca. 547 h, also 22 Tage, rechnen.
RAID rentiert sich also erst, wenn wir durch einen Crash mehr als 22 Tage verlieren.
Michael H.W. Weber hat geschrieben: RAID muss her. Muß ich die Stromrechnung für sagen wir 5 "nodes" pro Monat zusammenstellen? :lol:
Stell sie für die Lebensdauer des Clusters zusammen und sag mir nochmal, für was wir RAID brauchen.
Michael H.W. Weber hat geschrieben:[edit]: Achso - zum Thema "voll krasser RAID Cluster": Ein simpel-einfach-fieses IDE RAID hat doch heute fast jeder zweite Ballermax zu Hause, seit die Billigcontroller auf nahezu jedem Popelboard zu finden sind. Ob ich mich damit aus'm Fenster lehnen müßte... Weiß ja nicht... :roll:
Ja, war ja nur Schmarrn.

Benutzeravatar
GrafZahl
Vereinsmitglied
Vereinsmitglied
Beiträge: 324
Registriert: 06.09.2001 01:00
Wohnort: Henstedt-Ulzburg

#34 Ungelesener Beitrag von GrafZahl » 07.10.2003 17:55

SpeedKing hat geschrieben:2. Eine Platte crasht im Mittel alle 5 Jahre (heutzutage eher noch seltener)
6W*24h*365*5 = 262,8 kWh
Mit 262,8 kWh können die 4 Nodes (4*120W) ca. 547 h, also 22 Tage, rechnen.
RAID rentiert sich also erst, wenn wir durch einen Crash mehr als 22 Tage verlieren.
Bei 5 Jahren, d.h. 1825 Tagen, sind die 22 Tage, die wir den Cluster laufen lassen können, gerade mal 1,2%.
Ich würde diese 1,2% gerne in ein bischen Mehr an Sicherheit investiert sehen.

Benutzeravatar
LinuxFan
Vereinsmitglied
Vereinsmitglied
Beiträge: 1200
Registriert: 17.07.2001 01:00
Wohnort: Berlin
Kontaktdaten:

#35 Ungelesener Beitrag von LinuxFan » 07.10.2003 17:55

Michael H.W. Weber hat geschrieben:Muhahahahaha - ich hatte nachträglich noch überlegt, ob ich nicht besser hätte Linux/MOSIX schreiben sollen. Jetzt zufrieden? :lol:
Dann aber bitte GNU/Linux/Mosix :P

Desti

#36 Ungelesener Beitrag von Desti » 07.10.2003 18:00

SpeedKing hat geschrieben:
Michael H.W. Weber hat geschrieben:[...]Climate Prediction gibt es nur für Windows.
[....]
....wenn ihr lange genug rumdiskutiert ist der Linux Client eher fertig als euer Cluster :o 8) :lol:

Antworten

Zurück zu „Unser Cluster“