Hardwarespenden
- Patrick Keller
- Vereinsmitglied
- Beiträge: 1202
- Registriert: 25.03.2003 15:06
- Wohnort: Mainz
- Kontaktdaten:
Ich würd mal fast sagen, dass das ziemlich egal ist, weil das Cluster eh 24/7 laufen wird - und die FAH-WUs im Schnitt keine zwei Wochen oder länger brauchen.Keller hat geschrieben:Aber wenn es möglich ist sollte man doch auf jeden Fall ein echtes Cluster bauen, um das Projekt schneller voranzutreiben ...
Bauen wir den Cluster jetzt nur für Folding@Home oder wie?
Kommt doch mal endlich wieder auf den Boden der Tatsachen zurück.
Wie SpeedKing schon schrieb, eignet sich Mosix nicht für alle Anwendungen, und erst recht nicht für DC-Projekte.
Mosix ist ideal, wenn man eine große CPU-lastige Berechnung auf mehrere CPUs verteilen will. Dabei entsteht aber ein gewisser "Overhead" durch die Prozess-Kommunikation, der verhindert, dass wirklich alle CPUs zu 100% ausgenutzt werden.
Vor langer Zeit war mal ein Artikel im "Linux User", in dem beschrieben wurde, wie man mit LAME und Mosix eine MP3-Datei auf mehreren CPUs gleichzeitig encoden kann. Am Ende stellte sich dann raus, dass man eben nicht die Geschwindigkeit erreichte, die alle CPUs zusammen theoretisch haben müssten, sondern nur 75% davon...
Mag ja sein, dass der F@H-Client dafür eine ganz tolle Anwendung wäre, wenn er denn mit Mosix liefe.
Zumindest für alle anderen Projekte gilt aber: Um die Geschwindigkeit des Clusters zu optimieren (und das wollen wir ja alle ), muss jede CPU ihre eigene WU bekommen.
Ich würde auch lieber auf Mosix setzen, weil die Technik äußerst interessant ist und wir dann erst einen "echten Cluster" hätten. In diesem Falle sehe ich aber leider keinen Sinn darin, mit Mosix Prozesse auf CPUs zu verteilen, die schon einmal vom Projektserver in WUs zerlegt wurden.
Die einzig interessante Frage ist für mich derzeit, ob wir wirklich jedem Node eine eigene Festplatte spendieren sollen. SpeedKing und Pascal vertreten dort unterschiedliche Ansichten, die beide jeweils Vor- und Nachteile haben.
HIER muss weiter diskutiert werden, damit wir am Ende wirklich zu einer Mehrheitsentscheidung kommen, statt willkürlich auf eine der beiden Möglichkeiten zu setzen.
Kommt doch mal endlich wieder auf den Boden der Tatsachen zurück.
Wie SpeedKing schon schrieb, eignet sich Mosix nicht für alle Anwendungen, und erst recht nicht für DC-Projekte.
Mosix ist ideal, wenn man eine große CPU-lastige Berechnung auf mehrere CPUs verteilen will. Dabei entsteht aber ein gewisser "Overhead" durch die Prozess-Kommunikation, der verhindert, dass wirklich alle CPUs zu 100% ausgenutzt werden.
Vor langer Zeit war mal ein Artikel im "Linux User", in dem beschrieben wurde, wie man mit LAME und Mosix eine MP3-Datei auf mehreren CPUs gleichzeitig encoden kann. Am Ende stellte sich dann raus, dass man eben nicht die Geschwindigkeit erreichte, die alle CPUs zusammen theoretisch haben müssten, sondern nur 75% davon...
Mag ja sein, dass der F@H-Client dafür eine ganz tolle Anwendung wäre, wenn er denn mit Mosix liefe.
Zumindest für alle anderen Projekte gilt aber: Um die Geschwindigkeit des Clusters zu optimieren (und das wollen wir ja alle ), muss jede CPU ihre eigene WU bekommen.
Ich würde auch lieber auf Mosix setzen, weil die Technik äußerst interessant ist und wir dann erst einen "echten Cluster" hätten. In diesem Falle sehe ich aber leider keinen Sinn darin, mit Mosix Prozesse auf CPUs zu verteilen, die schon einmal vom Projektserver in WUs zerlegt wurden.
Die einzig interessante Frage ist für mich derzeit, ob wir wirklich jedem Node eine eigene Festplatte spendieren sollen. SpeedKing und Pascal vertreten dort unterschiedliche Ansichten, die beide jeweils Vor- und Nachteile haben.
HIER muss weiter diskutiert werden, damit wir am Ende wirklich zu einer Mehrheitsentscheidung kommen, statt willkürlich auf eine der beiden Möglichkeiten zu setzen.
- Michael H.W. Weber
- Vereinsvorstand
- Beiträge: 22434
- Registriert: 07.01.2002 01:00
- Wohnort: Marpurk
- Kontaktdaten:
Muhahahaha - Äpfel, Birnen und Fehlinformationen... Gestern wollte man mir noch weismachen, das Betriebssystem (MOSIX) alleine würde schon dafür sorgen, daß die nötigen Prozesse auf mehrere CPUs verteilt würden, während ich noch vehement der Meinung war, ein spezialisierter Client müsse dafür vorliegen. Auch die Infos oben zu FAH sind nicht wirklich richtig - nicht nur was die Zahl der Projekte betrifft. Naja, egal.
Um mal auf den Kern der Dinge zurückzukommen, bin ich der Meinung, daß jeder "node" des Clusters über einen eigenen Festplattenbereich verfügen können muß - der muß NICHT lokal vorliegen, wie SpeedKing schon vorschlug. Pro Client sollte allein für die dc Clients MINDESTENS 1 GB zur Verfügung stehen (CP benötigt allein ca. 600 MB). Daher schlage ich statt des Einbaus einer Festplatte pro "node" den Kauf eines anständigen RAID für den Clustercontroller (Server) vor (nicht das bei Abkratzen einer Platte plötzlich alles weg ist). Identische Platten mit je 80 GB - ich plädiere für die WD8000JB (hat nämlich auch noch schnuckelige 8 MB Cache) - dürften da ideal sein. SCSI wäre zu teuer. Booten über onboard LAN (100 MBit reicht) - fertig.
Michael.
Um mal auf den Kern der Dinge zurückzukommen, bin ich der Meinung, daß jeder "node" des Clusters über einen eigenen Festplattenbereich verfügen können muß - der muß NICHT lokal vorliegen, wie SpeedKing schon vorschlug. Pro Client sollte allein für die dc Clients MINDESTENS 1 GB zur Verfügung stehen (CP benötigt allein ca. 600 MB). Daher schlage ich statt des Einbaus einer Festplatte pro "node" den Kauf eines anständigen RAID für den Clustercontroller (Server) vor (nicht das bei Abkratzen einer Platte plötzlich alles weg ist). Identische Platten mit je 80 GB - ich plädiere für die WD8000JB (hat nämlich auch noch schnuckelige 8 MB Cache) - dürften da ideal sein. SCSI wäre zu teuer. Booten über onboard LAN (100 MBit reicht) - fertig.
Michael.
Fördern, kooperieren und konstruieren statt fordern, konkurrieren und konsumieren.
http://signature.statseb.fr I: Kaputte Seite A
http://signature.statseb.fr II: Kaputte Seite B
http://signature.statseb.fr I: Kaputte Seite A
http://signature.statseb.fr II: Kaputte Seite B
@MW: Mosix ist kein Betriebssystem, sondern eine Kernelerweiterung + Usertools zur Steuerung.
Mosix kümmert sich selbst darum, dass "Prozesse migrieren", dazu ist es ja da. Im Gegensatz zu Beowulf z.B. muss man an dem Sourcecode des DC-Clients nichts ändern. Trotzdem muss der Client einige Bedingungen erfüllen. Das größte Problem ist, dass zwei Prozesse auf zwei verschiedenen Rechnern auf denselben Speicher zugreifen wollen.
Der Duron 800, der als Fileserver dienen soll, hat ein Asus A7V133 mit RAID-Controller, allerdings nur ATA100.
Ob wirklich zwei 80 GB-Platten nötig sind, muss man sich überlegen. Auf jeden Fall würden die uns zusammen nochmal 160 Euro kosten.
Mosix kümmert sich selbst darum, dass "Prozesse migrieren", dazu ist es ja da. Im Gegensatz zu Beowulf z.B. muss man an dem Sourcecode des DC-Clients nichts ändern. Trotzdem muss der Client einige Bedingungen erfüllen. Das größte Problem ist, dass zwei Prozesse auf zwei verschiedenen Rechnern auf denselben Speicher zugreifen wollen.
Der Duron 800, der als Fileserver dienen soll, hat ein Asus A7V133 mit RAID-Controller, allerdings nur ATA100.
Ob wirklich zwei 80 GB-Platten nötig sind, muss man sich überlegen. Auf jeden Fall würden die uns zusammen nochmal 160 Euro kosten.
ATA100 ist mehr als ausreichend - die Clients sind fast ausschließlich mit Rechnen beschäftigt, Dateizugriffe sind äußerst selten.LinuxFan hat geschrieben:Der Duron 800, der als Fileserver dienen soll, hat ein Asus A7V133 mit RAID-Controller, allerdings nur ATA100.
Ob wirklich zwei 80 GB-Platten nötig sind, muss man sich überlegen. Auf jeden Fall würden die uns zusammen nochmal 160 Euro kosten.
Zum Platzbedarf: 2 GByte pro Node + 1 GB fürs System = 9 GB wären mehr als ausreichend.
Ein RAID wäre nur Stromverschwendung. Gerade die laufenden Kosten müssen wir aber niedrig halten.
Ja und? Schon mal überlegt, was das eigentlich für Auswirkungen hat, wenn plötzlich alles weg ist? Welcher Wert da verloren geht? Wieviel man also höchstens investieren darf, um diesen Wertverlust zu vermeiden?Michael H.W. Weber hat geschrieben: (nicht das bei Abkratzen einer Platte plötzlich alles weg ist).
Wir wollen hier doch nicht irgendein cooles Gerät zum Angeben(*), sondern eine möglichst effiziente Rechenmaschine bauen, oder?
(*) "Boah krass, hab ich konkretes Cluster mit 4 Nodes und korrektem RAID mit brontalen 160GB!"
Gut. RAID ist also nicht unser Ding. 2 GB pro Node könnte evtl. knapp werden, wenn Vorinstallationen zu mehreren Projekten vorliegen - und ein Projektwechsel nur alle 6 Wochen stattfinden sollte.SpeedKing hat geschrieben:..
ATA100 ist mehr als ausreichend - die Clients sind fast ausschließlich mit Rechnen beschäftigt, Dateizugriffe sind äußerst selten.
Zum Platzbedarf: 2 GByte pro Node + 1 GB fürs System = 9 GB wären mehr als ausreichend.
Ein RAID wäre nur Stromverschwendung. Gerade die laufenden Kosten müssen wir aber niedrig halten.
Ich würde eine 20 GB-Platte als Minimum empfehlen, das erlaubt auch eine höhere Nodezahl in Zukunft.
- Michael H.W. Weber
- Vereinsvorstand
- Beiträge: 22434
- Registriert: 07.01.2002 01:00
- Wohnort: Marpurk
- Kontaktdaten:
Muhahahahaha - ich hatte nachträglich noch überlegt, ob ich nicht besser hätte Linux/MOSIX schreiben sollen. Jetzt zufrieden?LinuxFan hat geschrieben:@MW: Mosix ist kein Betriebssystem, sondern eine Kernelerweiterung + Usertools zur Steuerung.
Ich komme da auf zusätzliche 6 W.SpeedKing hat geschrieben:Ein RAID wäre nur Stromverschwendung. Gerade die laufenden Kosten müssen wir aber niedrig halten.
Nun, offenbar sind wir in diesem Punkt anderer Meinung, aber ich habe keine Lust, nach mehreren Wochen (!) 24/7 Rechenzeit bei Climate Prediction am Ende der Phase 3 auf n "nodes" (für die fleissig Strom bezahlt wurde) alles zu verlieren. RAID muss her. Muß ich die Stromrechnung für sagen wir 5 "nodes" pro Monat zusammenstellen?SpeedKing hat geschrieben:Ja und? Schon mal überlegt, was das eigentlich für Auswirkungen hat, wenn plötzlich alles weg ist? Welcher Wert da verloren geht? Wieviel man also höchstens investieren darf, um diesen Wertverlust zu vermeiden?
Wir wollen hier doch nicht irgendein cooles Gerät zum Angeben(*), sondern eine möglichst effiziente Rechenmaschine bauen, oder?
(*) "Boah krass, hab ich konkretes Cluster mit 4 Nodes und korrektem RAID mit brontalen 160GB!"
Eigentlich doch.Pascal hat geschrieben:Gut. RAID ist also nicht unser Ding.
Michael.
[edit]: Achso - zum Thema "voll krasser RAID Cluster": Ein simpel-einfach-fieses IDE RAID hat doch heute fast jeder zweite Ballermax zu Hause, seit die Billigcontroller auf nahezu jedem Popelboard zu finden sind. Ob ich mich damit aus'm Fenster lehnen müßte... Weiß ja nicht...
Fördern, kooperieren und konstruieren statt fordern, konkurrieren und konsumieren.
http://signature.statseb.fr I: Kaputte Seite A
http://signature.statseb.fr II: Kaputte Seite B
http://signature.statseb.fr I: Kaputte Seite A
http://signature.statseb.fr II: Kaputte Seite B
Du kennst eine billige, stromsparende Festplatte? Aber gut, ob 6 W oder 15 W ist eigentlich auch egal. Rechnen wir mal mit deinen 6W.Michael H.W. Weber hat geschrieben: [...]RAID wäre nur Stromverschwendung [...]Ich komme da auf zusätzliche 6 W..
1. Climate Prediction ist das einzige Projekt mit so ewig langen WUs und Climate Prediction gibt es nur für Windows.Michael H.W. Weber hat geschrieben: Nun, offenbar sind wir in diesem Punkt anderer Meinung, aber ich habe keine Lust, nach mehreren Wochen (!) 24/7 Rechenzeit bei Climate Prediction am Ende der Phase 3 auf n "nodes" (für die fleissig Strom bezahlt wurde) alles zu verlieren.
Bei allen anderen Projekten verliert man nur Stunden oder wenige Tage. Oder gibts da noch ein Projekt, bei dem man Wochen verlieren würde?
2. Eine Platte crasht im Mittel alle 5 Jahre (heutzutage eher noch seltener)
6W*24h*365*5 = 262,8 kWh
Mit 262,8 kWh können die 4 Nodes (4*120W) ca. 547 h, also 22 Tage, rechnen.
RAID rentiert sich also erst, wenn wir durch einen Crash mehr als 22 Tage verlieren.
Stell sie für die Lebensdauer des Clusters zusammen und sag mir nochmal, für was wir RAID brauchen.Michael H.W. Weber hat geschrieben: RAID muss her. Muß ich die Stromrechnung für sagen wir 5 "nodes" pro Monat zusammenstellen?
Ja, war ja nur Schmarrn.Michael H.W. Weber hat geschrieben:[edit]: Achso - zum Thema "voll krasser RAID Cluster": Ein simpel-einfach-fieses IDE RAID hat doch heute fast jeder zweite Ballermax zu Hause, seit die Billigcontroller auf nahezu jedem Popelboard zu finden sind. Ob ich mich damit aus'm Fenster lehnen müßte... Weiß ja nicht...
Bei 5 Jahren, d.h. 1825 Tagen, sind die 22 Tage, die wir den Cluster laufen lassen können, gerade mal 1,2%.SpeedKing hat geschrieben:2. Eine Platte crasht im Mittel alle 5 Jahre (heutzutage eher noch seltener)
6W*24h*365*5 = 262,8 kWh
Mit 262,8 kWh können die 4 Nodes (4*120W) ca. 547 h, also 22 Tage, rechnen.
RAID rentiert sich also erst, wenn wir durch einen Crash mehr als 22 Tage verlieren.
Ich würde diese 1,2% gerne in ein bischen Mehr an Sicherheit investiert sehen.