Hardwarebelastung durch Distributed Computing

Probleme mit einem Clientprogramm? Oder einen Tipp dazu? Dann hier posten...
Nachricht
Autor
ichselbst
Fingerzähler
Fingerzähler
Beiträge: 1
Registriert: 23.06.2017 13:17

Hardwarebelastung durch Distributed Computing

#1 Ungelesener Beitrag von ichselbst » 23.06.2017 13:39

Hallo zusammen,

habe zu dem Thema leider keinen Eintrag hier im Forum gefunden:

Wie sehr beansprucht die Nutzung von Distributed Computing Software wie z.B. BOINC die Hardware, z.B. Lebensdauer von SSDs?

Danke für Eure Antworten.

Eric
Powerknopf-Verweigerer
Powerknopf-Verweigerer
Beiträge: 1411
Registriert: 07.05.2013 09:24

Re: Hardwarebelastung durch Distributed Computing

#2 Ungelesener Beitrag von Eric » 23.06.2017 15:31

Moin,

das lässt sich so pauschal nicht sagen. Mein privater Hauptrechner (i7-3930k) ist seit über vier Jahren rund um die Uhr mit Boinc beschäftigt. Wenn er jetzt kaputt ginge, müsste das nicht unbedingt an Boinc liegen. Mir ist auch schon ein Rechner ohne diese Belastung nach der Zeit kaputt gegangen.
SSD ist eine andere Frage. Das hängt stark von den einzelnen Projekten ab. Manche schreiben nur wenige KB bis MB und andere Projekte wiederum GB.
Auf meinem Hauptrechner läuft Boinc von einer herkömmlichen Platte, weil mir eine 1 TB SSD als Ersatz zu teuer wäre.
Meine beiden Linux-Rechner laufen jetzt seit knapp drei Jahren ebenfalls rund um die Uhr Boinc von SSD.
Bild

Benutzeravatar
X1900AIW
TuX-omane
TuX-omane
Beiträge: 2868
Registriert: 05.01.2008 16:34

Re: Hardwarebelastung durch Distributed Computing

#3 Ungelesener Beitrag von X1900AIW » 23.06.2017 17:09

Es gibt m.M. nicht DIE DC Software, die Belastungen schwanken selbst bei Vollast, 100% Last auf CPU kann dennoch eine Schwankung von +10-15% Verbrauchswert bedeuten. Dahinter stehen CPU Features, die über die TDP des Herstellers hinausgehen, je nach CPU Modell ist dieser TDP Wert aber günstig vs. ungünstig angegeben, im Resultat bedeutet das mehr Kühlaufwand um die höheren Temperaturen abzufangen. Das gleiche Spiel auf GPU, je nach Berechnungsmethode sowie Treiberoptimierungen.

Turbo Hardware hat eingebaute Überspannungen, die sind in jedem Falle kritisch falls das die Dauer-Betriebszustände im DC sein sollen.

HighEnd Hardware > geringe Abweichung der Norm-Lebensdauer
Billig-Hardware mit höherem Risiko an Schwachstellen > erhöhte Ausfallquote.

Das wäre meine Einschätzung.

Wo Temperaturen in Grenzbereiche kommen ist Kühlung angesagt.

Wo Spannungen zu hoch sind > Undervolting.

Lüfter sind in allen dauerlaufenden Systemen logischerweise einer höheren Abnutzung ausgesetzt. In Kombination mit unkontrolliertem Betrieb riskant.

Eine Nutzung von DC Software kann ein gelegentlicher Betrieb sein oder Dauereinsatz wie bei Servern, keineswegs müssen alle Recheneinheiten auf Vollast laufen. Moderne Hardware taktet sich herunter, senkt Spannungen, läuft reduziert bis Temperaturgrenzwerte unterschritten sind usw.

Zugriffe auf Festplatten und SSDs schwanken entsprechend bzw. lassen sich einstellen.

Ich schätze, kein System lässt sich mit anderen vergleichen.

Dann die Mini-Rechner, vom Smartphone, Tablet über ARM Android/Linux Kleinstrechnern über Mini-PC bis zu Laptop/Notebook ... jedes Gerät hat andere Rechenwerke, Stromaufnahme und Temperaturentwicklung, dazu teilweise mangelhafte Lüftung/Kühlung. Wer da nicht aufpasst lässt die Kleinrechner geradewegs ins Temperatur-Off rennen.

Umgekehrt: wer Game-Hardware einsetzt hat zumindest erwartbar eine robuste Grundlage für intensiven, störungsfreien Betrieb, über eine gute Zeit hinweg.

Dann kommt wie bei allen Dauerrechnern der Faktor Staub, der Faktor abnehmende Lüfterleistung (bis Defekt) und erwartbar der Faktor Tausch Netzteil und Festspeicher. CPUs gehen m.E. am häufigsten bei ultrahardcore OCern bzw. beim Köpfen kaputt.

Dass Nutzung > Abnutzung verursacht ist klar.

Die Belastung der Hardware lässt sich ziemlich exakt steuern, oft fehlen bei neuen DC Projekten bzw. neuen DC Applikationen Erfahrungswerte wie intensiv die jeweilige Hardware Generation "ausgelastet" wird. Empfindet man die Automatik des eigenen Systems zu riskant, legt man eben Hand an und taktet, lüftet, temperiert nach eigenen Vorstellungen.

Ein Standard-System hinzustellen und mit maximaler Last durch DC zu betreiben halte ich persönlich für den falschen Weg, der eher zu Frust führt.

Wer in einem Produktivsystem nebenbei "irrelevante" Vollast-Software - egal welcher Natur und Zielsetzung - betreibt, handelt ohnehin fahrlässig.

Meine Herangehensweise war häufig, einen "optimierten" Betriebsmodus zu finden, hinreichend Takt mit minimalem Stromverbrauch. Bei den ARM Geräten mit Passivkühlung wie beim Smartphone verzichte ich bewusst auf erzielbarem Takt bzw. Rechenleistung. Das Nachrüsten von CPU- und GPU-Kühlern lasse ich inzwischen bleiben und achte früher, beim Kauf, auf leistungsstarken Wärmeabtransport. Ist die Hardware kühlt, lebt sie länger. :smoking:

Fazit, die DC Software lässt sich justieren und somit die Last auf der Hardware. Ergo liegt es am Nutzer, ob und inwieweit er sich mit den Themen auseinandersetzt. Wer Angst vor verkürzter Lebensdauer hat, einfach Finger weg. Wer die Risiken selbst abschätzen kann - im Laufe der eigenen Erfahrung - findet bestimmt eine Zielgröße mit der er leben kann. In vielen DC Rechenparks läuft alte Hardware. Und sie läuft. Meiner Meinung birgt die DC Software öfter ein Problem als die Hardware, in der Rückschau auf viele Jahre unterschiedliche BOINC Client Versionen, einer Unzahl an Treibergenerationen und weniger Wechsel von Betriebssystem Versionen, aber der Ausschluß von Beta Projekten und Beta Applikationen ist ja leicht möglich, wer da Bedenken hat soll das lassen. Dito bei Beta Hardware - allerneueste Rechenwerke mit mangelnder Systemreife bzw. Treiberunterstützung, wer meint darauf die höchstlasttreibende DC Apps loszulassen, der sammelt eben Erfahrung, und gibt sie hoffentlich weiter. :wink:
Zusammenkommen ist ein Beginn, Zusammenbleiben ist ein Fortschritt, Zusammenarbeiten ist ein Erfolg.
Henry Ford

Benutzeravatar
Michael H.W. Weber
Vereinsvorstand
Vereinsvorstand
Beiträge: 22419
Registriert: 07.01.2002 01:00
Wohnort: Marpurk
Kontaktdaten:

Re: Hardwarebelastung durch Distributed Computing

#4 Ungelesener Beitrag von Michael H.W. Weber » 23.06.2017 17:39

Ich stelle in BOINC ein, dass Maschinen, die auf SSDs laufen, maximal alle Stunde was auf die SSD schreiben dürfen. HDs alls 10 Minuten. Ansonsten habe ich Maschinen im Einsatz, die seit 2009 in ihrem Urzustand noch heute laufen - und sie sind seit 2009 ununterbrochen durchgelaufen. Unter Vollast auf allen Kanälen. 8)

Ich bin über die Jahre zu der persönlichen Überzeugung gelangt, dass ständiges Ein- und Ausschalten den Kisten mehr Schaden zufügt, als sie einfach voll unter gleichbleibender Temperatur durchnudeln zu lassen.
Ich kaufe allerdings - wenn ich mal was kaufe - hochwertig. Frei nach dem Motto "kaufst Du billig, kaufst Du doppelt".

Michael.
Fördern, kooperieren und konstruieren statt fordern, konkurrieren und konsumieren.

http://signature.statseb.fr I: Kaputte Seite A
http://signature.statseb.fr II: Kaputte Seite B

Bild Bild Bild

Stiwi
Powerknopf-Verweigerer
Powerknopf-Verweigerer
Beiträge: 1404
Registriert: 20.05.2012 21:11

Re: Hardwarebelastung durch Distributed Computing

#5 Ungelesener Beitrag von Stiwi » 23.06.2017 22:03

Heutzutage halten die SSDs so viel aus, dass man sie fast nicht mehr totschreiben kann.
Das einzige Projekt in Boinc, was wirklich viel Schreibzugriffe verursachte, was ich kenne war CEP2

Meine 128 GB Samsung 830 hat mittlerweile 33153 Stunden und 123 TB geschrieben und ist laut CrystalDiskInfo immer noch bei 100%
Bild
Bild

Eric
Powerknopf-Verweigerer
Powerknopf-Verweigerer
Beiträge: 1411
Registriert: 07.05.2013 09:24

Re: Hardwarebelastung durch Distributed Computing

#6 Ungelesener Beitrag von Eric » 23.06.2017 22:34

Das ist eine ordentliche Leistung der SSD. Top.
Ja, CEP2 war so ein Projekt. Da liefen bei mir auch so einige GB am Tag durch die Leitung.
Ansonsten könnte ich mir momentan noch Atlas vorstellen, da da jedesmal ein komplette VM geladen wird. Je nach Anzahl der parallelen VMs - bei mir liefen da zeitweise 11 Stück - kommt da auch einiges zusammen.
Bild

Benutzeravatar
gemini8
Vereinsvorstand
Vereinsvorstand
Beiträge: 5898
Registriert: 31.05.2011 10:30
Wohnort: Hannover

Re: Hardwarebelastung durch Distributed Computing

#7 Ungelesener Beitrag von gemini8 » 24.06.2017 01:44

Rosetta kritzelte dauernd auf dem Datenträger herum, selbst wenn es nicht sollte. Ist das noch immer so?
Gruß, Jens
- - - - - -
Lowend-User und Teilzeit-Cruncher

Bild Bild Bild
Bild

Benutzeravatar
Kolossus
TuX-omane
TuX-omane
Beiträge: 4277
Registriert: 26.10.2014 14:51

Re: Hardwarebelastung durch Distributed Computing

#8 Ungelesener Beitrag von Kolossus » 24.06.2017 07:40

gemini8 hat geschrieben:Rosetta kritzelte dauernd auf dem Datenträger herum, selbst wenn es nicht sollte. Ist das noch immer so?
jepp!
Ich hab bei "Sicherung der Aufgaben höchstens alle X Sekunden" den Wert 900 eingetragen, dann wars gut.
Rosetta schrieb dermaßen wild auf der Festplatte herum, das bei den 20 Threads von Kolossus dadurch praktisch kein rechnen mehr stattfand und der Proz ständig warten mußte, das Rosetta mit der Schreiberei fertig wurde. Erst als ich den oben genannten Wert auf mindestens 900 oder 1.800 heraufsetze, konnte Kolossus seine 20 Threads nutzen und rechnen, was das Zeug hielt.....
Zuletzt geändert von Kolossus am 24.06.2017 19:18, insgesamt 1-mal geändert.
Gruß Harald

Meine Kommentare sind grundsätzlich nicht Chauvinistischer, Misogynischer Xenophobischer, Homophobischer, Religionfeindlicher Natur, sondern dienen lediglich der Konversation, gelegentlichen Scherzen und repräsentieren ansonsten die schlichte, rheinische Denkungsweise.

Bilds

Benutzeravatar
compalex
WU-Schieber
WU-Schieber
Beiträge: 1112
Registriert: 13.12.2016 17:54
Wohnort: Hockenheim

Re: Hardwarebelastung durch Distributed Computing

#9 Ungelesener Beitrag von compalex » 24.06.2017 09:50

Wie schon X1900AIW ausführlich geschrieben hat, sollte man sich die Temperaturen, Lüfter, Staub Zustand öfters anschauen bzw. beobachten und das egal ob man damit Surft, Spielt oder DC betreibt.

Die meiste neue Hardware Taktet (Temperaturabhängig) von allein hoch und runter, deshalb ist gute Kühlung und undervolting Pflicht bei einem Standard PC.

Wer sich eine TOP CPU/GPU kauft und beim Kühlen spart, hat mehr Strom verbrauch (weil heiße Kerne noch mehr Spannung brauchen um stabil zu laufen) und kürzere Lebensdauer.

Persönlich halte ich nichts von DC auf Lapi, Tablett oder Smartphone weil man da kaum was an der Standardkühlung ändern kann und lasse diese deshalb nur im Race und gut belüftet in kalten räumen crunchen.

Meine erste 60GB SSD läuft immer noch, die nachfolgenden 120, 240 und 128GB SSDs auch. Alte HDDs sind mir schon 2 ohne DC kaputt gegangen. Ich denke auch hier ist eine Kühlung genau so wichtig nicht nur die Anzahl der Schreibvorgänge.

Wenn ich meinen PC nicht für DC einsetze dann ist es schade um die teure Hardware die sonnst nur paar Std. am Tag genutzt würde. Das ersetzten der Meisten Hardware erfolgt bei mir so oder so nach 3-5 Jahren. Nur Netzteile, Gehäuse und Peripheriegeräte (jetzt auch noch SSDs ;D) bleiben länger im Einsatz.
Gruß, Alex

Der Schlaue sucht nach einer Lösung, der dumme einen Schuldigen.

#1 Ryzen 3900X + RTX 4070 #2 Ryzen 3900X + GTX 1080
Bild


Benutzeravatar
Yeti
Oberprojektler
Oberprojektler
Beiträge: 1917
Registriert: 01.04.2008 21:15
Kontaktdaten:

Re: Hardwarebelastung durch Distributed Computing

#11 Ungelesener Beitrag von Yeti » 30.06.2017 15:26

Eric hat geschrieben:Ansonsten könnte ich mir momentan noch Atlas vorstellen, da da jedesmal ein komplette VM geladen wird. Je nach Anzahl der parallelen VMs - bei mir liefen da zeitweise 11 Stück - kommt da auch einiges zusammen.
Schon lange nicht mehr.

In den Anfangszeiten war es bei Atlas wirklich schlimm, weil die alle paar Minuten ein komplettes Snapshot schreiben lassen haben, aber die Zeiten sind lange vorbei.

Ich habe einen konkreten Wert für Euch von meinem persönlichen PC:

Spezielle SSD nur für BOINC, in der Regel 2x Atlas a 4-Kerne laufen parallel, seit ca 01.01.2016: 84,5 TB written (von angegebenen 150 TB).

In anderen Maschinen haben die SSDs schon ein mehrfaches der angegebenen maximalen Schreibrate abgearbeitet, aber ALLE SSDs werden ohne Ausnahme weiter als GUT dargestellt.

Allerdings wird in der Regel für BOINC auch nur 1/4 oder noch weniger der Gesamtkapazität genutzt, das hilft, die Lebensdauer hoch zu halten :evil2:
Bild

Supporting BOINC, a great concept !

Antworten

Zurück zu „Hilfe und Support“