falsche Ergebnisse durch übertakten?

Grid-Computing, technische Entwicklung von Distributed Computing...
Nachricht
Autor
aalerich

#13 Ungelesener Beitrag von aalerich » 01.04.2005 20:30

Naja, das Forum darf man nicht überbewerten. Zum einen ist dort nur ein sehr kleiner Teil der Falter aktiv. Und die, die Unmengen an Zeit und Geld in ihr Hobby, das Übertakten, stecken sind natürlich wesentlich häufiger in den zum Umfeld gehörenden Foren zu finden. Und selbst in den Übertakterteams laufen sehr viele Rechner mit Sollgeschwindigkeit. Wenn man mal kurz in den Overclockerforen herumstöbert fallen viele Leute auf, die nicht (mehr) übertakten. Familie, Beruf, die Raten für das Haus... es gibt halt doch vieles, das letztlich wichtiger ist. Auch ist die Überpräsenz der Übertakter angesichts der vielen dadurch verursachten Probleme eigentlich zwangsläufig.
Zu den Übertakterteams ist vielleicht die Statistik ganz interessant, insbesondere die durchschnittliche Wochenpunktzahl pro aktivem Teammitglied. Die drei führenden Teams, allesamt Übertakterteams, haben 1600-1800 Punkte pro Mitglied und Woche (aufgerundet). Ich selbst habe einen nicht übertakteten Athlon XP 2600+ mit 512mb PC 2700 (Single Channel) in einem Komplettbrett (also integrierte Graphik). Laut SiSoft Sandra ca. so schnell wie ein 2300+. Der läuft zwar rund um die Uhr, ist aber auch Gebrauchsrechner und nun wirklich keine Rakete mehr. Mein Wochenschnitt liegt bei fast 1100 Punkten. Und wenn ich jetzt noch hinzurechne, daß so einige Mitglieder der Übertakterteams mehrere Rechner (teilweise ja sogar hunderte) haben wird aus dem Schnitt pro Mitglied schnell klar, daß da nur sehr, sehr wenig tatsächlich übertaktet wird. Nur weil jemand von dem Thema fasziniert ist, sich auf den entsprechenden Internetseiten herumtreibt und einem solchen Team dann beitritt wird aus seinem alten Schlepptop ja noch kein stickstoffgekühltes Monster. :-)

Laut Angaben eines der Moderatoren des Forums, der Zugriff auf die Serverstatistiken bei Stanford und selbst auch Macs hat liegt der Beitrag der Äpfel bei ca. 5%.

Mit freundlichen Grüßen
aalerich

Benutzeravatar
Michael H.W. Weber
Vereinsvorstand
Vereinsvorstand
Beiträge: 22923
Registriert: 07.01.2002 01:00
Wohnort: Marpurk

#14 Ungelesener Beitrag von Michael H.W. Weber » 02.04.2005 11:22

Um nochmal zm Thema zurückzukehren: Die meisten Fehler, die bei FAH gemeldet werden, sind auf Übertaktungen zurückzuführen. Ich falte bei FAH quasi seit dem ersten Tag, bin selbst Moderator des Forums dort (wie auch hier) und kenne eine Reihe der dortigen Leute persönlich - auch wenn ich mich seit einiger Zeit aus massivem Zeitmangel dort zurückgezogen habe. Die Äpfel werden von FAH übrigens erst seit wenigen Jahren mit einem Client versorgt. Aber ich denke, wir müssen das hier nicht weiter ausdiskutieren. Wichtig ist, daß man zunächst guckt, ob die Kiste ein Temperaturproblem hat, wenn es Schwierigkeiten gibt, denn der GROMACS Core fordert der CPU schon einiges ab... ;)

Michael.
Fördern, kooperieren und konstruieren statt fordern, konkurrieren und konsumieren.

Bild Bild

aalerich

#15 Ungelesener Beitrag von aalerich » 02.04.2005 20:52

Absolut richtig. Ich habe das auch nur so ausgebreitet weil ich das Gefühl habe, daß Ihr einen Heidenrespekt vor denen und ihrer Rechenpower habt. :-)
Und auch richtig ist, daß Prof. Pande das Übertakten eigentlich nicht mag; es bringt zwar vielleicht ein paar Prozent mehr Leistung, aber das Risiko von falschen Resultaten oder auch nur der Zeitverlust durch Abstürze machen es aus wissenschaftlicher Sicht kontraproduktiv.

Mit freundlichen Grüßen
aalerich

Benutzeravatar
SpeedKing
TuX-omane
TuX-omane
Beiträge: 2943
Registriert: 12.09.2003 17:14

#16 Ungelesener Beitrag von SpeedKing » 02.04.2005 21:17

aalerich hat geschrieben:es bringt zwar vielleicht ein paar Prozent mehr Leistung, aber das Risiko von falschen Resultaten oder auch nur der Zeitverlust durch
Abstürze machen es aus wissenschaftlicher Sicht kontraproduktiv.
Apropos Zeitverlust:
Es ist bei vielen Projekten fraglich, ob es sinnvoll ist, alle WUs pauschal mehrmals auszuteilen.
Viel sinnvoller könnte/müßte/sollte es sein, alle WUs erstmal nur einmal auszuteilen, damit die doppelte (oder sogar vierfache) Geschwindigkeit zu erreichen, aber auch folgende Fehler zu akzeptieren:
1. Es werden Hits gemeldet, die keine sind. Kein Problem, denn Hits werden nochmals nachgerechnet.
2. Es werden Hits nicht gemeldet. Das ist nicht unbedingt ein Problem, wenn ein Projekt keine definierten Treffer braucht (also z.B. nicht genau eine bestimmte Primzahl finden muß), sondern nur nach möglichst guten Ergebnissen sucht. Dann geht einem das allerbeste Ergebnis zwar mit einer sehr geringen Wahrscheinlichkeit durch die Lappen, aber man bekommt viel schneller einen Haufen gute Ergebnisse.

Es hängt natürlich stark vom Projekt ab, ob es akzeptabel ist, das beste Ergebnis um ein paar Promille zu verfehlen. Trotzdem habe ich den Eindruck, daß sich die meisten Projektbetreiber keinerlei Gedanken um Fehlerabschätzungen machen, sondern einfach den bequemen, 100%ig sicheren aber sehr ineffizienten Weg gehen.

Meinungen dazu?

Benutzeravatar
Michael H.W. Weber
Vereinsvorstand
Vereinsvorstand
Beiträge: 22923
Registriert: 07.01.2002 01:00
Wohnort: Marpurk

#17 Ungelesener Beitrag von Michael H.W. Weber » 03.04.2005 09:57

Das sehe ich genau so. ;)

Michael.
Fördern, kooperieren und konstruieren statt fordern, konkurrieren und konsumieren.

Bild Bild

aalerich

#18 Ungelesener Beitrag von aalerich » 03.04.2005 18:24

SpeedKing hat geschrieben:1. Es werden Hits gemeldet, die keine sind. Kein Problem, denn Hits werden nochmals nachgerechnet.
Gut.
SpeedKing hat geschrieben:2. Es werden Hits nicht gemeldet. Das ist nicht unbedingt ein Problem, wenn ein Projekt keine definierten Treffer braucht (also z.B. nicht genau eine bestimmte Primzahl finden muß), sondern nur nach möglichst guten Ergebnissen sucht. Dann geht einem das allerbeste Ergebnis zwar mit einer sehr geringen Wahrscheinlichkeit durch die Lappen, aber man bekommt viel schneller einen Haufen gute Ergebnisse.
Nicht gut.
Ich drücke es mal so aus: Ein Diamant von 100 Gramm ist erheblich mehr wert als 100 Diamanten von je einem Gramm. Die Frage ist, ob man oberflächlich, aber schnell arbeiten will oder langsam, dafür aber gründlich. In wirklich jedem Falle aber ist die schnelle Methode wissenschaftlich ziemlich wertlos. Es mag zwar sein, daß man damit durchaus Ergebnisse erhält, die man z.B. zu Geld machen kann (sprich: die irgendeinen Nutzen haben); letztlich bleibt dieses Gebiet aber nur unvollständig erforscht. Man kann nicht sagen, daß dieser Teilbereich quasi "abgehakt" ist. Spätere Interessenten am Thema müssen entweder einen Weg finden, gezielt das abzuarbeiten, was beim "ersten Durchlauf" nicht oder nicht richtig gemacht wurde oder sie müssen alles noch einmal machen, diesmal aber richtig.

Im Grunde denke ich, daß beide Methoden ihre Berechtigung haben. Bei der konkreten Entwicklung von Medikamenten ist es den Kranken sicher egal, ob nicht bei gründlicherem Forschen in vielleicht hundert Jahren ein eventuell noch ein ein kleines bißchen wirksameres Medikament gefunden werden könnte. Bei Grundlagenforschung allerdings halte ich absolute Gründlichkeit für äußerst wichtig. Schließlich soll auf diesen Ergebnissen aufbauend weitergeforscht werden. Wenn ich ein erfolgversprechendes Molekül in monate- wenn nicht jahrelangen Untersuchungen mit enormen Kosten unter Bindung enormer wissenschaftlicher Kapazitäten unter die Lupe genommen habe und dann höre, daß ein viel besser geeignetes Molekül damals übersehen wurde, weil ein punktegeiler Übertakter ein falsches Ergebnis übermittelt hat, nun, ich wäre sauer...

Soweit mal meine Sicht.

Mit freundlichen Grüßen
aalerich

Benutzeravatar
SpeedKing
TuX-omane
TuX-omane
Beiträge: 2943
Registriert: 12.09.2003 17:14

#19 Ungelesener Beitrag von SpeedKing » 03.04.2005 21:30

aalerich hat geschrieben:Nicht gut.
Ich drücke es mal so aus: Ein Diamant von 100 Gramm ist erheblich mehr wert als 100 Diamanten von je einem Gramm.
Um in deinem Bild zu bleiben: Es geht um einen Diamanten von 100 Gramm und vielleicht 10 Diamanten von je 99,9 Gramm.
aalerich hat geschrieben:Wenn ich ein erfolgversprechendes Molekül in monate- wenn nicht jahrelangen Untersuchungen mit enormen Kosten unter Bindung enormer wissenschaftlicher Kapazitäten unter die Lupe genommen habe und dann höre, daß ein viel besser geeignetes Molekül damals übersehen wurde, weil ein punktegeiler Übertakter ein falsches Ergebnis übermittelt hat, nun, ich wäre sauer...
Das viel geeignetere Molekül wird vom DC-Projekt sowieso nicht gefunden. Bestenfalls ein minimal besser geeignetes Molekül.

aalerich

#20 Ungelesener Beitrag von aalerich » 04.04.2005 00:16

Naja, das kann natürlich auch sein. Um mir dazu eine wirklich fundierte Meinung bilden zu können müßte ich die Projekte aber auf einer Ebene verstehen, die mir niemals zugänglich sein wird. Daß aber 10 x 99,9 mehr ist als 100, nun ja, dafür reicht es noch... :megagrin: Wenn dem so ist nehme ich alles zurück und behaupte das Gegenteil!

Mit freundlichen Grüßen
aalerich

Benutzeravatar
SpeedKing
TuX-omane
TuX-omane
Beiträge: 2943
Registriert: 12.09.2003 17:14

#21 Ungelesener Beitrag von SpeedKing » 04.04.2005 01:17

aalerich hat geschrieben:Naja, das kann natürlich auch sein. Um mir dazu eine wirklich fundierte Meinung bilden zu können müßte ich die Projekte aber auf einer Ebene verstehen, die mir niemals zugänglich sein wird.
Ich weiß das auch nicht, das muß der Projektbetreiber schon selber wissen. Es gibt aber Projekte, bei denen man an den Ergebnissen sieht, daß es offensichtlich so ist. Hinterher ist man immer schlauer... :)
Aber ich denke doch, daß die Wissenschaftler schon vorher abschätzen können, ob einige fast gleichwertige Spitzenergebnisse zu erwarten sind, oder ob es einen alleinigen Sieger geben wird.

Benutzeravatar
www.rekorn.de
Vereinsmitglied
Vereinsmitglied
Beiträge: 721
Registriert: 02.06.2003 15:11
Wohnort: Berlin

#22 Ungelesener Beitrag von www.rekorn.de » 04.04.2005 10:46

naja bei biosachen wär ich da vorsichtiger. was hat man von einem 4-fach schnelleren ergebniss, wenn man als beweis trotzdem noch mal nachrechnen muß?
shit happens, everyday
Bild

Benutzeravatar
Michael H.W. Weber
Vereinsvorstand
Vereinsvorstand
Beiträge: 22923
Registriert: 07.01.2002 01:00
Wohnort: Marpurk

#23 Ungelesener Beitrag von Michael H.W. Weber » 04.04.2005 21:25

www.rekorn.de hat geschrieben:naja bei biosachen wär ich da vorsichtiger. was hat man von einem 4-fach schnelleren ergebniss, wenn man als beweis trotzdem noch mal nachrechnen muß?
Einen vierfach minus eine Überprüfung schnelleren Projektabschluß, zum Beispiel. :D

Michael.
Fördern, kooperieren und konstruieren statt fordern, konkurrieren und konsumieren.

Bild Bild

Benutzeravatar
www.rekorn.de
Vereinsmitglied
Vereinsmitglied
Beiträge: 721
Registriert: 02.06.2003 15:11
Wohnort: Berlin

#24 Ungelesener Beitrag von www.rekorn.de » 04.04.2005 22:02

nehmen wir als beispiel fah, wenn der strang nicht 100% genau gerechnet wird, ist die 3d-struktur des ganzen proteins dahin. in der natur kommt sowas oft genug vor und dafür gibs ja bekanntlich die caperone, die die wieder richtig falten. jetzt stell dir mal vor, du faltest 4mal schneller und machst dabei ein paar fehler, dann kann man nicht mehr gewährleisten, dass alle deine vorherigen faltungen richtig sind. und deshalb alles nochmal. bei fad wär es fatal, da dieser eine hit, der nicht angezeigt werden würde, vielleicht das krebsmittel überhaupt wäre... im anderen fall, wenn man nur hits bekommen würde, wäre nicht ganz soooo schlimm. (true bzw. false negative/positive als stichpunkt dazu). lieber langsam und sicher das ziel erreichen als zu schnell gegen die wand...
shit happens, everyday
Bild

Zurück zu „Hintergrundinfos zu Verteiltem Rechnen“