Hashclash geht weiter!
Hashclash geht weiter!
Hallo zusammen,
die Pause bei HashClash ist vorbei, es gibt wieder Arbeit.
Grüße Groundhog
die Pause bei HashClash ist vorbei, es gibt wieder Arbeit.
Grüße Groundhog
-
- PDA-Benutzer
- Beiträge: 41
- Registriert: 02.04.2006 11:04
- Wohnort: Cave
Ich habe mit Version 5.5.0 auch nach der Ankündigung noch WUs bekommen. Wär ok gewesen, wenn nicht, gibt genug Projekte.Chipkiller hat geschrieben:Ja, da hat sich ein Ami gemosert, weil viele zu hohe Credits claimen er einen originalen Client einsetzt und sich benachteiligt fühlt.
Wer die Version 5.5.0 hat bekommt keine Wu mehr.
Damit hat sich das Projekt selbst ins Knie gefickt.
Was mich aber stört ist die Einführung eines Quorums, ohne darüber ein Wort auf der Hauptseite oder im Forum zu verlieren.
Und wenn das nur wegen der Credits ist, mache ich eine solche Kapazitätsverschwendung nicht mit.
Grüße Groundhog
- Uwe Sänger Herzke
- Block-Bunkerer
- Beiträge: 1326
- Registriert: 31.05.2006 14:33
- Wohnort: Bremen
- Kontaktdaten:
Für ein Quorum sprechen i.d.R. wissenschaftliche Gründe. Eine einfach Berechnung, ohne Überprüfung, ist wissenschaftlich gesehen Müll.groundhog hat geschrieben:Ich habe mit Version 5.5.0 auch nach der Ankündigung noch WUs bekommen. Wär ok gewesen, wenn nicht, gibt genug Projekte.Chipkiller hat geschrieben:Ja, da hat sich ein Ami gemosert, weil viele zu hohe Credits claimen er einen originalen Client einsetzt und sich benachteiligt fühlt.
Wer die Version 5.5.0 hat bekommt keine Wu mehr.
Damit hat sich das Projekt selbst ins Knie gefickt.
Was mich aber stört ist die Einführung eines Quorums, ohne darüber ein Wort auf der Hauptseite oder im Forum zu verlieren.
Und wenn das nur wegen der Credits ist, mache ich eine solche Kapazitätsverschwendung nicht mit.
Grüße Groundhog
Wie dieses Quorum erreicht wird ist eine andere Frage, entweder WU für WU, wie bei Seti, oder über ein bestimmtes WU-Paket mit zufälligen Variationen, wie bei Rosetta. "Kapazitätsverschwendung" ist das nur, wenn das Ergebnis beweissicher erbracht wurde.
Nur für ein gerechtes Creditsystem ist es imho nicht erforderlich, da kann auch genausogut auf Serverseite eingegriffen werden, um das Überclaimen der "opt." Clients zu verhindern. Das 5.5er auf ein gerechtes Maß gestutzt werden müssen ist für mich keine Frage, schließlich sollte gleicher Lohn für gleiche Arbeit gelten.
- huraxprax
- Vereinsmitglied
- Beiträge: 540
- Registriert: 11.08.2001 01:00
- Wohnort: Heidelberg
- Kontaktdaten:
Ob ein Quorum einen wissenschaftlichen Sinn hat, duerfte meiner Meinung nach stark vom Projekt abhaengen. Bei Projekten in denen ein begrenzter Konfigurtionsraum vollstaendig durchgesucht werden muss, wie z.B SIMAP, ist ein Quorum sinnvoll um falsche Ergebnisse auszuschliessen.
Bei SETI sieht die Sache jedoch ganz anders aus. Die Datenbasis fuer moegliche Signale waechst kontinuierlich. Grob geschaetzt hat eine WU vielleicht eine Chance von 1 zu einer Million dass in ihr ein Signal entdeckt wird dass noch weiter untersucht wird. Die potentiell positiven Ergebnisse werden sicher alle noch einmal von Berkeley nachgerechnet, ein falsches Positivsignal wird also sofort erkannt. Die Chance dass dagegen ein tatsaechlich vorhandes Signal durch einen fehler uebersehen wird ist dagegen absolut zu vernachlaessigen.
Die Gruende dort ein Quorum einzufuehren vermute ich in den Erfahrungen mit SETI CLassic. Dort wurden in den letzten Jahren immer mehr komplett gefaelschte und wertlose Ergebnisse produziert und dominierten die Toplisten. Nummer 3 war zum Schluss ein "Usama Bin Ladin", die #1 eines der Top-Teams behauptete einen Cluster aus SGI-Maschinen mit Alpha-Prozessoren zu besitzen, die Teamleiter staden dem ohnmaechtig gegenueber und der Frust bei normlen Benutzern wuchs.
Gegen solche Auswuechse, oder fefekte Rechner, duerfte aber ein Stichprobensystem ausreichen, das etwa jede 20. WU mehrfach berechnen laesst Ein Quorum von 3 wie es bei SETI im Moment ist ist hoffnungslos ueberzogen.
Von HashClash weiss ich zu wenig, es sieht aber fuer mich auf den ersten Blick auch so aus als ob dort nur eine sehr geringe potentielle Chance von Kollisionen auftreten kann und somit ein Quorum auch ueberfaellig waaere.
Gegen das Benchmarkproblem sehe ich nur eine Loesung, das fester Credits pro Arbeit, wie es jetzt Rosetta und SIMAP eingefuehrt haben, und ich glaube auch SETI und Einstein, Folding hatte das schon immer. Clientseitige Benchmarks in den Muell.
Aber solange die offiziellen Clients immer noch Linuxbenutzern die Haelfte der Benchmarkwerte von Windowsbenutzern zugestehen, werden Leute weiterhin opimierte Clients benutzen oder auf Projekte ausweichen in denen das keine Rolle mehr spielt.
Bei SETI sieht die Sache jedoch ganz anders aus. Die Datenbasis fuer moegliche Signale waechst kontinuierlich. Grob geschaetzt hat eine WU vielleicht eine Chance von 1 zu einer Million dass in ihr ein Signal entdeckt wird dass noch weiter untersucht wird. Die potentiell positiven Ergebnisse werden sicher alle noch einmal von Berkeley nachgerechnet, ein falsches Positivsignal wird also sofort erkannt. Die Chance dass dagegen ein tatsaechlich vorhandes Signal durch einen fehler uebersehen wird ist dagegen absolut zu vernachlaessigen.
Die Gruende dort ein Quorum einzufuehren vermute ich in den Erfahrungen mit SETI CLassic. Dort wurden in den letzten Jahren immer mehr komplett gefaelschte und wertlose Ergebnisse produziert und dominierten die Toplisten. Nummer 3 war zum Schluss ein "Usama Bin Ladin", die #1 eines der Top-Teams behauptete einen Cluster aus SGI-Maschinen mit Alpha-Prozessoren zu besitzen, die Teamleiter staden dem ohnmaechtig gegenueber und der Frust bei normlen Benutzern wuchs.
Gegen solche Auswuechse, oder fefekte Rechner, duerfte aber ein Stichprobensystem ausreichen, das etwa jede 20. WU mehrfach berechnen laesst Ein Quorum von 3 wie es bei SETI im Moment ist ist hoffnungslos ueberzogen.
Von HashClash weiss ich zu wenig, es sieht aber fuer mich auf den ersten Blick auch so aus als ob dort nur eine sehr geringe potentielle Chance von Kollisionen auftreten kann und somit ein Quorum auch ueberfaellig waaere.
Gegen das Benchmarkproblem sehe ich nur eine Loesung, das fester Credits pro Arbeit, wie es jetzt Rosetta und SIMAP eingefuehrt haben, und ich glaube auch SETI und Einstein, Folding hatte das schon immer. Clientseitige Benchmarks in den Muell.
Aber solange die offiziellen Clients immer noch Linuxbenutzern die Haelfte der Benchmarkwerte von Windowsbenutzern zugestehen, werden Leute weiterhin opimierte Clients benutzen oder auf Projekte ausweichen in denen das keine Rolle mehr spielt.
Gerade bei dieser Suche nach der Nadel im Heuhaufen, wie sie SETI betreibt, wäre es fatal, wenn das Signal wegen einer fehlerhaften Analyse übersehen würde. Gerade hier ist eine mehrfache korrekte Berechnung wichtig, bevor ein Datensatz endgültig als uninteressant abgestempelt wird.huraxprax hat geschrieben:Bei SETI sieht die Sache jedoch ganz anders aus. Die Datenbasis fuer moegliche Signale waechst kontinuierlich. Grob geschaetzt hat eine WU vielleicht eine Chance von 1 zu einer Million dass in ihr ein Signal entdeckt wird dass noch weiter untersucht wird. Die potentiell positiven Ergebnisse werden sicher alle noch einmal von Berkeley nachgerechnet, ein falsches Positivsignal wird also sofort erkannt. Die Chance dass dagegen ein tatsaechlich vorhandes Signal durch einen fehler uebersehen wird ist dagegen absolut zu vernachlaessigen.
Die Gruende dort ein Quorum einzufuehren vermute ich in den Erfahrungen mit SETI CLassic. Dort wurden in den letzten Jahren immer mehr komplett gefaelschte und wertlose Ergebnisse produziert und dominierten die Toplisten. Nummer 3 war zum Schluss ein "Usama Bin Ladin", die #1 eines der Top-Teams behauptete einen Cluster aus SGI-Maschinen mit Alpha-Prozessoren zu besitzen, die Teamleiter staden dem ohnmaechtig gegenueber und der Frust bei normlen Benutzern wuchs.
Gegen solche Auswuechse, oder fefekte Rechner, duerfte aber ein Stichprobensystem ausreichen, das etwa jede 20. WU mehrfach berechnen laesst Ein Quorum von 3 wie es bei SETI im Moment ist ist hoffnungslos ueberzogen.
Die Antwort ist 42.
[img]http://stephenbrooks.org/muon1/banner.p ... Hermens%20[www.rechenkraft.net]&format=.jpg[/img]
[img]http://stephenbrooks.org/muon1/banner.p ... Hermens%20[www.rechenkraft.net]&format=.jpg[/img]
wenn ich es richtig sehe, wird jetzt bei dem 5er Quorum ein Durchschnittswert der "claimed credits" errechnet. Das führt zu absurden Ergebnissen, z. B. claimed credit 0,18/granted credit 7,25 oder als anderes Extrem claimed credit 19,27/granted credit 2,77. Nach Angaben der Betreiber wird sich das schon irgendwie mitteln; einen wissenschaftlichen Hintergrund für das Quorum gibt es nicht, es geht nur darum, eine faire Creditvergabe zu sichern...