Grenzwerte für neue cmsearch Aufgaben gesucht

Alles zum Projekt RNA World
Nachricht
Autor
ChristianB
Admin
Admin
Beiträge: 1920
Registriert: 23.02.2010 22:12

Grenzwerte für neue cmsearch Aufgaben gesucht

#1 Ungelesener Beitrag von ChristianB » 29.12.2013 13:43

Hallo,

es steht ein neuer Schwung Aufgaben für cmsearch in den Startlöchern. Diese Batch besteht zum Großteil aus Kurzläufern mit ein paar Ausreißern im 6-8 Stunden Bereich und nur 3 mit einer geschätzten Laufzeit über 12h. Wir haben jetzt die Erzeugung von Aufgaben umstrukturiert und können jetzt anhand der Vorhersage die Aufgaben an die jeweilige App (S, XXL, VM) verteilen. Die Frage ist nur nach welchen Grenzwerten machen wir das. Hier mal mein Vorschlag den ich zur Diskussion stellen möchte:
  • cmsearch S: Gesamtlaufzeit bis zu 12 Stunden aber Einzellaufzeit unter 4 Stunden (damit hätten wir ein simples Checkpointing für S)
  • cmsearch XXL: mehr als 4 und weniger als 48 Stunden Gesamtlaufzeit und nur ein cmsearch Aufruf
  • cmsearch VM: alles über 48 Stunden Laufzeit (nur ein Aufruf)
Die Besonderheit bei S ist das mehrere cmsearch Aufrufe gebündelt werden bis entweder 1000 erreicht sind oder die 12h erreicht sind.

Die Verluste bei einem Absturz oder Reset der Workunit sind somit für S und XXL überschaubar. Diese Grenzwerte sind anpassbar und stehen hiermit zur Diskussion. Wollt Ihr also kürzere S, XXL oder längere XXL oder ...?

Stiwi
Powerknopf-Verweigerer
Powerknopf-Verweigerer
Beiträge: 1404
Registriert: 20.05.2012 21:11

Re: Grenzwerte für neue cmsearch Aufgaben gesucht

#2 Ungelesener Beitrag von Stiwi » 29.12.2013 14:23

ChristianB hat geschrieben:
  • cmsearch S: Gesamtlaufzeit bis zu 12 Stunden aber Einzellaufzeit unter 4 Stunden (damit hätten wir ein simples Checkpointing für S)
  • cmsearch XXL: mehr als 4 und weniger als 48 Stunden Gesamtlaufzeit und nur ein cmsearch Aufruf
  • cmsearch VM: alles über 48 Stunden Laufzeit (nur ein Aufruf)
Die Besonderheit bei S ist das mehrere cmsearch Aufrufe gebündelt werden bis entweder 1000 erreicht sind oder die 12h erreicht sind.

Die Verluste bei einem Absturz oder Reset der Workunit sind somit für S und XXL überschaubar. Diese Grenzwerte sind anpassbar und stehen hiermit zur Diskussion. Wollt Ihr also kürzere S, XXL oder längere XXL oder ...?
klingt gut^^
Bild
Bild

Benutzeravatar
Norman
Klimawolke
Klimawolke
Beiträge: 2188
Registriert: 20.03.2003 14:34
Wohnort: Saarland
Kontaktdaten:

Re: Grenzwerte für neue cmsearch Aufgaben gesucht

#3 Ungelesener Beitrag von Norman » 29.12.2013 16:09

+1

Benutzeravatar
Dunuin
Vereinsmitglied
Vereinsmitglied
Beiträge: 1743
Registriert: 23.03.2011 12:59
Wohnort: Hamburg

Re: Grenzwerte für neue cmsearch Aufgaben gesucht

#4 Ungelesener Beitrag von Dunuin » 29.12.2013 16:28

Finde ich auch ok, aber die Namen passend dann nicht mehr so. Das XXL ist dann eigentlich nur noch ein L, weil die VM zum XXL wurde.
Bild

Benutzeravatar
Norman
Klimawolke
Klimawolke
Beiträge: 2188
Registriert: 20.03.2003 14:34
Wohnort: Saarland
Kontaktdaten:

Re: Grenzwerte für neue cmsearch Aufgaben gesucht

#5 Ungelesener Beitrag von Norman » 29.12.2013 16:38

oder ein M für medium gebraten :smoking:

Benutzeravatar
nico
Vereinsmitglied
Vereinsmitglied
Beiträge: 2211
Registriert: 22.12.2002 13:22
Wohnort: C-Town
Kontaktdaten:

Re: Grenzwerte für neue cmsearch Aufgaben gesucht

#6 Ungelesener Beitrag von nico » 29.12.2013 21:14

Könnte man die Einzelnen S unter 2h bringen oder wird es dann zuviel in XXL?
Bild

ChristianB
Admin
Admin
Beiträge: 1920
Registriert: 23.02.2010 22:12

Re: Grenzwerte für neue cmsearch Aufgaben gesucht

#7 Ungelesener Beitrag von ChristianB » 29.12.2013 22:01

nico hat geschrieben:Könnte man die Einzelnen S unter 2h bringen oder wird es dann zuviel in XXL?
Für die jetzige Batch ist das egal weil sowieso sehr viele S erzeugt werden. Verringert man die Laufzeit pro Job werden halt nur mehrere Jobs erzeugt. Ich werde morgen mal eine genauere Analyse (Häufigkeitsverteilung) der Batch anfertigen und ein paar Grafiken hochladen. Was man aber auch beachten muss ist das wenn die S zu klein werden steigt die Last für den Server. Auch ist der Pool an Rechnern die XXL erlauben recht klein.

Benutzeravatar
Michael H.W. Weber
Vereinsvorstand
Vereinsvorstand
Beiträge: 22428
Registriert: 07.01.2002 01:00
Wohnort: Marpurk
Kontaktdaten:

Re: Grenzwerte für neue cmsearch Aufgaben gesucht

#8 Ungelesener Beitrag von Michael H.W. Weber » 30.12.2013 01:03

Hinweis: In den S stecken oft auch WUs von nur wenigen Minuten Laufzeit drin (es gibt sogar welche unter 1 Min.). Diese einzeln auszugeben, zwingt bei unseren Mengen jeden Server früher oder später in die Knie. Wir haben das ausprobiert und diese Erkenntnis war der Grund für das Verpacken vieler kleiner WUs in Pakten mit dem Namen S. Die im Manager angegebene Gesamtlaufzeit ist also NICHT notwendigerweise identisch mit der Laufzeit einer WU. Wenn man bei S WUs den Rechner einfach abstellt, dann wird das Paket erneut mit der zuletzt in Berechnung befindlichen WU gestartet - das bezeichnen wir als "pseudo-Checkpointing".

Christian hat es oben schon angedeutet - dies nur nochmal zur etwas detaillierteren Erklärung.

Wir müssen also mmer den Kompomiss suchen zwischen möglichst kurzen WUs, möglichst viel Checkpointing und der Sicherstellung, dass der Server nicht einbricht.
Die VM WUs sollte man nach meiner Meinung eigentlich für alle längeren WUs ausgeben. Dort ist dann aber das Problem zu beachten, dass die VM WUs ziemlich viel Material senden und ohne Ende Platz auf der Platte einnehmen. Es ist dann also die Frage, für welche Laufzeit man sich das generell geben möchte.

Das der VM-Ansatz auch etwas Performance kostet ist bekannt. Allerdings laufen unsere Clients in der VM immer unter Linux, während auf Windowsrechnern die Windows Kompilate verwendet werden, die weniger performant sind. Ich wage jetzt nicht zu behaupten, dass sich das also ausgleichen würde, dazu müßten wir das im Detail vermessen. Trotzdem bitte mal im Kopf behalten...

Ich würde unterm Strich Christians Vorschlag übernehmen mit der Änderung, dass XXL namentlich durch L ersetzt wird. :D

Michael.
Fördern, kooperieren und konstruieren statt fordern, konkurrieren und konsumieren.

http://signature.statseb.fr I: Kaputte Seite A
http://signature.statseb.fr II: Kaputte Seite B

Bild Bild Bild

Tom_unoduetre
Team-Joker
Team-Joker
Beiträge: 320
Registriert: 03.08.2010 11:32
Wohnort: HH meine Perle

Re: Grenzwerte für neue cmsearch Aufgaben gesucht

#9 Ungelesener Beitrag von Tom_unoduetre » 30.12.2013 11:27

Moin,

mein persönlicher Wunsch :-)

cmsearch S: Gesamtlaufzeit bis zu 12 Stunden aber Einzellaufzeit unter 1 Stunden
cmsearch VM: alles über 12 Stunden Laufzeit (nur ein Aufruf)

Aus persönlicher Sicht wäre es schön die Einzellaufzeiten der S WUs auf 1 Stunde zu verringern, oder wäre das zu stressig für den Server? (Ich bin ein Checkpoint Freak, jede verschwendete Minute an Rechenzeit tut mir immer weh... ich bin da aber auch sehr empflindlich glaube ich)

Gibt es Überlegungen die XXL (oder dann L) komplett durch die VM WUs zu ersetzen, so daß am Ende nur S und VM übrig bleiben? Oder wollt Ihr XXL behalten für Leute die kein checkpointing brauchen und sich aber auch keine VM installieren wollen bzw. wegen des von Michael angedeuteten Overhead Problems bei VM?

Benutzeravatar
Michael H.W. Weber
Vereinsvorstand
Vereinsvorstand
Beiträge: 22428
Registriert: 07.01.2002 01:00
Wohnort: Marpurk
Kontaktdaten:

Re: Grenzwerte für neue cmsearch Aufgaben gesucht

#10 Ungelesener Beitrag von Michael H.W. Weber » 31.12.2013 01:58

Ja, die XXL werden demnächst in den VMs abgearbeitet bzw. als L bezeichnet - die genauen Laufzeitgrenzen probieren wir gerade sinnvoll neu festzulegen.

Ich bin der Ansicht, dass wir generell eher auf etwas Performance zu Gunsten eines Checkpointings verzichten können, denn unsere Tasks liegen jenseits von allem, was die anderen Projekte so an Anforderungen haben. Abstürze wirken sich nämlich auch auf die Gesamtperformance aus. :wink:

Michael.
Fördern, kooperieren und konstruieren statt fordern, konkurrieren und konsumieren.

http://signature.statseb.fr I: Kaputte Seite A
http://signature.statseb.fr II: Kaputte Seite B

Bild Bild Bild

ChristianB
Admin
Admin
Beiträge: 1920
Registriert: 23.02.2010 22:12

Re: Grenzwerte für neue cmsearch Aufgaben gesucht

#11 Ungelesener Beitrag von ChristianB » 01.01.2014 18:12

Im englischen Thread kam gerade folgender Vorschlag:

S: Gesamtlaufzeit bis zu 4 Stunden, Einzellaufzeit unter 4 Stunden
L: Einzellaufzeit über 4 aber unter 48 Stunden
VM: alles über 48 Stunden

Benutzeravatar
Michael H.W. Weber
Vereinsvorstand
Vereinsvorstand
Beiträge: 22428
Registriert: 07.01.2002 01:00
Wohnort: Marpurk
Kontaktdaten:

Re: Grenzwerte für neue cmsearch Aufgaben gesucht

#12 Ungelesener Beitrag von Michael H.W. Weber » 01.01.2014 21:18

Ich habe den "thread" gelesen und stimme darin überein, das der Endbenutzer gerne so kurze Tasks haben will, wie möglich. Das Bündeln der WUs hatten wir aus der Not heraus installiert, dass der Server bei WUs von oft nur wenigen Sekunden (Viren mit unkomplizierten RNA Molekülen) in die Knie ging. Die Frage ist: Ab welcher minimalen Laufzeit würde dieses "in die Knie gehen" weiter kritisch sein. 20 Min? Mehr?
Es wäre zu überlegen, ob man einen Sonderstatus "packed" einführt, der klar WUs ausweist, die als Paket mehrere Einzelaufgaben extrem kurzer Laufzeit beinhalten.
Man würde dann als S zukünftig etwas anderes ausgeben, nämlich welche verpacken, die nur eine Aufgabe enthalten - also nicht pseudo-checkpointen - aber eben dennoch kurz laufen.
Dagegen spräche, dass man dafür wieder eine neue App definieren muss. Daher möchte ich euch als Admis überlassen, ob dieser Mehraufwand gerechtfertigt sein könnte. Der Vorteil wäre, dass man den Nutzern mehr Entscheidnungsspielraum darüber gibt, was sie an Arbeit bekommen und wie hoch das Verlustrisiko ist.

Also:

P(acked: pseudo-checkpointed): 0-4 Std.
S(hort: non-checkpointed): Serverminimallaufzeitanforderung (30 Min.?)-8 Std.
L(ong: non-checkpointed): 8-48 Std.
VM (virtual machine: checkpointed): >48 Std.

Ich denke momentan auch etwas über die Zukunft nach in der wir sehr kleine WUs an Smartphones ausgeben könnten. Die Viren wären dafür ideal. Auf dem Cortex-A8 Monocore des BeagleBoard xM hatte ich einen Faktor von ca. 20 bezügl. Laufzeitverlängerung ermittelt (nicht statistisch signifikant - weitere Benchmarks würde ich aber noch nachholen). Also würde eine einminütige Viren-WU dort 20 Min laufen. Das nur schon mal so als Vorgeschmack...
Die "packed" könnten auch dann weiterhin als Option für die x32/x64 Maschinen existieren.

Also zukünftig zusätzlich noch:

M(obile: non-checkpointed): <1 Std.

Michael.
Fördern, kooperieren und konstruieren statt fordern, konkurrieren und konsumieren.

http://signature.statseb.fr I: Kaputte Seite A
http://signature.statseb.fr II: Kaputte Seite B

Bild Bild Bild

Antworten

Zurück zu „RNA World Diskussionen (deutsch)“