Eric hat geschrieben:Theoretisch wäre das möglich. Praktisch gibt der Parallelbetrieb mit Atlas nur Probleme. Entweder meint Atlas, dass genügend Arbeit vorhanden wäre und läuft trocken oder die anderen Projekte. Da man mit app_config arbeiten muss, ist das alles doof.
Ich habe vLHC und ATLAS sowohl auf 4- als auch 8-Kernmaschinen laufen:
vLHC@home lädt IMMER nur 2 WUs.
Je nach RAM-Austattung stelle ich über die app_config.xml (die nur für ATLAS benötigt wird) die Zahl der maximal parallel laufenden WUs ein: (RAM in GB (-4 (falls RNA World läuft)))/4=Zahl der parallel laufenden ATLAS-Aufgaben in der Konfigurationsdatei. Also wenn RNA World nicht läuft, dann 2 ATLAS WUs pro 8 GB RAM (nur auf Maschinen, an denen ich nicht arbeite; arbeite ich dran, dann kriegen 8 GB nur 1 ATLAS-WU, sonst kann es beim Multitabbrowsing schon mal ruckeln).
Der "project share" ist bei ATLAS auf 5.000, bei vLHC auf 6.000 eingestellt. Alle anderen Projekte bekommen nur 100 mit Ausnahme von RNA World, was bei mir auf 10.000 eingestellt wird.
Wenn auf der Masschine eine GPU oder IGP arbeitet, ist 1 Kern zur GPU-Steuerung reserviert, indem im BOINC-Manager die CPU-Nutzung auf 90% runtergesetzt wird (macht automatisch einen Kern frei).
Das Wechseln zwischen den Anwendungen habe ich praktisch verboten, indem man das Wechselintervall im BOINC-Manager von 60 Min auf 9999999 hochsetzt.
Dann wird der WU-Puffer so eingestellt, dass bei beiden Einstellung im BOINC-Manager 0,5 steht (oder 1,5/0,5 - geht auch, dann saugt sich das Maschinchen etwas voller) - die Maschinen müssen IMMER am Netz sein.
Und schließlich lade ich ein Projekt dazu, das wenig RAM frisst, also Universe@home oder LHC@home oder auch Rosetta@home (nimmt etwas mehr, läuft aber absturzfrei in obiger Kombination).
Bei diesen Einstellungen sind die Maschinen immer mit maximaler Effizienz für vLHC und ATLAS am Rechnen und füllen den Rest der Kapazitäten mit anderen Projekten.
Im Fall eines WU-Mangels füllt das Hintergrundprojekt die Lücken aus.
Michael.