Tja, das ganze funktioniert durchaus. Hat aber zwei Haken und zwar einerseits die Ergebnisarchivgröße auf dem Server (60 GB Ergebnisarchiveinzeldateigrößen kamen durchaus vor...) und andererseits der Traffic für die clientseitigen Ergebnisuploads. Um das flächendeckend einzusetzen, bräuchten wir mal eben eine Verfielfachung der Festplatten auf dem Server. Auch die Ergebnis-Datenbank dürfte dann ganz ordentlich mit falsch-positiven geflutet werden und ganz schnell weitere Probleme verursachen. Läßt sich aber im Grunde alles lösen...Norman hat geschrieben:wenn der "zerstückler" funktioniert, dann müsste man theoretisch ja keine einzige WU mehr ausgeben die lange läuft und ALLES einheitlich so zerhacken,
dass laufzeiten bis max. z.b. 1-4h entstehen bei jeder art von WU. (cms,cmc ...).
auch die auswahl in den einstellungen (xxl/s) könnte man sich schenken, da sowieso alles ungefähr einheitlich lange laufen wird.
für user also perfekt mit standardlaufzeiten bei einem projekt.
wann kommt das endlich?
Michael.