Hach ja, was haben wir da als gemeinnütziger Verein nicht schon alles probiert...
Ich erinnere mich noch an den Versuch unserer systematischen Rundschreiben-Kontaktaufnahme mit Unis und Foschungsinstituten Anfang der 2000er: Die haben sich unverständlicher Weise als "Elfenbeintürmler" enttarnt, indem sie uns schlicht als "nicht ernst zu nehmen" belächelten.
Schaut man sich inzwischen nur mal die Publikationslisten der Folding@home-, Rosetta@home- (mittlerweile sogar Nobelpreis erhalten) oder GPUGRID-Teams an und vergleicht diese mit den damals angeschriebenen Forscherteams, dann weiß man wer tatsächlich "nicht ernst zu nehmen" ist...
Hinzu kommt, dass es damals so war, dass es kaum einen Unterschied zwischen "idle" laufenden Rechnern (oder mit Office im Betrieb) und vollastrechnenden Maschinen gab (wir hatten da als Differenz zu Athon-A Zeiten mal 15 W gemessen). Damals war es quasi selbstbefohlen, Rechner parallel zu den eigentlichen Aufgaben flächendeckend für DC-Projekte rechnen zu lassen - passierte aber nicht. Dieser Effekt ist über die Jahre dann weggefallen wegen der verbesserten Energienutzung moderner CPUs.
Dennoch bleibt selbst heute das Energieeffizienzargument von DC zumindest vs. High-Performance-Cluster (HPC) bestehen - angesichts der Tatsache, dass man bei HPCs in der Regel auch heute noch dasselbe an Energie für die Kühlung einsetzen muss, wie für die eigentliche Rechenleistung.
Schaut man sich dann an, unter was für Sparzwängen Universitäten insbesondere derzeit stehen, wäre eigentlich ein systematisches Umdenken bei HPC-Systemen zu erwarten. Findet aber auch nicht statt.
Wir hatten von Rechenkraft.net aus vor ca. 15 Jahren dann auch mal das
RNA World Projekt gestartet, um zu zeigen, dass man mit solchen Ansätzen tatsächlich in der Praxis mit nahezu keinen Eigenkosten bei kontinuierlicher Systemaktualisierung (die User halten ihre Kisten nämlich unaufgefordert in Schuss

) deutlich mehr Rechenleistung bereitstellen kann, als ein universitärer HPC. Interessiert aber auch niemanden.
Ein Problem, das wir über die Jahre erkannt haben ist, dass für die typischen Anwender das BOINC-Ökosystem einfach zu komplex ist, um es selbst aufsetzen und betreiben zu können: Der Biologe oder Mediziner, der eine Proteinstruktur modellieren möchte, wird für Einzelprojekte auf Webserver zurückgreifen und ist technisch nicht in der Lage für Hochdurchsatzansätze bzw. systematische Studien die IT-Infrastruktur aufzubauen.
Der IT'ler hingegen sieht den Bedarf gar nicht erst. Und wenn er drauf angesprochen wird, kann er so ein System zwar aufsetzen, versteht dann aber nicht wozu - und was da wissenschaftlich unter der Haube abläuft. In der Folge haben wir heutzutage einen ganzen Satz professioneller (und somit kostenpflichtiger) Cloud-Dienste am Start, die zwar allerhand Bioinformatik-Apps per Web-Frontend und HPC-Backend anbieten, aber dann keinerlei Fragen zu der Wissenschaft dahinter beantworten können und auch scheitern, wenn man ihnen Bugs ihrer Systeme vorlegt - selbst wenn man die sauber dokumentiert.
Kurz: Es besteht - insbesondere angesichts der neuen "AI"-Möglichkeiten - ein Riesenbedarf, die Lösungen liegen eigentlich seit langem auf der Straße und was fehlt ist der "Kitt" oder "Babelfisch" zwischen Anwender und IT'ler.
Aus diesem Grund sind wir inzwischen dabei, ein neues DC-Projekt aufzubauen, das diese Probleme löst.
Da suchen wir auch nach wie vor immer Leute, die sich engagieren möchten.
Michael.