Newsletter/01.04.2007

Aus Rechenkraft
Zur Navigation springen Zur Suche springen

Rechenkraft.net Nachrichten am sonnigen 1. April 2007

Einleitung

Liebe Interessenten, liebe Mitglieder, von Rechenkraft.net, diese Ausgabe des Newsletters fasst interessante Entwicklungen bei den Projekten (Punkt 1), interessante Geschehen (Punkte 2, 3, 5) in unserem Forum sowie weitere distributed computing-Informationen (Punkt 4) zusammen.

Der Name dieses Newsletters "Rechenkraft.net Nachrichten" wurde kürzlich von der Rechenkraft.net-Gemeinschaft in mehreren Wahlen bestimmt: Stichwahl: [1] Wahlbereich I: [2] Wahlbereich II: [3] Namensvorschläge: [4]

1 Berichte zu Projekten

1.1 Unterschied zwischen den Biochemie-Projekten

Der Vorstandsvorsitzende des Rechenkraft.net Vereins und Wissenschaftsbeauftragte Michael H.W. Weber wurde im Forum gefragt, ob er einen kleinen Überblick über die Unterschiede der Forschung von Rosetta@home, Predictor@home, Docking@home, Distributed Folding, md.... geben könne. Seine Antwort:

Hmmm, das erfordert einiges an Recherche, um das mal genau auseinander zu dividieren. Daher hier ganz kurz: Keines der Projekte hat völlig überlappende Zielsetzungen, auch wenn die Methoden bei zumindest einigen ähnlich sind. Bei Rosetta@home und Predictor@home geht es in erster Linie um ab initio Proteinstrukturvorhersage. Ab initio bedeutet anschaulich gesagt ohne weitere Vorkenntnisse (Lateiner unter uns mögen es sicherlich besser beschreiben; mein halbes Jahr Latein in der Schule reicht jedenfalls nicht). Will heißen, daß man dort nur die Abfolge der Aminosäuren im Protein vorgibt und durch die Rechnungen am Ende die Proteinstruktur erhält. Distributed Folding probierte ähnliches, hatte aber einen ganz anderen Ansatz (brute force). Rosetta@home hat neben der Proteinstrukturvorhersage (was identisch sein kann mit Proteindesign; siehe HIV-Projekt) noch Protein-Protein-Wechselwirkungsuntersuchungen und RNA-Strukturvorhersageuntersuchungen "im Programm", die aber bislang noch nicht (oder nur wenig?) angegangen wurden. Das WCG-Projekt HPFP1 und HPFP2 dienen ebenfalls zur Proteinstrukturvorhersage und da deren Projektleiter bei David Baker (Rosetta@home) promoviert hat, ist anzunehmen, daß hier Ähnlichkeiten mit individuellen Weiterentwicklungen (vieleicht sogar im Rahmen einer Kooperation beider Arbeitsgruppen?) zum Einsatz kommen.

Programme, die "automated docking" einsetzen, gibt es wie Sand am Meer. Das WCG-Projekt FAAH gehört dazu, Docking@home, CommunityTSC, FAD, uvm. Hier gibt es im Grunde genommen zwei Projektklassen: Die eine wendet die Dockingmethoden auf konkrete (vornehmlich z.B. medizinische) Fragestellungen an. Dazu gehört FAAH, FAD, CommunityTSC. Der anderen Sorte Projekte geht es eher um die Verfeinerung eben der angewendeten Methoden. Dazu zählt meiner Einschätzung nach Docking@home. Die Projektleiterin von Docking@home ist meinen Informationen zufolge die Kernentwicklerin von Predictor@home, hat sich aber inzwischen an einer anderen Universität (El Paso, Texas) etabliert. Sie ist auch eine der Autorinnen unseres Buchartikels zu Predictor@home. Nicht vergessen sollte man allerdings, daß die Verfeinerung der Methoden immer an Beispielen durchgeführt werden muß, sodaß parallel zur Methodenentwicklung immer auch neue Informationen über konkrete wissenschaftliche Fragestellungen zusammen kommen. Predictor@home hat das Programm Mfold im Einsatz. Dieses ist nicht zu verwechseln mit dem von Michael Zuker (Rensselaer Universität, USA) entwickeltem Mfold und dient auch nicht der Berechnung von RNA-Sekundärstrukturen, sondern der ab initi Proteinstrukturvorhersage. Proteins@home schlieÃ?lich ist ähnlich wie damals Genome@home ein reines Proteindesignerprojekt. Man probiert dort, natürliche Proteine mit bekannter Funktion künstlich nachzubilden, in der Hoffnung, bessere Aktivität zu erzielen. Kurz: Man hat am Ende ein Protein (hoffentlich) besserer Funktion, daÃ? aber eine ganz andere Aminosäuresequenz besitzt, als die natürlich Vorlage.

P.S.: Ralph@home ist schlieÃ?lich ein Projekt, das nur der Methodenverbesserung von Rosetta@home dient.


Eine Liste aller Biochemie-Projekte: Kategorie:Biochemie
Credits: Michael H.W. Weber, [5]

1.2 Rosetta@Home - http://boinc.bakerlab.org/rosetta

Das HIV-Projekt von David Baker (Projektleader von Rosetta@home) konnte auf Grund der Unterstützung seitens der Melinda und Bill Gates-Stiftung 7 Mitarbeiter einstellen, um das Projekt voranzutreiben. So schreibt Baker auf der Projektseite: "Unsere Vorhersage- und Designmethoden sind jetzt an einem Punkt angekommen, an dem sie auf wichtige biologische Probleme angewandt werden können". Michael H.W. Weber schreibt in seinem Kommentar: Der von ihm weiter oben in seinem "Tagebuch" (d.h. David Baker's Journal: [6]) erwähnte Artikel von Peter Kwong in Nature hat für einiges Aufsehen gesorgt. Kurz zusammengefasst, hat man dort festgestellt, dass zwar das Andocken des HIV-1 Virus an seine menschlichen Zielzellen zu einer strukturellen Umlagerung des beteilgten Oberflächen-HIV-Proteins führt, daÃ? es aber Bereiche in diesem Protein gibt, die eben unverändert bleiben müssen. Jetzt probiert Rosetta@home, diese - wie man sagt konservierten, also unveränderlichen - Bereiche als kleine Proteine (oder auch Peptide) nachzubilden. Also Aminosäuresequenzen zu finden, die genau diese Struktur einnehmen. Ziel ist es dann wohl (ich lese mal in der Kristallkugel, da ich natürlich [oder besser: leider] sein genaues Projektdesign nicht kenne), solche Peptide als Impfstoffkandidaten zu testen. Immerhin ist das Kernproblem, welches HIV uns bei seiner Bekämpfung auferlegt die Tatsache, dass dieses RNA-Virus sich permanent verändert. Hätte man unveränderliche HIV-Proteinbereiche, die zudem noch überlebenswichtig für die Funktion des Protein sind, dann wären diese gute Angriffspunkte für eine Therapie oder einen Impfstoff. Es gibt übrigens Hinweise darauf, dass HIV auch die Mengen regulatorischer RNAs in den menschlichen Zielzellen verändert und vielleicht sogar neben den HIV-Proteinen, eigene kleine regulatorische RNAs mitbringt. Diese können massive Eingriffe in die gesamte Zellregulation zur Folge haben. Tatsächlich werden zur Zeit in Rosetta@Home auch RNA-Sequenzen berechnet.

Zum Vorgehen von Rosetta schreibt Michael in einem anderen Beitrag:
Brute-force heiÃ?t nach meinem Verständnis, alles durchzutesten und dann aus statistischen Gründen darunter das richtige Ergebnis zu finden. Bei Rosetta ist das aber anders. Dort gibt es meines Wissens ein klares Regelwerk, das bei dem Falten berücksichtigt und über die Jahre verfeinert wird. Um es ganz genau zu sagen, müÃ?te ich allerdings wirklich tiefer eintauchen in die Materie.


Informationen zum Projekt in unserem wiki: Rosetta@home
Credits: Michael H.W. Weber, Links: [7], [8]

Weitere Informationen zusammengetragen von der Projektseite

1.3 Einstein@Home - http://einstein.phys.uwm.edu

Mit dem S3-Lauf (bis Juni 2005) wurden keine signifikanten Signale gefunden, die nicht auf künstliche Ursachen zurückgeführt werden konnten. Die Daten für den S4-Lauf wurden quasi mit längerer Belichtungszeit gewonnen, wodurch man da vermutlich mehr entdecken wird. Die Ergebnisse des S4-Laufs (WU-Ausgabe war bis Juni 2006) werden zur Zeit noch ausgewertet, das Endergebnis in Kürze veröffentlicht. Seit Juni 2006 werden die WUs des (wiederum verbesserten) S5-Laufs ausgegeben. Ein S6-Lauf ist bereits in Planung, und danach erhält das LIGO-MeÃ?gerät ein Upgrade, wodurch es ca. 10-fach genauer wird und somit 1000x mehr Objekte untersuchen kann. Für mich sieht das so aus, daÃ? die momentanen Berechnungen vor allem dazu dienen, das MeÃ?gerät zu verbessern - echte Daten werden vermutlich erst mit dem S7-Lauf gewonnen werden. laguna2 fügt hinzu: Die Datenberechnungen dienen zur Überprüfung der Upgrades am MeÃ?gerät. Sie wollen untersuchen, ob die gewünschte Abnahme des Störrauschens wirklich eintritt. Bislang war das auch so.


Im wiki finden sich Infos hier: Einstein@home
Credits: Speedking & laguna2, [9]

2 TF - TaskForce - [10]

Unter der Taskforce versammeln sich die Mitglieder, die ihre Computer für Einsätze zur Verfügung stellen. Ein Mitglied stellt die Frage nach einem TaskForce-Einsatz im Forum und begründet, warum er einen Einsatz dort für sinnvol hielte. Nach einer positiven Wahl und der Möglichkeit eines jeden Mitglieds der TaskForce sich zu Sinn und Unsinn zu äuÃ?ern, rechnen die Rechner für eine bestimmte Zeit (z.B. 4 Wochen) oder bis zum erreichen einer bestimmten Marke (z.B. Anzahl results beim Projekt) für das vorgeschlagene Projekt. Am 17. Februar ist nach einem nicht glorreichen Einsatz der Wunsch nach einem TaskForce-Commander aufgeflammt, der dafür sorgt, dass die Mitglieder der TF nach der Wahl über den Einsatz informiert und die laufend den Stand im Forum durchgibt. Gewählt wurde am 10. März schlieÃ?lich Arminius: [11]


Mehr Informationen finden sich im WiKi, unserer Bibliothek des DC-Wissens: Taskforce

3 Das (geheime) Rennen unter EOn - http://eon.cm.utexas.edu

Nachdem Der Diplomat am 17. März auf der dc-vault.com Site auffiel, dass unter der Kategorie Physik das RKN-Team um einen Platz auf Platz 7 gelangte, um gleich einen Tag später wieder auf Platz 8 verwiesen zu werden, wurde im Forum ([12]) überlegt wie unser Team sich am leichtetesten in der Wertung nach vorne rechnen könne. Dort finden sich auch die aktuellen Stände zum Rennen. Dabei viel die Wahl auf EOn, einem nicht-boinc Projekt. S_Garbe brachte uns schlieÃ?lich darauf ([13]), dass gerade mit kleinen Projekten die erhaltenen Punkte eine Hebelwirkung auf die Platzierung unter DC-Vault bedeuten würde. Seit dem haben ein paar wenige unerschrockene nicht aufgehört, auch mit den nicht immer zur Verfügung stehenden WUtzen, dieses Projekt zu unterstützen, um unseren 4. Platz zu sichern. Ein kleines Rennen Frewilliger, das den SpaÃ? an der Sache verdeutlicht. Ziel ist Platz 5, das durchaus realistisch erscheint, da AMD Users einen unbedeutenden Tages-AusstoÃ? (RAC) hinlegen. Allein Team Ninja hängt uns an den Fersen, was das RAC anbelangt.


Weitere Informationen zum Projekt EOn finden sich hier: [14]

4 TeraFLOPS der BOINC-Projekte

Laut boincstats.com liefern die an BOINC angeschlossenen Rechner derzeit im Durchschnitt 537 TeraFLOPS, womit die frewilligen Cruncher die TOP500 der Welt mit 280 TeraFLOPS deutlich in den Schatten stellen.


Links:
boinctstats: [15]
top500: [16]
Credits: yoyo, [17]

5 Infizierte Computer rechneten für BOINC-Projekte (Fall Wate)

Ein Computerwurm zwang einige Rechner für BOINC-Projekte zu rechnen. Der Beitrag hierzu: [18]

Von den Usern wurde der Ruf laut, dass der Account von [Wate] gelöscht, worauf die results gutgeschrieben wurden, und die Person im realen Leben (IRL) zur Verantwortung gezogen werden sollte. Während man bei den meisten Projekten schnell reagierte, wurden anfänglich bei Predictor@home keine Schritte eingeleitet, später sogar die Accounts von Usern gesperrt und das Posten im Forum im verboten. Auch bei uns im Forum ging es zu diesem Thema heiÃ? her ([19]). Einige User haben beschlossen das Projekt auf Grund der Zensur zu boykottieren und nicht mehr dafür zu rechnen. Andere wiederum haben in ihren Profilen bei Predictor@home Boykottaufrufe eingestellt, in der Hoffnung die Nachricht würde auf der Projektseite gezeigt werden.


6 Abspann

Anregungen, Beiträge, Ideen, Wünsche

Habt Ihr Wünsche, Ideen und Anregungen für die nächste Ausgabe des Newsletters? Dann habt ihr hier die Möglichkeit: [20]

An- und Abmeldung

Ein- und aus dem Newsletter austragen kann man sich hier: [21]

Beiträge von

Der Diplomat, laguna2, Michael H.W. Weber, SpeedKing

Redaktion

Der Diplomat, yoyo

Die Rechenkraft möge mit Euch sein und ihr ein Frohes Osterfest haben.
Der Diplomat, yoyo