Michael H.W. Weber hat geschrieben:... kleinere Fragmente. Wir können im damit im Prinzip die Laufzeiten aller WUs so weit runterschrauben, wie wir wollen, werden dies in der Praxis aber nur auf wirklich große Genome anwenden, da alles andere eigentlich sehr zufriedenstellend läuft. ...
Vielleicht als Erklaerung, warum es nicht sinnvoll ist, zu klein zu stueckeln, das ist naemlich keine Willkuer sondern hat ganz praktische Gruende :
Beim Zerstueckeln ist jeder Schnitt mit etwas Redundanz verbunden, je kleiner die Stuecke werden um so mehr Redundanz handelt man sich ein (anteilig an der Gesamtberechnung).
Der Grund dafuer liegt darin, dass man an der Schnittstelle immer in beide Richtungen sozusagen "Reserve zugeben" muss, weil man sonst Treffer, die genau auf dem Schnitt liegen, nicht erfassen wuerde. Mit den Ueberlappungen erreicht man, dass jeder Treffer immer vollstaendig innerhalb eines Pakets liegt, sie verlaengern aber die Rechenzeit (in Summe) der Teilstuecke gegenueber der Abhandlung der kompletten Sequenz am Stueck.