Bei Gimps ist alles Neu

GIMPS, Riesel, SOB, PrimeGrid, etc.
Nachricht
Autor
Eric
Powerknopf-Verweigerer
Powerknopf-Verweigerer
Beiträge: 1411
Registriert: 07.05.2013 09:24

Re: Bei Gimps ist alles Neu

#109 Ungelesener Beitrag von Eric » 27.05.2013 19:14

Ok. Prima. Genauso mache ich es auch, also copy&paste.
Na, dann kann ich ja fleißig mithelfen. Wobei die GPU auch für andere BOINC Projekte schaffen darf.
Wenn ich früher an DC gedacht hätte, hätte ich meinen neuen Rechner mit einer Radeon 7950 anstelle der 7850 bestückt. Auf die 100? Differenz wäre es auch nicht mehr drauf angekommen.
Aber gut. Ist halt jetzt so wie es ist. Mein primäres Ziel war ja auch ein Rechner für meine Fotobearbeitung/Panoramaerstellung. Da spielt die Grafikkarte nicht so die Rolle bzw. da ist die 7850 schon fast oversized.
Bild

Benutzeravatar
Jkcapi
Partikel-Strecker
Partikel-Strecker
Beiträge: 991
Registriert: 29.12.2001 01:00
Wohnort: Braunschweig
Kontaktdaten:

Re: Bei Gimps ist alles Neu

#110 Ungelesener Beitrag von Jkcapi » 29.05.2013 12:53

Huhu, ich hab da was ausprobiert, es gibt ja spezial Kabel um zb. einen PCIe Slot zu verlängern und es gibt ein Kabel, siehe hier http://www.ebay.de/itm/NEU-Extender-Ris ... 460eb4ca83 womit man eine x16 PCIe Karte auf einem x1 Slot betreiben kann! Ich mir so ein Kabel bestellt und siehe da es funzt einwandfrei! Meine GTX 470 läuft auf dem x1 Slot und bring volle Leistung bei GIMPS :D Ob das auch mit F@Home auch klappt weis ich nicht. Ich wollte damit nur sagen das auf einem einfachen Board mit nur einem x16 Slot durchaus 2 Karten laufen würden, einen PCIe x1 Slot ist ja meist durchaus vorhanden :D Vieleicht will das ja mal jemand auch ausprobieren :wink:
Gruss Jkcapi :wave:
Gruß Jürgen

Bild

Benutzeravatar
Norman
Klimawolke
Klimawolke
Beiträge: 2188
Registriert: 20.03.2003 14:34
Wohnort: Saarland
Kontaktdaten:

Re: Bei Gimps ist alles Neu

#111 Ungelesener Beitrag von Norman » 01.07.2013 21:49

Ein Bug wurde bei mfaktc und mfakto gefunden wenn die GPUSieveProcessSize 24 ist.
die GPUSieveSize muss mit 3 teilbar sein. das bedeutet die standard 64 muss in der *.ini abgeändert werden in z.b. 63 oder 126 etc. um den kriterien zu entsprechen.
wichtig durch 3 teilbar.
mfaktc und mfakto werden im moment gerade geupdateted so daß eine automatische einstellung dieser werte dann vorgenommen wird. ;)
this made me think if non-power-of-two values for GPUSieveSize are allowed at all. Yes they are. But thinking a bit more about the dependencies, I think I found a bug in mfakto and mfaktc:

When using GPUSieveProcessSize=24 and GPUSieveSize that is not divisible by 3, then some FCs may go untested.

(GPUSieveSize * 1024) must be divisible by GPUSieveProcessSize.

Worst case would be GPUSieveProcessSize=24 and GPUSieveSize=4, in which case about 1 in 256 FCs would go untested.

Typical settings of GPUSieveProcessSize=24 and GPUSieveSize=64 leaves 1 in 4096 FCs untested, GPUSieveProcessSize=24 and GPUSieveSize=128 about 1 in 16384.

Unfortunately this is something that the selftest cannot cover without increasing the selftest runtime by a factor of 10 at least.

How many of you use GPU sieving with GPUSieveProcessSize=24 ? What do we want to do with those tests?
Then please switch to GPUSieveSize=63 or GPUSieveSize=126 (or whatever multiple of 3 you like).
................
http://www.rechenkraft.net/phpBB/viewto ... 69#p140569 wer gerne mal mitmachen möchte kann sich den thread hier bei uns im forum mal ansehen.
...............
Misfit-tool: vollautomatisches steuerungsprogramm der ganzen LL-tests/faktorisierung auf GPU
http://www.mersenneforum.org/misfit/downloads/

--------------

Norman

Benutzeravatar
Norman
Klimawolke
Klimawolke
Beiträge: 2188
Registriert: 20.03.2003 14:34
Wohnort: Saarland
Kontaktdaten:

Re: Bei Gimps ist alles Neu

#112 Ungelesener Beitrag von Norman » 09.07.2013 23:16

@Jürgen
Ja, habe ebenfalls so ein Kabel pci-e auf pci-e einfach als verlängerung. habe allerdings eine variante mit MOLEX-stecker, weil ich will den PCI-bus nicht grillen. ;)
die karte baumelt praktisch lose neben dem PC mit einem kleinen kabelbinder neben dem gehäuse und MOLEX-stromkabel. ist 10°C kühler als nebeneffekt.
Hab von leuten gelesen die bis zu 6 karten an 3 pci steckplätzen mit 1200w PSU betreiben. wahnsinn.
bleib am ball jürgen. wir /rechenkraft.net/ jagen die dort oben ein paar positionen nach unten oder ? :D

@MikeBerlin
ich möchte kurz danke sagen für deine engagierte art bei diesem projekt und deine "regelmässigen" statistik-updates ohne die ich wahrscheinlich
keine lust gehabt hätte bei dem projekt überhaupt noch irgendwas zu rechnen. motivation ist eben ein gutes argument :D
danke.

@all
nochmal eine kleine schnellanleitung für alle die einfach vollautomatisiert mitmachen wollen.
ATI/AMD und NVIDIA-Karten stellen kein Problem dar.
es wird kein DP (double-precision) fürs faktorisieren unter mfaktc/o benötigt. (andere programme JA, aber dazu später)
zur zeit werden keine INTEGRIERTE Chipsatz GPU´s unterstützt wie die der modernen INTEL-CPU. vielleicht in zukunft.

1. Account erstellen (falls noch nicht vorhanden)
registriert euch bitte unter: http://www.mersenne.org/ einen account und unter http://www.gpu72.com/ einen account.
ist erforderlich um arbeit auch angerechnet zu bekommen.
Jetzt noch unserem team Rechenkraft.net beitreten.. ist ja wohl logisch oder ?! :)

2. Software herunterladen zur faktorisierung (hier Windows)
als erstes würde ich für:
NVIDA-karten hier: http://mersenneforum.org/mfaktc/
ATI/AMD-karten hier: http://mersenneforum.org/mfakto/
die programme herunter laden.

das entpackt ihr in SEPERATE verzeichnisse eurer wahl irgendwo hin. (keine installation nötig)

solltet ihr ein gemischtes system haben sprich 1 ati und 1 nvida oder 1 ati und 2x nvidia etc.. kein problem.
macht dann halt verzeichnisse wie ihr sie benötigt. z.b 1 verzeichnis mit mfaktc software (nvidia) und 1 verzeichnis mit mfakto software (ati/amd) usw. usw.
jede graka braucht halt ihr eigenes verzeichnis bzw. instanz.
falls die graka nicht ausgelastet werden sollte ebenfalls halt 2 verzeichnisse erstellen und 2 instanzen halt starten, aber das wird wohl nicht mehr der fall sein ;)

falls ihr probleme habt ati und nvidia gemeinsam in einem system ans laufen zu bekommen hier eine Anleitung bzw. treiberpaket (AIO) damit das funktioniert:
http://extreme.pcgameshardware.de/grafi ... -incl.html

da die aktuellen amd-treiber einen "cpu-bug" (soll ein feature sein) haben die die performance spürbar bremst bin ich auf den treiber 13.1 zurückgegangen der deutlich
bessere ergebnisse liefert. sobald der "bug" behoben ist update ich wieder.
dazu habe ich einfach das AIO-treiberpaket entpackt und die ati-treiber mit den 13.1 überschrieben.
ältere versionen kann man übrigens hier herunterladen: http://support.amd.com/us/gpudownload/w ... sta64.aspx


jetzt das allround-tool zur automatischen steuerung herunterladen (MISFIT).
momentan aktuelle verion 2.5.5 --- http://www.mersenneforum.org/misfit/downloads/MISFIT/

dieses ebenfalls in ein verzeichnis eurer wahl entpacken und einfach starten.

3. Misfit einstellen

beim ersten start könnt ihr per doppelklick in das locations-fenster eure mfaktc/o verzeichnisse auswählen und misfit erkennt diese anhand gewisser merkmale automatisch.
wahrscheinlich meckert das tool erstmal etwas herum da wir noch keine worktodo.txt (also keine arbeit haben) erstellt haben, aber das ändern wir schnell.

erstmal gehen wir in "operations--configuration editor--security" und tragen da unsere login-daten ein. (genau acht geben, kein vertipper, das tool macht kein testlogin).

jetzt können wir im gleichen configuration editor unter Work fetch dann auswählen wieviel und welche arbeit geholt werden soll.. unter GPU72 kann man einfach das projekt entscheiden lassen.
egal, sollte ein bitlevel nicht verfügbar sein wird einfach das nächst mögliche runtergeladen.
die tabs sind eigentlich selbsterklärend.

man kann den automatischen upload einstellen wie man will ggf. auch komplett abschalten.

4. clients starten

bei mehrfach GPU´s der GLEICHEN art bitte unbedingt eine verknüpfung erstellen und mit parameter starten.
z.b. mfaktc-win-64.exe -d 0 und mfaktc-win-64.exe -d 1 für die 2 nvidia gpu usw. usw.
bei ati/amd halt dem entsprechend bei mfakto-programm.

-d 0 besagt graka 1 und -d 1 graka 2 -d 3 graka 3 ( wie gesagt nur bei herstellergleichen grakas wegen den instanzen)
jede graka muss ja in ihrem eigenen mfaktc/o verzeichnis rechnen.

dazu einfach rechtsklick auf mfaktc oder mfakto und desktop verknüpfung erstellen.
danach rechtsklick -- eigenschaften...
bei ZIEL einfach -d 0 bzw. -d 1 für die zweite -d 2 für die dritte usw. graka dahinter eintragen. gilt für Nvidia und Ati/Amd gleichmaßen.
z.b. blalbalba/mfaktc-win-64.exe -d 0 und blablabla/mfaktc-win-64.exe -d 1 oder blablablaaa/mfakto_x64.exe -d 0 oder blaaaa/mfakto_x64.exe -d 1 usw.
für jede verknüpfung halt abändern.
diese verknüpfungen kann man auch so in den autostart kopieren und starten dann folglich bei jedem systemstart.

man kann auch MISFIT konfigurieren das die clients gleich gestartet und/oder beendet werden.
geschmackssache. ;)

5. mfaktc/o config

beide programme können mittlerweile völlig autonom auf der GPU sieben OHNE CPU-Belastung zu erzeugen.
Sie arbeiten also selbständig für sich alleine und ihr habt eure CPU immer frei.
Bei komplett ausgelastetem system kann es zu performanceeinbrüchen kommen aber diese liegen im rahmen.

nun gibt es verschiedene grafikkarten und typen und da passt nicht immer die standardeinstellung deshalb solltet ihr unbedingt die einstellungen
für eure graka optimieren um optimal performant zu rechnen.

ich hab hier mal meine einstellung für meine ATI/AMD:
Verbosity=1
SievePrimes=25000
SievePrimesAdjust=1
SievePrimesMin=5000
SievePrimesMax=200000
SieveSizeLimit=32
NumStreams=3
VectorSize=2
GridSize=4
WorkFile=worktodo.txt
ResultsFile=results.txt
Checkpoints=1
CheckpointDelay=300
Stages=1
StopAfterFactor=2
PrintMode=1
TimeStampInResults=0
ProgressHeader=Date Time | class Pct | time ETA | GHz-d/day Sieve Wait
ProgressFormat=%d %T | %C %p%% | %t %e | %g %s %W%%
AllowSleep=1
GPUType=AUTO
SieveCPUMask=0
SmallExp=1
SieveOnGPU=1
GPUSievePrimes=110000
GPUSieveSize=126
GPUSieveProcessSize=24
TestSieveSizes=1,2,3,4,5,6,7,8,9,10,11,13,16,19,20,21,22,25,30,36,43,50,58,67,77,88,100,120,170
25000,28391,32242,36616,41583,47223,53629,60904,69165,78547,89202,101302,115043,130649,148371,168497,191353,217309,246787,280263,318280,361453,410484,466165,529399,601210,682762,755377,880555,1000000
TestSievePrimes=256,396,611,945,1460,2257,3487,5389,8328,12871,19890,30738,47503,73411,113449,175323,270944,418716,647083,1000000
und hier für meine NVIDIA
SievePrimes=30000
SievePrimesAdjust=1
SievePrimesMin=5000
SievePrimesMax=100000
NumStreams=3
CPUStreams=3
GridSize=3
WorkFile=worktodo.txt
Checkpoints=1
CheckpointDelay=30
Stages=1
StopAfterFactor=2
PrintMode=1
AllowSleep=0
TimeStampInResults=0
ProgressHeader=Date Time | class Pct | time ETA | GHz-d/day Sieve Wait
ProgressFormat=%d %T | %C %p%% | %t %e | %g %s %W%%
SieveOnGPU=1
GPUSievePrimes=62500
GPUSieveSize=126
GPUSieveProcessSize=8
in den nächsten versionen soll eine autoconfiguration erfolgen. somit entfällt größtenteils das manuelle ausprobieren, aber das dauert noch ein wenig.
in der zwischenzeit einfach mal bei gelegenheit verschiedene settings ausprobieren.

hoffe ich konnte ein wenig helfen ;)

deadline ist bei prime95 180 tage und bei gpu72 im moment unbegrenzt ( das regelt aber eine A.I. also nicht übertreiben)

auch in den statistiken hier im forum habe ich noch was geschrieben was evtl. als good-to-know sein könnte.----> KLICK


7. Alternative zum Faktorisieren
LL-tests können unter Nvidia-karten mit dem programm CUDALUCAS --> http://sourceforge.net/projects/cudaluc ... rce=navbar berechnet werden
für ati/amd-karten wird gerade noch entwickelt. misfit kann das anzeigen aber ob misfit auch arbeit für diese test holt kann ich zur zeit nicht bestätigen, da ich keine LL-test im moment rechne.
hier wird aber unbedingt DP (double precision) abverlangt. also VORHER prüfen ob eure karte DP-fähig ist sonst wird das wohl nix.
bei ganz geringer DP-leistung lieber nicht rechnen. ist energieverschwendung und dauert evtl. noch länger als auf ner CPU.

ebenso wird für P-1 gerade entwickelt und getestet.
sieht im moment ganz gut aus für beide hersteller der GPUs.

8. jede "kategorie" wirft so seine punkte ab.. hier sind das Ghz/d ( p-90 gigahertz tage).
am meisten werfen hier die faktorisierungsprogramme mfaktc/o ab.
da aber jede kategorie anders gewertet wird ist das aber nicht so aussagekräftig.
ABER wenn alles zusammen gezählt wird...es werden alle Ghz/d zusammengezählt... und dann kann man das team schon hochpushen.
wer aber lieber in "seiner" kategorie LL, P-1 etc. (kommt ja auch bald für alle GPU) kann das natürlich auch tun.


Norman

Benutzeravatar
yoyo
Vereinsvorstand
Vereinsvorstand
Beiträge: 8045
Registriert: 17.12.2002 14:09
Wohnort: Berlin
Kontaktdaten:

Re: Bei Gimps ist alles Neu

#113 Ungelesener Beitrag von yoyo » 10.07.2013 07:12

Danke für die Anleitung ;)

Ich hab sie mal unter Great_Internet_Mersenne_Prime_Search/GPU_Anleitung ins Wiki verschoben und dabei etwas überarbeitet.
Bitte mal drüber schauen und evtl. verbessern.

yoyo
HILF mit im Rechenkraft-WiKi, dies gibts zu tun.
Wiki - FAQ - Verein - Chat

Bild Bild

fotune

Re: Bei Gimps ist alles Neu

#114 Ungelesener Beitrag von fotune » 20.07.2013 05:25

mach ich bei Gelegenheit - Danke!

Benutzeravatar
Norman
Klimawolke
Klimawolke
Beiträge: 2188
Registriert: 20.03.2003 14:34
Wohnort: Saarland
Kontaktdaten:

Re: Bei Gimps ist alles Neu

#115 Ungelesener Beitrag von Norman » 26.07.2013 21:43

vielleicht noch zur funktionsweise und erklärung von mfakto/c aus entwicklersicht:
Hallo Norman:

so, jetzt noch mal etwas detailierter. Ich gehe mal davon aus, dass du die grundsätzliche Idee, wie man so große Zahlen darstellt, kennst.

Basisdatentyp für alle Kernel (mfaktc und mfakto) sind 32bit Integers.
Bei mfaktc nutzen alle Kernel 3 bzw 6 32bit Ints um die Zahlen darzustellen. 3 * 32bit Ints für die "kleinen" Zahlen und 6 * 32bit Ints für die "großen" Zahlen.
Der 71bit Kernel (der allererste) benutzt 24bit von den 32bit für Daten, 3 * 24bit = 72bit, ein Bit Reseve wird benötigt. Die Zwischenergebnisse sind doppelt so groß (logarithmisch gesehen, also 10000 ist doppelt so groß wie 100), da die Zahlen quadriert werden müssen. Alle anderen Kernel benutzen die vollen 32bit pro Int.

32bit pro Int: Ergebnisse der Quadrierung sind 64bit groß, ist es ein multiply-add, dann sogar 65 bit.
Nvidia kann seit CC 2.0 effizient 32bit Integer Multiplikationen, es gibt einen Befehl, der die unteren 32bit erzeugt (mul.lo.u32) und einen füt die oberen 32bit (mul.hi.u32). Dazu gibt es add und sub mit Carry/Borrowflag, mit entsprechender CUDA Version dann sogar ein Multiply-Add mit Carry. --> zusammen alles Prima, 32bit pro Int sind ohne Klimmzüge zu nutzen.
Ohne (Zugriff auf) das Carryflag ist das schon weniger lustig, Multiply-Add geht nicht, bei der Addition und Subtraktion muss man das "in Software" lösen.
Da Grafikkarten von der Historie her mit 32bit floats (aka Single Precssion) gearbeitet haben und dort typischerweise 23bit in der Mantisse stehen, haben die GPUs eine Multiplizierer, der für 24bit funktioniert. Sowohl AMD als auch Nvidia bieten die 24bit Multiplikation an. Das mul24.lo.u32 bringt die die Bits 0-31 und das mul24.hi.u32 bringt die Bits 16-47 vom Ergebniss. Bei den unteren 32bit muss man also die Bits 24-31 ausmaskieren und bei den oberen 32bit das Ergebniss um 8 bit Verschieben, so das man "sauber getrennt" 24 + 24bit vom Ergebniss hat. Die 8 überigen Bits können bei Additionsketten genutzt werden um Überträge zu verzögern. Das maskieren/schieben der Bits macht das aufwendiger, Hardware-carry ist nur selten zu nutzen, da dass auf 32 Bit arbeitet, nicht auf 24 Bit... Lohnt also nur, wenn die 24 bit Multiplikation signifikant schneller ist als die 32 bit Multiplikationen. Bei den alten Nvidias CC 1.x ist das Verhältnis 4:1! Der 95bit Kernel ist das Gegenstück zum 71bit Kernel, auf alten GPUs läuft der 95er 33% langsamer als der 71er... Der 75er nutzt ein paar "Abkürzungen", basiert auf dem 95er, ist gerade 20% langsamer als der 71er... dafür, das die Multiplikation 4 * so lange dauert.. nicht schlecht.
Auf CC 2.0 ist der 95er 60% schneller als der 71er, der 75er doppelt so schnell wie der 71er...
Zu den Barretts: Basis ist der 92er, der benutzt 96/192 Bit intern, 4 Bit Reserve sind nötig. Der barrett88 basiert auf dem 92er, kürzt ab und braucht dafür 8 Bit Reserve, der 87er kürzt noch mehr ab und benötigt 9 Bit Reserve. Der barrett79 ist eine Abwandlung des 92er, rechnet intern mit 80(96),160 und 192 bit (80bit in 96bit verpackt, das Ergebniss der Quadrierung passt in 5x 32bit), dazu die Abwandlungen 77 und 76, die kürzen jeweils ab und brauchen extra Reserve.

Bertram hat das Problem, dass er keinen Zugriff auf das mul24.hi.u32 hat, muss also die langsame 32bit Multiplikationen benutzen... Lösung: 16bit von 32bit Benutzen: 16bit * 16bit = 32bit, passt, mul24.lo.u32 reicht aus. Carry in Software über Klimmzüge. 15bit: 15bit * 15bit = 30bit, mul24.lo.u32 reicht erstrecht, 2 bits für Softwarecarry frei.
Damit sind mehr Stückelungen möglich/nötig: 5/10 * 15bit für 75/150bit Zahlen, wobei dann je nach Kernel noch ein paar Bits Reserve nötig sind, 6/12 * 15bit für 90/180bit Zahlen, etc.

CUDA: 32bit Multiplikation schnell, Zugriff auf Carry, sogar Multiply-Add mit Carry... 3/6 * 32bit Ints und fertig.
OpenCL: 24bit Multiplikation schnell, kein Zugriff auf mul24.hi.u32, obwohl in Hardware vorhanden, kein Zugriff auf Carry: Klimmzüge und viele Kernelabstufungen.

Oliver

Benutzeravatar
Jkcapi
Partikel-Strecker
Partikel-Strecker
Beiträge: 991
Registriert: 29.12.2001 01:00
Wohnort: Braunschweig
Kontaktdaten:

Re: Bei Gimps ist alles Neu

#116 Ungelesener Beitrag von Jkcapi » 08.08.2013 08:48

Huhu, hab da nochmal eie Frage, wenn ich gimps mit Grafikkarte laufen lasse und mir dann zb. gleichzeitig ein Filmchen zb. bei You tube anschauen möchte, dann ruckelt das bild so dolle das das kein spaß macht. Schalt ich gimps aus, ist es alles wunderbar. Hoffe die Problematik ist erklärt. Kann man da bei mfaktc was einstellen das das Programm da etwas runterschraubt wenn man üer Flash Payer was anschauen möchte??
Gruss Jürgen :D
Gruß Jürgen

Bild

Benutzeravatar
Norman
Klimawolke
Klimawolke
Beiträge: 2188
Registriert: 20.03.2003 14:34
Wohnort: Saarland
Kontaktdaten:

Re: Bei Gimps ist alles Neu

#117 Ungelesener Beitrag von Norman » 08.08.2013 09:21

huhu, das problemchen kenne ich und ich schalte ebenfalls in der zeit die Graka aus.
eine wirksame einstellung in mfaktc oder mfakto ist mir nicht bekannt, da musste probieren.
evtl. kurzzeitig mit cpu sieben, dann sollte die graka nicht 100% ausgelastet sein und man hat somit noch etwas reserve zum filmchen gucken ?!

Norman

Benutzeravatar
Jkcapi
Partikel-Strecker
Partikel-Strecker
Beiträge: 991
Registriert: 29.12.2001 01:00
Wohnort: Braunschweig
Kontaktdaten:

Re: Bei Gimps ist alles Neu

#118 Ungelesener Beitrag von Jkcapi » 08.08.2013 12:29

Oh, danke für die schnelle auskunft. Schade das das s nicht geht auch bei CPU Volllast ist es zwar etwas besser aber ruckelt denoch. Tja bei RC5-75 und ATI Karten war das wiederum kein Problem, die haben sich sofort runtergetaktet wenn man Flash Player nutzte. Man kann halt nicht alles haben. und da ich eh ne pause mache....
Gruß Jürgen :3d:
Gruß Jürgen

Bild

Benutzeravatar
Dunuin
Vereinsmitglied
Vereinsmitglied
Beiträge: 1743
Registriert: 23.03.2011 12:59
Wohnort: Hamburg

Re: Bei Gimps ist alles Neu

#119 Ungelesener Beitrag von Dunuin » 08.08.2013 17:48

Das mit dem Runtertakten habe ich immer als Bug angesehen, der richtig auf den Keks ging. Sobald ein Flashvideo in irgendeinem Browsertab offen ist und man in Flash die Hardware Beschleunigung aktiviert hat, dann verhindert Flash das hochtakten der GPU. Wer abends vor dem Schlafen mal das pausierte Video vergisst, der verschwendet unglaublich viel Rechenleistung, da die GPU eben nur gedrosselt laufen kann.
Auch kann man sich nicht die Hälfte eines Flash-Videos angucken, dann eine Runde daddeln und später weitergucken, weil die GPU nicht aus dem 2D-Modus rauskommt und dann im 3D-Spiel alles nur noch ruckelt.
Bild

Antworten

Zurück zu „Primzahlsuche“