Das wäre noch ne Maschine für daheim

LHC@home etc.
Nachricht
Autor
al

Das wäre noch ne Maschine für daheim

#1 Ungelesener Beitrag von al » 21.11.2002 09:29

Wir haben hier auf der Firma gerade ein neues Spielzeug bekommen.. Nen Dell-Server, den wir mit ner zweiten CPU (P4 Xeon, 2.4GHz, gabs gratis dazu) ausgestattet haben. Ich hab nun mal Muon in der P4-Version und 4 paralleleln Threads (wegen Hyperthreading) draufgeworfen und kann gar nicht so schnell gucken wie das Ding rechnet. Echt wahnsinning, da kann ich an meinem Arbeitsplatz und daheim nur von träumen...

Mal sehen wie lange ich die Maschine so missbrauchen kann. Ich fürchte aber net so lang... :(

Benutzeravatar
Herb
Taschenrechner
Taschenrechner
Beiträge: 9
Registriert: 27.11.2001 01:00
Wohnort: Bremen
Kontaktdaten:

#2 Ungelesener Beitrag von Herb » 21.11.2002 11:32

Nur mal zum besseren Verständnis, müßte der Hobel nicht mit nur 2 threads noch besser laufen?

Hyperthreading macht doch nur Sinn, wenn die CPU nicht voll ausgelastet ist, ansonsten kostet es nur zusätzlichen Steuerungsaufwand, oder?
Y0k compliant, counting upwards;)

Benutzeravatar
Sven
Vereinsmitglied
Vereinsmitglied
Beiträge: 1310
Registriert: 19.01.2002 01:00

#3 Ungelesener Beitrag von Sven » 21.11.2002 12:13

Stephen´s Empfehlung lautet immer: je CPU einen Thread, nicht mehr und nicht weniger.

Tschüs, Sven.

al

#4 Ungelesener Beitrag von al » 21.11.2002 12:19

Jein. Hyperthreading gaukelt dem OS 2 virtuelle CPUs pro physikalischer CPU vor. Entsprechend sieht man z.B. mit "top" unter Linux bei unserer Zweiprozessormaschine gleich 4 CPUs. Durch das Vorgaukeln versucht die CPU ihre internen Einheiten besser auszulasten, was um die 15 Prozent Leistungsgewinn bringen kann. Das hängt aber immer von der Anwendung ab. Ich hab das ne Weile beobachtet und rein subjektiv läuft es mit 4 Threads (also einem pro virtueller CPU) leicht schneller als mit 2 Threads. Mit sinkender Restpartikelzahl bei fortschreitender Simulation sinkt übrigens die CPU-Auslastung. Ich vermute das liegt an Reibungsverlusten hervorgerufen durch die erhöhte Kommunikation.

Benutzeravatar
bluumi
Number-Cruncher
Number-Cruncher
Beiträge: 865
Registriert: 28.06.2001 01:00
Wohnort: Neuenhof
Kontaktdaten:

#5 Ungelesener Beitrag von bluumi » 21.11.2002 12:31

al hat geschrieben:Jein. Hyperthreading gaukelt dem OS 2 virtuelle CPUs pro physikalischer CPU vor. Entsprechend sieht man z.B. mit "top" unter Linux bei unserer Zweiprozessormaschine gleich 4 CPUs.
A) AL lebt !!!!!!!!!!! :o

B) Deine Aussage ist aber NUR unter Linux richtig .. also unter WinNT ist es wieder pro CPU besser nur einen Thread ...

C) Gruss und wech .. :evil2:
SwissTeam.NET , the better .NET... dist. computing-Team of Switzerland

al

#6 Ungelesener Beitrag von al » 21.11.2002 12:49

bluumi hat geschrieben: A) AL lebt !!!!!!!!!!! :o

B) Deine Aussage ist aber NUR unter Linux richtig .. also unter WinNT ist es wieder pro CPU besser nur einen Thread ...

C) Gruss und wech .. :evil2:
zu A) Totgesagte leben länger! ;)
zu B) gut zu wissen, aber NT/W2k kommt da eh net drauf und sonst habich leider keine Mehrprozessormaschine über. Obowhl hier noch ne 2100 von DEC mit 2 oder 4 CPUs (dürften 21164 oder 21264 sein) rumsteht. Ist aber leider net meine Spielweise.. :(

zu C) Man rechnet sich! ;)

Benutzeravatar
Herb
Taschenrechner
Taschenrechner
Beiträge: 9
Registriert: 27.11.2001 01:00
Wohnort: Bremen
Kontaktdaten:

#7 Ungelesener Beitrag von Herb » 21.11.2002 13:46

Mit sinkender Restpartikelzahl bei fortschreitender Simulation sinkt übrigens die CPU-Auslastung. Ich vermute das liegt an Reibungsverlusten hervorgerufen durch die erhöhte Kommunikation.
Hmm, wäre es dann nicht sinnvoller unabhängige Instanzen pro CPU (+/- virtueller) anzulegen, um dahinter zu kommen, was letztendlich am effektivsten ist?

Benutzeravatar
huraxprax
Vereinsmitglied
Vereinsmitglied
Beiträge: 540
Registriert: 11.08.2001 01:00
Wohnort: Heidelberg
Kontaktdaten:

#8 Ungelesener Beitrag von huraxprax » 21.11.2002 16:57

also ich hab zwar keinen Xeon oder P4 3.0 je benutzt aber Hyperthreading ist nicht nur ein "Vorgaukeln". Es sind zwei Einheiten mit Instruktionsdecodiere Register etc. drauf die sich eine Recheneinheit teilen. Ich bin jetzt mit den Details nicht vertraut aber anscheinend kann man damit auch die Lücken ausnutzen die durch branch mispredictions entstehen, was ja beim P4 mit der langen Pipeline recht problematisch ist normal. Ich kann mir vorstellen daß das gerade dann etwas bringt wenn die Software nicht besonders optimiert ist.
Bei SETI haben mehrere Leute damit etwa 20% Beschleunigung sehen können, gut möglich daß es bei Muon genauso ist.
Ciao, Benno

Benutzeravatar
Michael H.W. Weber
Vereinsvorstand
Vereinsvorstand
Beiträge: 22419
Registriert: 07.01.2002 01:00
Wohnort: Marpurk
Kontaktdaten:

#9 Ungelesener Beitrag von Michael H.W. Weber » 21.11.2002 17:29

In der neuen c't sind zu diesem Thema zwei recht umfangreiche Artikel zu finden (eines der Titelthemen).

Michael.
Fördern, kooperieren und konstruieren statt fordern, konkurrieren und konsumieren.

http://signature.statseb.fr I: Kaputte Seite A
http://signature.statseb.fr II: Kaputte Seite B

Bild Bild Bild

Euler

Re: Das wäre noch ne Maschine für daheim

#10 Ungelesener Beitrag von Euler » 22.11.2002 00:13

al hat geschrieben:Wir haben hier auf der Firma gerade ein neues Spielzeug bekommen.. Nen Dell-Server, den wir mit ner zweiten CPU (P4 Xeon, 2.4GHz, gabs gratis dazu) ausgestattet haben. Ich hab nun mal Muon in der P4-Version und 4 paralleleln Threads (wegen Hyperthreading) draufgeworfen und kann gar nicht so schnell gucken wie das Ding rechnet.
Hi Al,

das hört sich interessant an.
Könntest Du mal nen richtigen Benchmark machen, mit ner WU, die so ungefähr nen yield um die 2.9-3.0 liefert?

Auf meinem dual Athlon XP2000+ rechnet so ein Ding ungefähr 70 Minuten.
(2 CPUs , 2 threads)

cu
Euler

al

#11 Ungelesener Beitrag von al » 22.11.2002 09:56

@euler:

Ich versuche mal drauf zu achten.

al

#12 Ungelesener Beitrag von al » 22.11.2002 11:08

t = 300.00ns (413/59584 particles)
score 2.914500, simulation time : 3048.490008 s

Also knapp 51 Minuten.

Antworten

Zurück zu „Atom-/Elementarphysik“