Grafikchips in dc einsetzen?

Grid-Computing, technische Entwicklung von Distributed Computing...
Nachricht
Autor
Benutzeravatar
Michael H.W. Weber
Vereinsvorstand
Vereinsvorstand
Beiträge: 22923
Registriert: 07.01.2002 01:00
Wohnort: Marpurk

Grafikchips in dc einsetzen?

#1 Ungelesener Beitrag von Michael H.W. Weber » 04.06.2002 16:14

Könnte man die Grafikchips auf GraKas ab GeForce3 oder Radeon8500 bei Fließkommazahlrechnungen im wisssenschaftlichen Bereich - und damit z.B. bei FAH, GAH, DF, etc. einsetzen? - Mehrfach parallel ausgelegte Recheneinheiten, schnelles Speicherinterface, usw.

Michael.
Fördern, kooperieren und konstruieren statt fordern, konkurrieren und konsumieren.

Bild Bild

Benutzeravatar
Zeuge
Rechenkraft.net-Sponsor
Rechenkraft.net-Sponsor
Beiträge: 433
Registriert: 26.01.2002 16:37
Wohnort: München

#2 Ungelesener Beitrag von Zeuge » 04.06.2002 18:31

Den Gedanken hatte ich auch schon einmal.
Zumal die Grafikchips in Ihrer Komplexität mittlerweile die CPUs übertreffen.

Aber da sollten sich die Projektbetreiber selbst Gedanken darüber machen.
Mein Wissen ist auf jeden Fall viel zu gering um die Sache auch nur im Ansatz durchzudenken.
Da bin ich mir 100%ig sicher glaube ich.
Zeuge :)

Benutzeravatar
Michael H.W. Weber
Vereinsvorstand
Vereinsvorstand
Beiträge: 22923
Registriert: 07.01.2002 01:00
Wohnort: Marpurk

#3 Ungelesener Beitrag von Michael H.W. Weber » 04.06.2002 21:12

Zeuge hat geschrieben:Zumal die Grafikchips in Ihrer Komplexität mittlerweile die CPUs übertreffen.
Im PC-Bereich gibt es schon jetzt de facto keine CPU, die einer GeForce3 (völlig veraltet) das Wasser reichen könnte. Und wenn ich erst an die DirectX 9 Spezifikation denke - au weia. Diese Chips schreien geradezu nach "sinnvollem" Einsatz.

Michael.
Fördern, kooperieren und konstruieren statt fordern, konkurrieren und konsumieren.

Bild Bild

Athlonkaempfer

#4 Ungelesener Beitrag von Athlonkaempfer » 04.06.2002 23:43

Bei dem von 3DLabs erscheinenden Grafikchip P10 sollten jegliche Berechnungen möglich sein, solange sie vom Treiber unterstüzt sind. Der Chip ist wie eine CPU aufgebaut. Fast alle Operationen sind frei programmierbar.
Damit sollte man ihn also auch berechnen lassen können :P

Benutzeravatar
Michael H.W. Weber
Vereinsvorstand
Vereinsvorstand
Beiträge: 22923
Registriert: 07.01.2002 01:00
Wohnort: Marpurk

#5 Ungelesener Beitrag von Michael H.W. Weber » 05.06.2002 01:57

Athlonkaempfer hat geschrieben:Fast alle Operationen sind frei programmierbar.
Das gilt bereits jetzt für alle GeForce3 und Radeon8500 Chips - daher frage ich ja. :lol:

Michael.
Fördern, kooperieren und konstruieren statt fordern, konkurrieren und konsumieren.

Bild Bild

Athlonkaempfer

#6 Ungelesener Beitrag von Athlonkaempfer » 05.06.2002 16:36

Das gilt bereits jetzt für alle GeForce3 und Radeon8500 Chips
Nein, dem ist nicht so. Diese Karten sind nach DirectX8 aufgebaut und bieten daher nur eine eingeschränkte Programmierbarkeit an gewissen Stellen. Der P10 von 3DLabs wird der erste Freiprogrammierbare Chip sein. 8)

Benutzeravatar
bluumi
Number-Cruncher
Number-Cruncher
Beiträge: 865
Registriert: 28.06.2001 01:00
Wohnort: Neuenhof

#7 Ungelesener Beitrag von bluumi » 05.06.2002 18:34

:D

EINE kleinigkeit vergesst ihr...

Die frage die Ihr da stellt ist UR alt, und wurde vor etwa 3 jahren bei Rc5 schon gestellt...

Grafikkarten verarbeiten DATEN, welche man ihnen gibt und geben diese daten aus .. Gut... Blos WO geben die es aus? genau auf den Screen.. Nun sind die Karten so ausgelegt, dass sie sehr schnell Bilder produzieren, aber kaum um die berechneten daten wieder zurück zu geben.. eher müsste man die Resultate "abfilmen" ...

NICHT dass die nicht möglich währe ....

Es gab ja mal einen Organizer, der mit hilfe eines Photosensors die Daten (S/w) flackern vom Bildschirm ablesen konnte... (das war LAAANGE vor der IR-Communikation-Zeit)

Also... es wird wohl möglich sein, die einen Grafikkarten via OpenGL anzusprechen, aber die Programmiersprache unterstützt keine daten rückgabe sondern eine Art "Zeichne Quadart X,Y,Z Coodinate" ...

Es wird auch bei den nicht wenig verschiedenen Vertex und Pixel Shader Varianten- b.z.w. Sprach dialekten auch weniger "Lust" geben diese sehr spezielle Hardware zu programmieren...

So nutzt ATI die (nicht rückwärtskompatible!) version 1.4 der Software, während Nvidia auf der Version 1.3 der Software ihre Shader Programmierbar lässt.. also alleine um ATI oder Nvidias SpizenKarten anzusprechen müsste man 2 Sprachen sprechen...
Auch würde diese Spezielle Hardware in viel weniger PCs anzutreffen sein als eine AMD/Intel CPU .....

Also falls ein "vernünftiger" Teil der Rechenleistung abgezapft werden könnte, was ich stark bezweifle, würde es noch ein recht grosser anteil Idealismus brauchen um die ""wenige"" menge an Hardware zu unterstützten... :)

Oder nochmals anders:
Wies sollten DC Programmierer schneller auf diesen Trend reagieren als die Spieleprogrammierer, welche ja schon sehr zögerlich auf T&L Grafikkarten unsteigen. Kaum ein Spiel setzt T&L voraus, noch weniger gehen auf die programmierbaren Shader ein... wer ausser die Game Programmierer müssten als erstes auf diese hardware umschwenken? :evil2:

Gruss
SwissTeam.NET , the better .NET... dist. computing-Team of Switzerland

Benutzeravatar
Michael H.W. Weber
Vereinsvorstand
Vereinsvorstand
Beiträge: 22923
Registriert: 07.01.2002 01:00
Wohnort: Marpurk

#8 Ungelesener Beitrag von Michael H.W. Weber » 05.06.2002 22:37

bluumi hat geschrieben:Die frage die Ihr da stellt ist UR alt, und wurde vor etwa 3 jahren bei Rc5 schon gestellt...
Tja, vor 3 Jahren brauchte man darauf sicherlich keinen Gedanken verschwenden. :lol: Mit DirectX9 vor der Haustür hingegen... Hmmmm... ich bin kein Programmierer, aber ich denke, da wird es Leute geben, die einen Weg finden werden... :wink:
Was die Verfügbarkeit/Verbreitung der Hardware betrifft - mal ehrlich, gibt es hier noch jemanden, der nicht wenigstens 'ne GeForce2 im Einsatz hat? :smoking:
Und - angenommen, es ginge etwas mit dem Einsatz von Grafikkarten im dc-Bereich - also nehmen wir mal an, FAH würde die z.B. als erstes mit Erfolg einsetzen (als optionales "feature"). Mach' das mal in den entsprechenden Foren bekannt - was meinst Du wieviele andere Projekte da nachziehen...

Michael.
Fördern, kooperieren und konstruieren statt fordern, konkurrieren und konsumieren.

Bild Bild

Benutzeravatar
BrainMcFly
Partikel-Strecker
Partikel-Strecker
Beiträge: 912
Registriert: 26.11.2001 01:00
Wohnort: Leipzig

#9 Ungelesener Beitrag von BrainMcFly » 05.06.2002 23:50

also ich erinnere mich noch rege an ein programm zur berechnung eines apfelmännchens auf dem C64, welches gebrauch vom Prozessor des 1541 Floppy-Laufwerks machte

Theoretisch wäre es ja denkbar über eine DirectX Schnittstelle die Ausgabe auf dem Screen zu simulieren und so die daten wieder abzufangen

Leider hab ich keine Ahnung von der Technik, bei mir jedenfalls hat mein GeForce 4 nicht viel zu tun und er hat nen mordsmässigen Lüfter, was auf viel Rechenkraft schliessen lässt

Benutzeravatar
bluumi
Number-Cruncher
Number-Cruncher
Beiträge: 865
Registriert: 28.06.2001 01:00
Wohnort: Neuenhof

#10 Ungelesener Beitrag von bluumi » 06.06.2002 07:40

:P

Klar und ich hatte ein Programm, welches auf dem C64 das Floppy zum Singen brachte ... b.z.w. eine Soundausgabe erzeugte :-))

Aber eben... Theoretisch ist es sicher möglich.... blos ein wie kleiner Anteil, der Festverdrateten Logik eines GF3 oder GF4 ist so zu programmieren, dass es fürs Projekt was nützt?

Und wie gross ist der Anteil von Mitgliedern MIT dieser stützte :-)

Wenn nun einer kommt und einen Client für Einen DEC-Alpha Rechner will, so geht es meist auch länger, das es zu wenig Rechner hat... Und ähnlich wird es bei den Grafikkarten sein, dass nicht "Jeder" eine hat.

:evil2:
SwissTeam.NET , the better .NET... dist. computing-Team of Switzerland

Benutzeravatar
Michael H.W. Weber
Vereinsvorstand
Vereinsvorstand
Beiträge: 22923
Registriert: 07.01.2002 01:00
Wohnort: Marpurk

#11 Ungelesener Beitrag von Michael H.W. Weber » 06.06.2002 08:28

bluumi hat geschrieben:Wenn nun einer kommt und einen Client für Einen DEC-Alpha Rechner will, so geht es meist auch länger, das es zu wenig Rechner hat... Und ähnlich wird es bei den Grafikkarten sein, dass nicht "Jeder" eine hat.
Darum war mein Vorschlag ja auch so angelegt, daß - falls der Einsatz von "high-end" Grafikkarten überhaupt Sinn machen würde - der Client diese nur durch Aktivieren einer OPTIONALEN Checkpox anspricht. Wer also solch eine Karte hat, der schließt sie in die Berechnungen ein - auf anderen Systemen geht es dagegen so vonstatten wie bislang auch. :smoking:

Michael.
Fördern, kooperieren und konstruieren statt fordern, konkurrieren und konsumieren.

Bild Bild

Benutzeravatar
Zeuge
Rechenkraft.net-Sponsor
Rechenkraft.net-Sponsor
Beiträge: 433
Registriert: 26.01.2002 16:37
Wohnort: München

#12 Ungelesener Beitrag von Zeuge » 06.06.2002 11:15

bluumi hat geschrieben::D

EINE kleinigkeit vergesst ihr...

Grafikkarten verarbeiten DATEN, welche man ihnen gibt und geben diese daten aus .. Gut... Blos WO geben die es aus? genau auf den Screen.. Nun sind die Karten so ausgelegt, dass sie sehr schnell Bilder produzieren, aber kaum um die berechneten daten wieder zurück zu geben.. eher müsste man die Resultate "abfilmen" ...

Gruss
AGP Krafikkarten erweitern Ihrern Speicher beispielsweise über den AGP-Bus und nutzen somit den Hauptspeicher. Dorthin können ja z.B die berechneten Daten abgelegt werden. Die fertigberechneten Daten dann aus dem AGP-Alloc-Speicher wieder auszulesen dürfte damit nicht schwierig sein denke ich.
Und die Geschwindigkeit des Busses ist relativ egal da dort nur die berechneten Daten lagern und die Datenmenge bei den meisten Projekten eher gering sind.
Da bin ich mir 100%ig sicher glaube ich.
Zeuge :)

Zurück zu „Hintergrundinfos zu Verteiltem Rechnen“