Grafikchips in dc einsetzen?
-
Michael H.W. Weber
- Vereinsvorstand

- Beiträge: 22923
- Registriert: 07.01.2002 01:00
- Wohnort: Marpurk
Grafikchips in dc einsetzen?
Könnte man die Grafikchips auf GraKas ab GeForce3 oder Radeon8500 bei Fließkommazahlrechnungen im wisssenschaftlichen Bereich - und damit z.B. bei FAH, GAH, DF, etc. einsetzen? - Mehrfach parallel ausgelegte Recheneinheiten, schnelles Speicherinterface, usw.
Michael.
Michael.
Fördern, kooperieren und konstruieren statt fordern, konkurrieren und konsumieren.


-
Zeuge
- Rechenkraft.net-Sponsor

- Beiträge: 433
- Registriert: 26.01.2002 16:37
- Wohnort: München
Den Gedanken hatte ich auch schon einmal.
Zumal die Grafikchips in Ihrer Komplexität mittlerweile die CPUs übertreffen.
Aber da sollten sich die Projektbetreiber selbst Gedanken darüber machen.
Mein Wissen ist auf jeden Fall viel zu gering um die Sache auch nur im Ansatz durchzudenken.
Zumal die Grafikchips in Ihrer Komplexität mittlerweile die CPUs übertreffen.
Aber da sollten sich die Projektbetreiber selbst Gedanken darüber machen.
Mein Wissen ist auf jeden Fall viel zu gering um die Sache auch nur im Ansatz durchzudenken.
Da bin ich mir 100%ig sicher glaube ich.
Zeuge
Zeuge
-
Michael H.W. Weber
- Vereinsvorstand

- Beiträge: 22923
- Registriert: 07.01.2002 01:00
- Wohnort: Marpurk
Im PC-Bereich gibt es schon jetzt de facto keine CPU, die einer GeForce3 (völlig veraltet) das Wasser reichen könnte. Und wenn ich erst an die DirectX 9 Spezifikation denke - au weia. Diese Chips schreien geradezu nach "sinnvollem" Einsatz.Zeuge hat geschrieben:Zumal die Grafikchips in Ihrer Komplexität mittlerweile die CPUs übertreffen.
Michael.
Fördern, kooperieren und konstruieren statt fordern, konkurrieren und konsumieren.


-
Athlonkaempfer
-
Michael H.W. Weber
- Vereinsvorstand

- Beiträge: 22923
- Registriert: 07.01.2002 01:00
- Wohnort: Marpurk
-
Athlonkaempfer
-
bluumi
- Number-Cruncher

- Beiträge: 865
- Registriert: 28.06.2001 01:00
- Wohnort: Neuenhof
EINE kleinigkeit vergesst ihr...
Die frage die Ihr da stellt ist UR alt, und wurde vor etwa 3 jahren bei Rc5 schon gestellt...
Grafikkarten verarbeiten DATEN, welche man ihnen gibt und geben diese daten aus .. Gut... Blos WO geben die es aus? genau auf den Screen.. Nun sind die Karten so ausgelegt, dass sie sehr schnell Bilder produzieren, aber kaum um die berechneten daten wieder zurück zu geben.. eher müsste man die Resultate "abfilmen" ...
NICHT dass die nicht möglich währe ....
Es gab ja mal einen Organizer, der mit hilfe eines Photosensors die Daten (S/w) flackern vom Bildschirm ablesen konnte... (das war LAAANGE vor der IR-Communikation-Zeit)
Also... es wird wohl möglich sein, die einen Grafikkarten via OpenGL anzusprechen, aber die Programmiersprache unterstützt keine daten rückgabe sondern eine Art "Zeichne Quadart X,Y,Z Coodinate" ...
Es wird auch bei den nicht wenig verschiedenen Vertex und Pixel Shader Varianten- b.z.w. Sprach dialekten auch weniger "Lust" geben diese sehr spezielle Hardware zu programmieren...
So nutzt ATI die (nicht rückwärtskompatible!) version 1.4 der Software, während Nvidia auf der Version 1.3 der Software ihre Shader Programmierbar lässt.. also alleine um ATI oder Nvidias SpizenKarten anzusprechen müsste man 2 Sprachen sprechen...
Auch würde diese Spezielle Hardware in viel weniger PCs anzutreffen sein als eine AMD/Intel CPU .....
Also falls ein "vernünftiger" Teil der Rechenleistung abgezapft werden könnte, was ich stark bezweifle, würde es noch ein recht grosser anteil Idealismus brauchen um die ""wenige"" menge an Hardware zu unterstützten...
Oder nochmals anders:
Wies sollten DC Programmierer schneller auf diesen Trend reagieren als die Spieleprogrammierer, welche ja schon sehr zögerlich auf T&L Grafikkarten unsteigen. Kaum ein Spiel setzt T&L voraus, noch weniger gehen auf die programmierbaren Shader ein... wer ausser die Game Programmierer müssten als erstes auf diese hardware umschwenken?
Gruss
SwissTeam.NET , the better .NET... dist. computing-Team of Switzerland
-
Michael H.W. Weber
- Vereinsvorstand

- Beiträge: 22923
- Registriert: 07.01.2002 01:00
- Wohnort: Marpurk
Tja, vor 3 Jahren brauchte man darauf sicherlich keinen Gedanken verschwenden.bluumi hat geschrieben:Die frage die Ihr da stellt ist UR alt, und wurde vor etwa 3 jahren bei Rc5 schon gestellt...
Was die Verfügbarkeit/Verbreitung der Hardware betrifft - mal ehrlich, gibt es hier noch jemanden, der nicht wenigstens 'ne GeForce2 im Einsatz hat?
Und - angenommen, es ginge etwas mit dem Einsatz von Grafikkarten im dc-Bereich - also nehmen wir mal an, FAH würde die z.B. als erstes mit Erfolg einsetzen (als optionales "feature"). Mach' das mal in den entsprechenden Foren bekannt - was meinst Du wieviele andere Projekte da nachziehen...
Michael.
Fördern, kooperieren und konstruieren statt fordern, konkurrieren und konsumieren.


-
BrainMcFly
- Partikel-Strecker

- Beiträge: 912
- Registriert: 26.11.2001 01:00
- Wohnort: Leipzig
also ich erinnere mich noch rege an ein programm zur berechnung eines apfelmännchens auf dem C64, welches gebrauch vom Prozessor des 1541 Floppy-Laufwerks machte
Theoretisch wäre es ja denkbar über eine DirectX Schnittstelle die Ausgabe auf dem Screen zu simulieren und so die daten wieder abzufangen
Leider hab ich keine Ahnung von der Technik, bei mir jedenfalls hat mein GeForce 4 nicht viel zu tun und er hat nen mordsmässigen Lüfter, was auf viel Rechenkraft schliessen lässt
Theoretisch wäre es ja denkbar über eine DirectX Schnittstelle die Ausgabe auf dem Screen zu simulieren und so die daten wieder abzufangen
Leider hab ich keine Ahnung von der Technik, bei mir jedenfalls hat mein GeForce 4 nicht viel zu tun und er hat nen mordsmässigen Lüfter, was auf viel Rechenkraft schliessen lässt
-
bluumi
- Number-Cruncher

- Beiträge: 865
- Registriert: 28.06.2001 01:00
- Wohnort: Neuenhof
Klar und ich hatte ein Programm, welches auf dem C64 das Floppy zum Singen brachte ... b.z.w. eine Soundausgabe erzeugte
Aber eben... Theoretisch ist es sicher möglich.... blos ein wie kleiner Anteil, der Festverdrateten Logik eines GF3 oder GF4 ist so zu programmieren, dass es fürs Projekt was nützt?
Und wie gross ist der Anteil von Mitgliedern MIT dieser stützte
Wenn nun einer kommt und einen Client für Einen DEC-Alpha Rechner will, so geht es meist auch länger, das es zu wenig Rechner hat... Und ähnlich wird es bei den Grafikkarten sein, dass nicht "Jeder" eine hat.
SwissTeam.NET , the better .NET... dist. computing-Team of Switzerland
-
Michael H.W. Weber
- Vereinsvorstand

- Beiträge: 22923
- Registriert: 07.01.2002 01:00
- Wohnort: Marpurk
Darum war mein Vorschlag ja auch so angelegt, daß - falls der Einsatz von "high-end" Grafikkarten überhaupt Sinn machen würde - der Client diese nur durch Aktivieren einer OPTIONALEN Checkpox anspricht. Wer also solch eine Karte hat, der schließt sie in die Berechnungen ein - auf anderen Systemen geht es dagegen so vonstatten wie bislang auch.bluumi hat geschrieben:Wenn nun einer kommt und einen Client für Einen DEC-Alpha Rechner will, so geht es meist auch länger, das es zu wenig Rechner hat... Und ähnlich wird es bei den Grafikkarten sein, dass nicht "Jeder" eine hat.
Michael.
Fördern, kooperieren und konstruieren statt fordern, konkurrieren und konsumieren.


-
Zeuge
- Rechenkraft.net-Sponsor

- Beiträge: 433
- Registriert: 26.01.2002 16:37
- Wohnort: München
AGP Krafikkarten erweitern Ihrern Speicher beispielsweise über den AGP-Bus und nutzen somit den Hauptspeicher. Dorthin können ja z.B die berechneten Daten abgelegt werden. Die fertigberechneten Daten dann aus dem AGP-Alloc-Speicher wieder auszulesen dürfte damit nicht schwierig sein denke ich.bluumi hat geschrieben:![]()
EINE kleinigkeit vergesst ihr...
Grafikkarten verarbeiten DATEN, welche man ihnen gibt und geben diese daten aus .. Gut... Blos WO geben die es aus? genau auf den Screen.. Nun sind die Karten so ausgelegt, dass sie sehr schnell Bilder produzieren, aber kaum um die berechneten daten wieder zurück zu geben.. eher müsste man die Resultate "abfilmen" ...
Gruss
Und die Geschwindigkeit des Busses ist relativ egal da dort nur die berechneten Daten lagern und die Datenmenge bei den meisten Projekten eher gering sind.
Da bin ich mir 100%ig sicher glaube ich.
Zeuge
Zeuge