Alte GPUs
Alte GPUs
Guten Tag,
ich melde mich hier mit einer möglicherweise sehr dummen Frage.
Ich bilde mir ein, vor einigen Jahren auf einem Rechner mit antiker GeForce4 GPU-Crunching betrieben zu haben.
Nun bin ich schon über 30 und werde vergesslich aber: War das mal möglich?
Wenn ja, warum ist es das heute nicht mehr?
Ich habe nämlich durchaus noch Oldtimer im Einsatz, deren Grafikchips heute rumidlen.
ich melde mich hier mit einer möglicherweise sehr dummen Frage.
Ich bilde mir ein, vor einigen Jahren auf einem Rechner mit antiker GeForce4 GPU-Crunching betrieben zu haben.
Nun bin ich schon über 30 und werde vergesslich aber: War das mal möglich?
Wenn ja, warum ist es das heute nicht mehr?
Ich habe nämlich durchaus noch Oldtimer im Einsatz, deren Grafikchips heute rumidlen.
Für die Piraten taugt der alte APPD Spruch: "Meine Stimme für den Müll". Nur, das die APPD sich dabei nicht ernst genommen hat.
- EdmundBlackadder
- Task-Killer
- Beiträge: 784
- Registriert: 20.02.2008 17:56
- Kontaktdaten:
Re: Alte GPUs
Soweit ich weiss, hat niemand ernsthaft oder überhaupt versucht damit zu rechnen.
Die CUDA Programmierschnittstelle wurde ab Geforce 8 in Software und Hardware möglich. Eine Programmierung früherer Reihen wäre mit OpenGL oder DirectX (OpenCL erst ab Geforce 8) möglich gewesen (nur single precision), scheidet aber aufgrund mangelnder Effizienz und Leistungsfähigkeit aus. Dies lag z.T. an der Architektur der Chips selber, die nur auf die Grafikdarstellung optimiert waren.Double precision ab Cuda 1.3 bzw. Geforce 10 (2xx-Reihe). Ab Geforce 8 war auch PhysX möglich, also die Physikberechnung (z.B. in Spielen) auf der GPU. Dafür brauchte man eine flexible Programmierschnittstelle, also CUDA.
Die CUDA Programmierschnittstelle wurde ab Geforce 8 in Software und Hardware möglich. Eine Programmierung früherer Reihen wäre mit OpenGL oder DirectX (OpenCL erst ab Geforce 8) möglich gewesen (nur single precision), scheidet aber aufgrund mangelnder Effizienz und Leistungsfähigkeit aus. Dies lag z.T. an der Architektur der Chips selber, die nur auf die Grafikdarstellung optimiert waren.Double precision ab Cuda 1.3 bzw. Geforce 10 (2xx-Reihe). Ab Geforce 8 war auch PhysX möglich, also die Physikberechnung (z.B. in Spielen) auf der GPU. Dafür brauchte man eine flexible Programmierschnittstelle, also CUDA.
Verschenke 2 Stück Lenovo T400 (Screen defekt) 4GB Laptops mit Dockingstation und 17" Monitor.
Ritschie hat geschrieben:Ich will ja nicht nur für Credits rechnen, sondern 'nen sinnvollen Beitrag leisten.
Re: Alte GPUs
Also habe ich mir das wohl nur eingebildet :/
Und ich war mir so sicher, ich glaube sogar es war noch SETI.
Gut, vielen Dank dir.
Und ich war mir so sicher, ich glaube sogar es war noch SETI.
Gut, vielen Dank dir.
Für die Piraten taugt der alte APPD Spruch: "Meine Stimme für den Müll". Nur, das die APPD sich dabei nicht ernst genommen hat.
Re: Alte GPUs
Aus der News von Nvidia:
http://en.wikipedia.org/wiki/BrookGPU
Aus dem 2004 veröffentlichten Dokument Brook for GPUs: Stream Computing on Graphics Hardware (Quelle):
Vielleicht magst du ja in den Technical News (bis 2007) bzw. Number Crunching bei SETI weiter stöbern, die reichen weit zurück. Gefunden habe ich einen Thread "GPU a possible alternative?" aus dem Jahr 2005, lustig im Nachhinein die Einschätzungen von damals zu lesen.
- "History of GPU Computing
The first GPUs were designed as graphics accelerators, supporting only specific fixed-function pipelines. Starting in the late 1990s, the hardware became increasingly programmable, culminating in NVIDIA's first GPU in 1999. Less than a year after NVIDIA coined the term GPU, artists and game developers weren't the only ones doing ground-breaking work with the technology: Researchers were tapping its excellent floating point performance. The General Purpose GPU (GPGPU) movement had dawned.
But GPGPU was far from easy back then, even for those who knew graphics programming languages such as OpenGL. Developers had to map scientific calculations onto problems that could be represented by triangles and polygons. GPGPU was practically off-limits to those who hadn't memorized the latest graphics APIs until a group of Stanford University researchers set out to reimagine the GPU as a "streaming coprocessor."
In 2003, a team of researchers led by Ian Buck unveiled Brook, the first widely adopted programming model to extend C with data-parallel constructs. Using concepts such as streams, kernels and reduction operators, the Brook compiler and runtime system exposed the GPU as a general-purpose processor in a high-level language. Most importantly, Brook programs were not only easier to write than hand-tuned GPU code, they were seven times faster than similar existing code.
NVIDIA knew that blazingly fast hardware had to be coupled with intuitive software and hardware tools, and invited Ian Buck to join the company and start evolving a solution to seamlessly run C on the GPU. Putting the software and hardware together, NVIDIA unveiled CUDA in 2006, the world's first solution for general-computing on GPUs."
http://en.wikipedia.org/wiki/BrookGPU
Aus dem 2004 veröffentlichten Dokument Brook for GPUs: Stream Computing on Graphics Hardware (Quelle):
- "We have created Brook implementations for both NVIDIA and ATI hardware, using both DirectX and OpenGL, as well as a CPU reference implementation. Despite the need to maintain portability, Brook programs execute effciently on the underlying hardware." (Seite 2)
- "For each test, we evaluated Brook using the OpenGL and DirectX backends on both an ATI Radeon X800 XT Platinum running version 4.4 drivers and a pre-release1 NVIDIA GeForce 6800 running version 60.80 drivers, both running Windows XP. For our CPU comparisons, we used a 3 GHz Intel Pentium 4 processor with an Intel 875P chipset running Windows XP, unless otherwise
noted." (Seite 6)
Vielleicht magst du ja in den Technical News (bis 2007) bzw. Number Crunching bei SETI weiter stöbern, die reichen weit zurück. Gefunden habe ich einen Thread "GPU a possible alternative?" aus dem Jahr 2005, lustig im Nachhinein die Einschätzungen von damals zu lesen.
Zusammenkommen ist ein Beginn, Zusammenbleiben ist ein Fortschritt, Zusammenarbeiten ist ein Erfolg.
Henry Ford
Henry Ford
- EdmundBlackadder
- Task-Killer
- Beiträge: 784
- Registriert: 20.02.2008 17:56
- Kontaktdaten:
Re: Alte GPUs
Tut mir leid, dass ich Euch falsch informiert habe. Ich dachte vor CUDA war nichts "Wesentliches". f@h nutzte bereits 2006 die X1900 mittels Brook: ATI-Grafikchips falten Proteine schneller. SETI gelang dies schliesslich erst mit CUDA 2008: Außerirdische suchen mit der Grafikkarte.
Witzig, dass NVIDIA Ian Buck eingestellt hat. Bei Brook-Testbenchmarks war immer ATI die wesentlich schnellere GPU.
Weil Brook bestehende Grafikbibliotheken als Unterbau zur Programmierung verwendete, war es wegen mangelnder Effizienz zum Scheitern verurteilt und nur ein logischer Schritt hin zu GPGPU Programmierung. In den SETI-Threads, die ich mir herausgesucht habe, konnte ich keinen Hinweis auf eine geplante oder bestehende Brook-GPU-Applikation zwischen 2002-2006 finden.frei nachWikipedia hat geschrieben:Brook can use OpenGL v1.3+, DirectX v9+ or AMD's Close to Metal for the computational backend which is currently (due to driver and Cg compiler limitations) much less efficient as a GPGPU backend.
Da Brook also mindestens DirectX 9 benötigt, eine Geforce4 aber nur maximal DirectX 8 kann, ist die Frage somit beantwortet. Es ist gar nicht möglich, damit was zu rechnen.BrookGPU hat geschrieben:The backends include: DirectX9, OpenGL ARB, NVIDIA NV3x, and C++ reference.
Witzig, dass NVIDIA Ian Buck eingestellt hat. Bei Brook-Testbenchmarks war immer ATI die wesentlich schnellere GPU.
Marketing-Gewäsch. ATI hat bis heute ei ne 30-50% bessere FP Leistung. Diese wird in Computerspielen nur kaum benötigt.NVIDIA hat geschrieben:Researchers were tapping its excellent floating point performance.
Gerade bei SETI war also die Aussicht auf schnellere Abarbeitung durch GPUs besonders gering.BrookGPU PDF hat geschrieben:FFT: ... The fast Fourier transform algorithm is important in many graphical applications, such as post-processing of images in the framebuer, as well as scientic applications such as the SETI@home project [Sullivan et al. 1997]. ... To benchmark Brook against a competitive GPU algorithm, we compare our results with the custom OpenGL implementation
available from ATI at [ATI 2004a]. To compare against the CPU, we benchmark the heavily optimized FFTW-3 software library compiled with the Intel C++ compiler [INTEL 2003]. ... FFT was our poorest performing application relative to the CPU.
Zuletzt geändert von EdmundBlackadder am 15.05.2012 14:57, insgesamt 1-mal geändert.
Verschenke 2 Stück Lenovo T400 (Screen defekt) 4GB Laptops mit Dockingstation und 17" Monitor.
Ritschie hat geschrieben:Ich will ja nicht nur für Credits rechnen, sondern 'nen sinnvollen Beitrag leisten.
-
- Vereinsmitglied
- Beiträge: 882
- Registriert: 24.12.2008 14:35
Re: Alte GPUs
Und seit März 2007 gab es den folding-Client für die PS3 (ob vor oder nach CUDA habe ich nicht herausgefunden). http://en.wikipedia.org/wiki/Folding@homeEdmundBlackadder hat geschrieben:... Ich dachte vor CUDA war nichts "Wesentliches".