Aktuelle Grafikkarten verfügen über enorme Rechenpower, die die CPU wesentlich entlasten können. Das ist jedoch nur selten der Fall, weil die entsprechende Software fehlt.
Erst ab 2010 sollen Real-Time-Compiler verfügbar sein, um die GPU-Power auszunutzen. Die entscheiden in Echtzeit, auf welchen Chips gerechnet werden soll. DirectX 11 soll dafür ebenfalls nützlich sein.
Quelle: xbitlabs
Grafikkarten und Monitore 26.150 Themen, 115.656 Beiträge
Gibts doch schon...
http://developer.nvidia.com/object/cuda.html
Die theoretische Rechenleistung eines G80 (345GFlops) ist wesentlich höher als die eines Core 2 Quad Q6600 (21,5GFlops).
Zudem kann der G80 über 1000 Threads gleichzeitig bearbeiten.
Das nutzt in der realen Welt aber ziemlich wenig, aktuelle Grafikkarten sind stark parallelisierte Monster. Werden nur wenige (oder gar nur ein) Thread(s) bearbeitet (weil ein Thread vom Ergebniss eines anderen abhängig ist), hat eine klassische CPU einen klaren Vorteil, Gigaflops hin oder her.
Ein G80 oder R600 holt sich seine Rechenleistung über die Stream Prozessoren, die zwar verdammt schnell sind - aber auch verdammt unflexibel.
Die Anforderungen an CPUs und GPUs sind grundverschieden, das unter einen Hut zu bringen ist beinahe unmöglich.
Bei Spezialanwendungen die eine starke Parallelisierung erlauben, macht das durchaus Sinn, für den Heimgebrauch ists aber vermutlich nicht realisierbar.