Aktuelle Grafikkarten verfügen über enorme Rechenpower, die die CPU wesentlich entlasten können. Das ist jedoch nur selten der Fall, weil die entsprechende Software fehlt.
Erst ab 2010 sollen Real-Time-Compiler verfügbar sein, um die GPU-Power auszunutzen. Die entscheiden in Echtzeit, auf welchen Chips gerechnet werden soll. DirectX 11 soll dafür ebenfalls nützlich sein.
Quelle: xbitlabs
Grafikkarten und Monitore 26.155 Themen, 115.717 Beiträge
...oder auch, weil die Grakas ihre Rechenpower für ihre eigene Aufgabe benötigen? Falls dem nicht so sein sollte: Wozu dann eine so fette stromfressende Graka und nicht gleich was von Matrox oder eine Onboardlösung?
CU
Olaf
Die Grakas brauchen ihre Rechenpower nur im 3D-Modus zur Darstellung komplexerer Szenen. Im normalen Desktop-Betrieb bleibt die potenzielle Rechenleistung also komplett ungenutzt. Für Bild und Videobearbeitung braucht man typischerweise vor allem RAM und eine schnelle CPU, die GPU langweilt sich in der Zeit und könnte somit zur Unterstützung der CPU genutzt werden, oder gar alleine die Arbeit übernehmen...
Wozu dann eine so fette stromfressende Graka
Zocken? ;-) Oder ggf. auch weils billiger ist als eine leistungsfähigere CPU...
Gruß
bor
Und genau dann braucht die Graka ihre Rechenpower für ihre eigenen Aufgaben - wie bereits gesagt...
CU
Olaf
Hi!
Dann macht man aber auch nix nebenher...
...es sei denn man hat wie ich immer den Thunderbird+Firefox+Taskmanager+Virenscanner+ICQ bzw. Pidgin und eventuell noch weiteres minimiert im Hintergrund...
Aber das ist ja eigentlich nicht der Sinn der Sache.
Wobei das Stichwort Virenscanner doch wieder interessant ist.
Normale Scans dauern ewig, wenn mal mehrere hundert GB Daten durchkaemmt werden sollen. Liesse sich da Grafikkartenpower sinnvoll einbringen (wenn sie nicht gerade mit Rendern beschaeftigt ist...)?Auch die Paralellitaet schadet da doch nicht, einfach mehrere Dateien auf einmal checken, alternativ eine Datei gleichzeitig mit verschiedenen Signaturen bearbeiten, statt alle Virensignaturen nacheinander anzuwenden.
Oder stelle ich mir das zu leicht vor?
Gruss
Marcel
Wieder ich,
bitte mal nicht auf mein Post hierueber antworten, dann kann ich das nicht mehr editieren...
Wie man sieht ist beim unterstreichen was schiefgegangen/trotz Pruefung finde ich den Fehler nicht (oder uebersehe ihn).
Antwortet auf dieses und berichtet mir bitte wenn ihr den Fehler findet, damit ich korrigieren kann (Ihr koennt das Post nicht aendern, wenn ihr nicht angemeldet seid aber einsehen)-Danke!
Gruss
Marcel
du musst das Tag mit einem / schließen - nicht mit \
;-)
Virenscanner über die GPU laufen lassen bringt auch nix, die CPU-Last ist dann ohnehin zu vernachlässigen - dort limitiert immer die Festplatte.
Hmm...
Danke.!
Hatte ich eigentlich zuerst auch geschrieben, aber das klappte nicht-dann hab ich halt mal rumprobiert.
Aber ich sitze gerade an einem Rechner mit merkwuerdiger Tastatur, vielleicht liegts daran^^. Daher auch die falschen Umlaute.
Edit:
Zwischenzeitlich hatte ich den Tag auch mal ganz entfernt, aber das hatte auch keinen Erfolg-obwohl ich den Browsercache geleert und mehrere Minuten gewartet habe.
Egal, jetzt stimmts.
Gruss
Marcel
http://www.heise.de/newsticker/meldung/92850
Allerdings werden CPUs immer leistungfähiger, während bei Grafikkarten vor allem der Stromverbrauch zunimmt. Und der ist ja jetzt schon extraordinär.
Mein Fazit, die Grafikkartenhersteller brauchen dringends positive Schlagzeilen, sonst sind die meisten User demnächst mit Onboardchips zufrieden. Noch fehlt den Onboardlösungen der digitale Ausgang.
Die wenigsten User wollen ihre Stromrechnung verdoppeln, nur um Vista-Optik zu gucken.
Wieso brauchen die dafür eigentlich sooo lange? Ist das so schwierig?
Die Idee an sich ist Spitze.
Ja. Die GPU ist eine SpezialCPU mit völlig anderer Architektur. Da kannst du die Programme nicht "einfach so" mal umbiegen und darauf laufen lassen.
Gibts doch schon...
http://developer.nvidia.com/object/cuda.html
Die theoretische Rechenleistung eines G80 (345GFlops) ist wesentlich höher als die eines Core 2 Quad Q6600 (21,5GFlops).
Zudem kann der G80 über 1000 Threads gleichzeitig bearbeiten.
Das nutzt in der realen Welt aber ziemlich wenig, aktuelle Grafikkarten sind stark parallelisierte Monster. Werden nur wenige (oder gar nur ein) Thread(s) bearbeitet (weil ein Thread vom Ergebniss eines anderen abhängig ist), hat eine klassische CPU einen klaren Vorteil, Gigaflops hin oder her.
Ein G80 oder R600 holt sich seine Rechenleistung über die Stream Prozessoren, die zwar verdammt schnell sind - aber auch verdammt unflexibel.
Die Anforderungen an CPUs und GPUs sind grundverschieden, das unter einen Hut zu bringen ist beinahe unmöglich.
Bei Spezialanwendungen die eine starke Parallelisierung erlauben, macht das durchaus Sinn, für den Heimgebrauch ists aber vermutlich nicht realisierbar.
Vielleicht könnte man wenigstens erreichen die Grafikkarte weitgehend unabhängig zu machen
So das man nur noch marginale Treiber oder definierte Schnittstellen Braucht.
Ähnlich wie ein Postscriptdrucker mit eigener Intelligenz.
Ist es nicht störend das ein eigenständiges "elektronisches Gerät" Treiber braucht anstatt
das zu liefern was es kann -- über definierte Schnittstellen?
Genaugenommen entspricht das der UNX Philosophie.
Es gibt doch schom lange externe Geräte die -- wenn nötig auch ohne Pc funktionieren.
Und die Ageia und PhysX machen die nicht schon jetzt ähnliches.
Na ja , die japanischen Vektor und Topologie Rechner haben auch eine ganz ander Struktur als
die modernen weitgehend linearen Cpu`s.
Das betagte Beos -- (wird nicht mehr unterstützt) konnte sowas wohl.
Treiber? waren da extrem klein , und wenn es die Grafik kannte hat es in neuer Umgebung
(Chipsätze und Co) funktioniert die es garnicht kennen konnte. -- hat die Elektronik einfach machen lassen.
-- Nicht verwechseln mit dem aufgedunsenen Beos Max und co.
das zu liefern was es kann -- über definierte Schnittstellen?
Solange es Hardware mit unterschiedlichen Funktionen und Anwendungsbereichen gibt (bei Grafikkarten z.B. Optimierung von 2D/3D-Darstellung) - woher soll da das Betriebssystem ohne spezifische Treiber wissen, was die Hardware kann und was nicht? Was Du meinst gibt es schon - Standardtreiber für Monitore, Modems etc. Aber damit werden nur Standardfunktionen unterstützt, sozusagen der kleinste gemeinsame Nenner. Irgendwelche speziellen Gimmicks sind damit nicht nutzbar, da das OS keine Information darüber hat, welche Funktionen die Hardware unterstützt.
Stimmt , ein Postscriptdrucker hat ja nur spezilelle Aufgaben.
Aber warum programieren die Grafikkatrenhersteler die Treiber nicht gleich mit der gebührenden Sorgfalt.?
Bei Profikarten ZB. soll es kaum Probleme mit teibern geben.