wir kennen die benchmarks, pressemitteilungen und Techdemos. Doch ich wage hier mal einen blick in die Zukunft...
Pixelshader 3.0:
was bringt diese technik? Sehr schwer zu sagen, stöbern wir doch in der Vergangenheit um die Zukunft einzuschätzen.
Damals, ende 2001: wurde die Radeon 8500 veröffentlicht, eines der Hauptfeatures hieß Pixelshader 1.4, der dem 1.3 Shader der Geforceti500 überlegen war, doch bis heute erschien genau 1 Spiel (!) dass den 1.4 shader explizit nutzt, nämlich Max Payne 2. (abgesehen von den techdemos/benchmarks).
Okay, damals war die Situation etwas anders, Ati war der aussenseiter, warum sollte man solche features in spiele einbauen, wenn eh keiner so eine karte hatte? Und der Unterschied PS1.3->1.4 ist nicht so groß wie der von 2.0->3.0.
Ich vermute aber dass es ähnlich kommen wird, und der 3.0 shader lange zeit ungenutzt bleiben wird, und wenns soweit ist, dann wird die 6800 zum alten Eisen gehören.
HDTV/Videoshader:
da scheinen beide seiten noch probleme zu haben, bleibt alles fraglich...
Stromverbrauch:
viele motzen rum, die nvidia Karte brauche zu viel Strom, doch sehe man sich das ganze genau an, ist ati auch nicht besser. Der FX hat weitaus mehr Transistoren, aufgrund der vielen features, hätte ati die auch alle drin, würde die Karte ähnlich viel verbraten.
Da gefallen mir beide nicht, denn hier wäre etwas weniger mehr gewesen, nur 100-50Mhz weniger, und die Kühlung wäre einfacher. Doch beide puschen sich gegenseitig hoch, verständlich, aber dennoch schade.
Beide setzen auf „Brute Force Rendering“, es fehlen die innovative Ideen, HyperZ, Ultra Shadow usw. alles nette sachen, die aber mehr „die Symptomen lindern, anstatt die Krankheit zu heilen“. Da käme ein PowerVR Chip gerade recht, denn die Jungs sollen(!) das schon bei dem Kyro-Chip eingesetzte HSR und Tile-Rendering verbessert haben, doch das Zusammenspiel dieser features mit den Shadern ist etwas Tricky... schauen wir mal was da noch kommen mag...
Leistung/Benchmarks:
Die Spitzen-Karten liegen hier etwa gleichauf, die bildqualität von AF und FSAA wurde vielen Seiten verglichen (dazu: siehe links unten).
Eines bleibt aber zu beachten: die Geforce hat beim größten teil der spiele eine höhere minimale framerate! Und die ist weitaus wichtiger als die durchscnittliche/höchste! Denn obs nun 80 oder 100fps im „entspannten“ momenten sind, ist egal. Beim Kampfgefecht mit explosionen ist es wichtiger, ob man mit 20 oder 30fps rumballert! Da sehe ich nvidia in Zukunft im Vorteil. (Kann sich aber auch noch vieles ändern, neuere Treiber-versionen kommen!)
Fazit:
es gibt keins, im c\'t stil (wheey) überlasse ich das Fazit dem leser, entscheidet selbst anhand der fakten (und meinen hirngespinsten).
MFG Hellspawn
Links zum Thema:
3D Center (Ati benchmarks):http://www.3dcenter.de/artikel/r420_benchmarks/
3D Center (ati technik) http://www.3dcenter.de/artikel/r420_technik/
Tom Hardware (ati): http://www.de.tomshardware.com/graphic/20040504/index.html
Computerbase (ati): http://www.computerbase.de/artikel/hardware/grafikkarten/ati_radeon_x800_pro_x800_xt/
3D Center (nvidia-benchmarks): http://www.3dcenter.de/artikel/nv40_benchmarks/
3D Center (nvidia-technk): http://www.3dcenter.de/artikel/nv40_technik/
Toms Hardware (nvidia): http://www.tomshardware.de/graphic/20040414/index.html
3D Center (3.0 PixelShader) : http://www.3dcenter.de/artikel/2004/03-31_a.php
Grafikkarten und Monitore 26.150 Themen, 115.656 Beiträge
hier noch die obligatorische entschuldigung für die vielen rechtschreibfehler: sorry!
