schon okay, ich fasse das auch nicht so auf :-)
Es ist aber leider so, der G80 ist ein imposantes Stück Silizium, eine derart komplexe GPU gab es bis dato noch nie. Die Innovationen des G80 gegenüber des G70 sind zu vielzählig, das hätte nvidia auch auf drei GPUs verteilen können.
In einem Interview mit dem nvidia-CEO hab ich gelesen, dass 400 Mannjahre Entwicklungsarbeit im G80 stecken, laut nvidia selbst war das bis dato noch nie dagewesen, bei weitem nicht.
Allein schon die beinahe verdoppelte Transistorenzahl bei G80 vs G70 ist ein gutes Indiz für die Komplexizität, die unterdurchscnittliche Yield-Rate gibt auch noch einen Hinweis darauf.
Im Gegenzug muss man aber auch sagen, dass ein Core 2 Duo z.B. nur etwa halb so viele Transistoren besitzt und dabei geht noch mehr als die Hälfte dabei für den Cache drauf, dennoch dauerte die Entwicklung beim Core 2 Duo trotzdem länger als die des G80 (und das beim Intel`schen Monsterbudget).
Eine CPU ist im Gegensatz zu einer GPU ein kleines Wunderwerk, vielseitig einsetzbar - eine GPU ist dagegen sehr linear und unflexibel, mehr ein Baukastensystem. Größter Vorteil des G80 ist seine Parallelität, die theoretische Rechenleistung ist um einiges höher als die eines Core 2 Duo, nur leider eben theoretisch. Mit CUDA versucht nvidia nun, diese Rechenleistung zu nutzen, was auch ganz gut funktioniert. Der Ansatz an sich genial, wieso sollte man 700 Millionen Transistoren auch nur zum Rendern von 3D-Szenen nutzen? :-)
P.S. Ich hatte auch sofort nach dem Launch damals eine R9700pro gekauft, ohne dass es DX9-Spiele gegeben hat und ohne dass diese in Reichweite waren. Der Grund dafür war die überlegene DX8-Performance und das unglaublich schnelle und schöne AA (für die damalige Zeit).
Wie gesagt, wegen DX10 kauft man sich keine neue GPU, aber wenn unter der aktuellen DX-API Performance, Featureset und Bildqualität überzeugen können - wieso dann auch nicht?