Bezüglich dem Fertigungsprozeß scheiden sich die Geister, ob der R600 nun in 80 oder in 65nm produziert wird, weiß man wohl erst am Launch-Tag, am 23/24. April.
Auch zum Preis gibts was interessantes zu berichten, die X2900XT mit 512MB GDDR3RAM soll für schlappe 399 US-Dollar in den Handel kommen.
ich freu mich drauf, auch wenn ich mir das dennoch so schnell nicht leisten werden kann:-(
Technologisch wird das ein feiner Apparat,
Weiss man eigentlich schon was NVidia tun will wenn der R600 massiv schneller sein soll? Neue G8X-Karten, oder wird schon an der GeForce 9 gewerkelt?
Wie stark trägt das 512-MB-Interface zur Performance bei, kann man da schon was zu sagen?
Vielleicht gehts mir ja alleine so, aber
meine Motivation sich direkt die erste Generation von DX-10
Karten, egal von welchem Anbieter, zu kaufen hält sich in Grenzen.
Bin keiner von den ewig-Wartenden, aber diese
Vista-konforme Erstcharge überspringe ich mit Passion.
Mit einem 400,00-500,00 EUR teurem Exemplar der allerersten
DX7- - DX9-Karten wäre ich auch nicht lange glücklich geworden.
Man spekuliert derzeit über eine 8800 Ultra, was das genau sein wird, ist aber noch unklar. Einige Seiten sprechen von einer Dual-Karte, ähnlich der 79x0GX2, dafür spricht zumindest der (spekulative) Preis von 999 US-Dollar, einige andere meinen, dass im G80-Chip noch deaktivierte Shader-Einheiten vorhanden sind. Ist aber alles Spekulatius ;-)
Inwieweit der R600 schneller als der G80 sein wird, lässt sich zur Zeit nicht abschätzen, einige 3DMark-Werte geistern in den Weiten des Internets herum und attestieren dem R600 eine teils minimale Überlegenheit gegenüber dem G80 - was aber mit allergrößter Wahrscheinlichkeit nichts zu sagen hat, ohne AA/AF und in Standardauflösungen ist der 3DMark06 bei diesen High-End Chips eindeutig CPU-limitiert.
Erst in hohen Auflösungen und mit hohen Filtergraden wäre eine genauere Untersuchung der Performance möglich, ganz davon abgesehen, dass 3DMarks meist nicht viel mit realen Spielen zu tun haben - und genau da fehlen noch sämtliche verlässliche Benchmarks.
Das 512 Bit breite Speicherinterface hat zumindest den Vorteil, eine sehr hohe Speicherbandbreite bei relativ niedrig getakteten Speicherchips zu erreichen, in Verbindung mit GDDR4-RAM wäre die Speicherbandbreite beinahe exorbitant.
Real bedeutet dies aber relativ wenig, erst mit sehr hohen Filtergraden (hauptsächlich AF) wirds eng mit der Speicherbandbreite, wenn dann noch HDR-Rendering dazu kommt, könnte die X2900-Familie deutlich davon profitieren. Ob das dann auch tatsächlich so eintreffen wird, wird man erst sehen wenn die Reviews der großen Sites online sind ;-)
Weiss man auch schon, wieviel Strom die Graka verbrauchen wird? Alle wollen sparsame Prozessoren, aber bei der Grafikkarte scheint der Stromverbrauch wohl in Richtung "Open End" zu gehen...
Mit dem Stromverbrauch orientiert sich das an dem, wie Mad schrieb:
Bezüglich dem Fertigungsprozeß scheiden sich die Geister, ob der R600 nun in 80 oder in 65nm produziert wird, weiß man wohl erst am Launch-Tag, am 23/24. April.
80nm werden kleine Heizkraftwerke werden, spekulativ wurde beim Spitzenmodell von 200 Watt gesprochen, daher arbeitet man wohl emsig an der Fertigung in 65nm.
gerne.
240 Watt sind in meinen Augen (viel-)zuviel.
Und ich bleibe daher bei meinem Statement :
Erst-Ausgaben einer neuen GraKa-Generation sind
ein bißchen mit Vorsicht zu genießen.
Besonders im aktuellen Falle, indem M$ den Usern und
Entwicklern eine neue Technologie in Form eines neuen
SW-Interfaces (DX-10) gekoppelt an eine neue
HW-Umgebung (R600, GF800er Reihe) vordiktiert.
Aufgrund des Hypes und der sich schnell eigendynamisch
entwicklenden Nachfrage sind die Entwickler ja nahezu
gezwungen schnell irgendetwas auf den Markt zu zaubern.
Die Zeitspanne zwischen den Releases der DX10 (Vista-)
kompatiblen Grafikkarten der beiden Main-Developer sollte
diesen Umstand eigentlich per se untermauern.
Hat ATi freiwillig solange gewartet ? *nein !*
Hat es wenigstens etwas gebracht ? *naja...*
Ich behaupte nicht, das die Karten _schlecht- sind.
Keineswegs. Aber gerade im Bezug auf den Stromverbrauch,
der Leistung und der Unterstützung aller optionalen
Gimmicks in allen Auflösungen sollte einem die
Preis-/Leistungsverhältnis-geschulte Vernunft sagen :
nein, nicht diese zur Marktfähigkeit geprügelten
DX-10 Prototypen kaufen. Wenn es nicht unbedingt sein
muss.
Ohne Vista ists eh Essig mit DX10 - und auch unter DX9 sind G80 und R600 höllisch schnell, die US-Architektur bringt auch unter DX9 erhebliche Vorteile mit sich.
Außerdem kauft man sich keine Grafikkarte nur weil es eine neue DX-API oder ein neues SM gibt, macht auch keinen Sinn, DX10-Spiele sind noch ZUkunftsmusik, zumindest DX10-only Games. Die sind vermutlich nicht vor 2009/2010 zu erwarten, bis dahin wurde wahrscheinlich schon die dritte Nachfolgegeneration von G80/R600 vorgestellt.
Viel schlimmer ist das Treiberdilemma, nvidia hat es bis heute nicht geschafft, einen wirklich gut funktionierenden Vista-Treiber auf die Beine zu stellen, und das obwohl Vista schon lange fertiggestellt ist und der G80 seit nun fast 6 Monaten im Handel ist - das finde ich traurig.
P.S. nvidia hat 4 Jahre am G80 gebastelt, von ...schnell irgendetwas auf den Markt zu zaubern... kann da also nicht die Rede sein.
DX10 ist nur eine API, Vorgabe von MS war nur das Shader Model und die US-Architektur, die grundlegenden Specs waren schon zu DX8-Zeiten bekannt.
G80 und R600 sind hochparallele Streaming-Prozessoren und wesentlich simpler aufgebaut als eine normale CPU, die Entwicklung einer CPU ist um Welten komplizierter als die eines Grafikchips. Dennoch wird nvidia die nächsten Jahre auf die G80-Architektur setzen, 4 Jahre Entwicklungsarbeit sind schon eine ganze Menge und waren für eine GPU bisher noch nie dagewesen.
Dasselbe Spiel wars auch bei ATIs R300 (Radeon 9700 DX9 SM2), das Design wurde bis zum R580+ (X1950XT DX9C SM3.0) nur weiter verfeinert, jetzt kommt eine grundlegend neue Architektur und diese wird auch so weit ausgequetscht, wies nur irgendwie geht.
Habt ihr euch schon mal die Fotos angeschaut? Unter dem Gehäuse sind 2 Heatpipes und hinten noch ein zusätzlicher Lüfter dran, d.h., dass das Ding um 50% länger wird und bei einem Minitower wird es dann wohl eng...
"P.S. nvidia hat 4 Jahre am G80 gebastelt, von ...schnell irgendetwas auf den Markt zu zaubern... kann da also nicht die Rede sein."
sry Madhatter, ich will dir wirklich nicht auf den
Schlips treten weil ich dich de facto sehr schätze.
(Auch schon vor der drei-blaue-Buchstaben-Aera)
Aber eine Entwicklungszeit von vier Jahren ist
absoluter Standard und besagt mitnichten,
das das Endergebnis nur aufgund dieser
Zeitspanne ein Revolutionäres ist.
Das ist übrigends nicht nur bei IT-Hardware so ^^
"Ohne Vista ists eh Essig mit DX10 - und auch unter DX9 sind G80 und R600 höllisch schnell, die US-Architektur bringt auch unter DX9 erhebliche Vorteile mit sich."
Es steht aber wohl außer Frage, das die Nachfolgermodelle
mindestens das gleiche bringen werden, oder ?
"Außerdem kauft man sich keine Grafikkarte nur weil es eine neue DX-API oder ein neues SM gibt, macht auch keinen Sinn, DX10-Spiele sind noch ZUkunftsmusik, zumindest DX10-only Games. Die sind vermutlich nicht vor 2009/2010 zu erwarten, bis dahin wurde wahrscheinlich schon die dritte Nachfolgegeneration von G80/R600 vorgestellt."
Eben. Man kauft sich die GraKa nicht wegen des API, sondern
wegen der Spiele. Und da sage mir mal warum man da nicht
sinnvollerweise warten sollte, wo die ersten nennenswerten Games
eh nicht vor 2009/2010 erscheinen werden ? Wozu dann
die Karten der ersten Generation....für den Preis ?
"Viel schlimmer ist das Treiberdilemma, nvidia hat es bis heute nicht geschafft, einen wirklich gut funktionierenden Vista-Treiber auf die Beine zu stellen, und das obwohl Vista schon lange fertiggestellt ist und der G80 seit nun fast 6 Monaten im Handel ist - das finde ich traurig.
Ja, da brauche ich ja gar nicht gegenzuwettern. Genug Kontra-
Argumente gibts du ja -zum aktuellen Zeitpunkt- selber...
zumindestens für die nVidia-Schiene. ATi hat ja gerade
erst angefangen. God bless the Endanwender. (Amen)
Es ist aber leider so, der G80 ist ein imposantes Stück Silizium, eine derart komplexe GPU gab es bis dato noch nie. Die Innovationen des G80 gegenüber des G70 sind zu vielzählig, das hätte nvidia auch auf drei GPUs verteilen können.
In einem Interview mit dem nvidia-CEO hab ich gelesen, dass 400 Mannjahre Entwicklungsarbeit im G80 stecken, laut nvidia selbst war das bis dato noch nie dagewesen, bei weitem nicht.
Allein schon die beinahe verdoppelte Transistorenzahl bei G80 vs G70 ist ein gutes Indiz für die Komplexizität, die unterdurchscnittliche Yield-Rate gibt auch noch einen Hinweis darauf.
Im Gegenzug muss man aber auch sagen, dass ein Core 2 Duo z.B. nur etwa halb so viele Transistoren besitzt und dabei geht noch mehr als die Hälfte dabei für den Cache drauf, dennoch dauerte die Entwicklung beim Core 2 Duo trotzdem länger als die des G80 (und das beim Intel`schen Monsterbudget).
Eine CPU ist im Gegensatz zu einer GPU ein kleines Wunderwerk, vielseitig einsetzbar - eine GPU ist dagegen sehr linear und unflexibel, mehr ein Baukastensystem. Größter Vorteil des G80 ist seine Parallelität, die theoretische Rechenleistung ist um einiges höher als die eines Core 2 Duo, nur leider eben theoretisch. Mit CUDA versucht nvidia nun, diese Rechenleistung zu nutzen, was auch ganz gut funktioniert. Der Ansatz an sich genial, wieso sollte man 700 Millionen Transistoren auch nur zum Rendern von 3D-Szenen nutzen? :-)
P.S. Ich hatte auch sofort nach dem Launch damals eine R9700pro gekauft, ohne dass es DX9-Spiele gegeben hat und ohne dass diese in Reichweite waren. Der Grund dafür war die überlegene DX8-Performance und das unglaublich schnelle und schöne AA (für die damalige Zeit).
Wie gesagt, wegen DX10 kauft man sich keine neue GPU, aber wenn unter der aktuellen DX-API Performance, Featureset und Bildqualität überzeugen können - wieso dann auch nicht?
Bei der X1K-Serie erschien ja auch erst der X1800 und dann X1900XT/X, aber später noch die 1950XTX. Von daher ist es normal dass die Hersteller mit der Zeit die alten Serien weiterentwickeln. Bei den Geforce Karten ist es ja nicht anders.
btw: Den Link hab ich gestern schon gepostet, siehe oben...:-P
Ich rede aber von der XTX nicht von einer vielleicht in einem halben Jahr erscheinenden neuen Serie. In Zeiten wo Nvidia mit einem 768MB Grafikspeicher beladenem Monster punktet, lediglich mit der schwächeren "nur" mit 512MB bestückten XT-Version zu starten ist ziemlich mutig.
> btw: Den Link hab ich gestern schon gepostet, siehe oben...:-P
Sorry habe ich übersehen
Die Graka hat ein 8 und 6 pin Stromanschluss, da brauchte man doch auch ein neues Netzteil oder sehe ich das falsch.
Ein neues Netzteil brauchst du nicht unbedingt, selbst wenn du ein ausreichend starkes Netzteil besitzt, ohne PCI-E Grafikkarten-Anschluss, lässt sich dies per Adapter nachträglich ergänzen.
gut, aber wo schliesse ich den 8 pol an? habe nur noch ein freien stecker zu verfügung und der ist 4 polig. werde die sache bei mir mal genau ansehen. habe ein LC POWER , LC ATX Power 550 Watt
Der 8-polige kommt an die Graka, wenn du nur noch einen freien Stecker hast, dann brauchst du halt ein Y-Kabel.
habe ein LC POWER , LC ATX Power 550 Watt
Das kannst du dann sowieso vergessen, mit einem Billig-Netzteil dieses Kalibers wirst du beim ersten Anschließen nur Funken und Rauch sehen... 550W sind nicht gleich 550W.
welche netzteile gibt es den mit 6 und 8 poligen steckern für grafikkarten? eine empfehlung wird gerne angenommen, es sollte aber schon power haben da ich mir die x2900xtx kaufen möchte. gruß neugrafik1
Wie gesagt, es gibt Adapter. Die zwei Power-Stecker sollten aber wenn möglich von 2 unterschiedlichen Kabelsträngen (Leitungen) versorgt werden, wenn beide aus einer Schiene gespeist werden, gibts vermutlich Probleme.
Da es noch keinerlei Reviews gibt, ists auch schwer abzuschätzen wieviel Watt die Grafikkarte nun wirklich verbraucht, ein Netzteil mit um die 600W Nennleistung von einem namhaften Hersteller sollte aber genügen.
P.S. Warte doch erst mal ab bis es die Karte zu kaufen gibt, bevor du dein Netzteil in Rente schickst ;-)
Falls doch: mit jeweils 22 Ampere auf zwei 12V-Schienen und einer Combined Power von 420 Watt bei 35 Ampere: Klick!
Just gefunden: http://www.dailytech.com/article.aspx?newsid=7043
Demnach wird die X2900XT in etwa so viel kosten wie die GeForce 8800GTS.
The ATI Radeon HD 2900 XT is poised to have a street price approximately the same as the GeForce 8800 GTS, which currently has a suggested retailer price of $499.
Und da das jetzt einigermaßen gesicherte Benchmarks sind, darf man annehmen dass der Pervormancevorsprung zur 8800 (bzw. Quadro FX 5500 im zweiten Benchmark weiter unten) doch nicht zu gering wird, wie anhand des Preises befürchtet.
Vor allem der letzte Satz ist interessant und sagt einiges:
Given the additional memory cost and bulky card footprint, it seems unlikely the XTX will ever see the light of day given its current performance.
da mir das netzteil nicht mehr aus dem kopf geht habe ich da noch eine frage, oder besser gesagt würde mir gerne eine oder mehrere meinungen zu diesem netzteil anhören. seasonic ss-650ht energy plus : http://www.planet3dnow.de/artikel/hardware/netzteile/netzteile2006/mittelklasse/35.shtml
dieser hat zwei 6 pin stecker für pci- express, ok ein adapter für 6 auf 8 pin ist fällig aber das war es auch schon was man noch zusätzlich braucht. sonst würde ich sagen das es schon ein gutes teil ist, von meinem kleinem wissen aus. ok der preis von ca. 150 euro ist schon etwas heftig aber es geht ja jetzt nur um das netzteil.
So, ich nochmal.
Ich habe jetzt einen Blick in meine neue C´t werfen können und einen Test des R600 entdeckt.
Auch wenn der X2900XT nur mit der GeForce 800GTS konkurrieren soll, bin ich ein wenig enttäuscht.
Die Performance ist zwar oft über- zu häufig aber auch unter der der GeForce 8800GTS.
AMD hofft daher, dass die 2900XT im Handel für "deutlich unter 400€" gelistet wird...
Der 2600XT bietet ca... doppelt so viel Leistung als die Geforce 8600GTS und ist daher laut C´t "vielversprechend".