Nun nach den letzten Veröffentlichungen von Refresh-Chips ist es an der Zeit wieder einen richtigen Schritt nach Vorne zugehen. In Richtung DX-10, Unified Shader und kleineren (kühleren) Fertigungsprozessen. Mittlerweile sind auch schon wieder ungefähre Spekulationen im Umlauf wie die neuen Chips von Nvidia und ATI (G80 und R600) aussehen werden.
R600 von ATI
- 65nm by TSMC
- 64 Shader pipelines
- 32 TMU's
- 32 ROPs
- 128 Shader operations per Cycle
- 800MHz Core
- 102.4 billion shader ops/sec
- 512GFLOPs for the shaders
- 2 Billion triangles/sec
- 25.6 Gpixels/Gtexels/sec
- 256-bit 512MB 1.8GHz GDDR4 Memory
- 57.6 GB/sec Bandwidth (at 1.8GHz)
- Directx-10 ready
Es deutet beim R600 also alles darauf hin, dass der Chip eine Unified Shader-Architektur haben wird und sich somit auch komplett an die Spezifikationen von DX-10 halten wird, welche dies voraussetzt.
Vom G80 Chip geistert leider noch nicht so viel durchs Netz, man kann aber davon ausgehen, dass sich die Spezifikationen bezüglich Taktraten, Speicher usw. im ähnlichen Rahmen befinden wird wie beim R600. Anders als der R600 soll der G80 im 80nm Verfahren hergestellt werden, was ihn auf jeden Fall in der Theorie wärmer machen würde. Leider deutet alles darauf hin, dass Nvidia mit dem G80 noch nicht auf eine Unified-Architektur setzen wird/kann.
http://www.golem.de/0602/43569.html
Es zeichnet sich zudem auch ab, dass man mit der nächsten Generation auch richtige Dual-Core Grafikkarten auf den Markt bringen wird. Beide Karten werden wohl auf GDDR4-RAM von Samsung setzen.
http://www.tweakpc.de/?news_id=9170
Hier einige Quellen:
-http://www.vr-zone.com/index.php?i=3177
-http://www.hartware.de/news_39375.html
-http://3dfusion.de/forum/showthread.php?t=13585
[Diese Nachricht wurde nachträglich bearbeitet.]
Grafikkarten und Monitore 26.156 Themen, 115.722 Beiträge
Soso... Der G80 kein Unified-Shader Chip? Dann ist doch aber zugleich auch Essig mit DX10 - oder? Bedeutet wohl dass der G80 wieder nur ein Refresh-Chip wird.
Trotz 65nm-Fertigung sollte ATI unbedingt die Transistorenzahl im Auge behalten, der R580 kommt ja schon auf gute 330 Millionen Transistoren, eine erhöhte Fehlerquote und somit keine gute Yield-Rate sind also bereits vorprogrammiert...
Trotzdem, der Herbst wird interessant, sehr sogar *g*
Was ATI schon mit dem R500 für die Xbox realisiert hat, scheint Nvidia ziemliches Kopfzerbrechen zu verursachen. Nvidia wird sich aber scheinbar durch die DX-10 Spezifikationen mogeln können, siehe Golem.de. Es scheint fast so als ob ATI mit der nächsten Generation wiedermal die Vorreiterrolle bezüglich neuer Architektur übernehmen kann, was ja in den letzten Jahren ausschliesslich Nvidia vorbehalten war.
Aber wie du sagst sollte sich ATI endlich um die Reduzierung der Wärmeentwicklung ihrer aktuellen Produkte kümmern, die X1900er Karten sind zwar gut gelungen aber auch entsprechend heiss.
immer so unsinn, wir wissen wohl alle das der nächste PowerVR chip alles in grund und boden rendert :-D
....nicht zu vergessen die Zusatzkarte mit "Physix"-Chip, welche in
jeden zukunftsorientierten Rechner eingebaut gehört !
Die PhysX-Karten haben vor kurzem mächtige Konkurrenz in Form von "Havok FX" bekommen, man wird sehen was sich durchsetzen kann, wenn sich überhaupt was durchsetzt... ;o)
http://www.computerbase.de/news/software/spiele/2006/maerz/havok_fx_gpu_effekte/
Wobei es rein ökonomisch betrachtet ein ziemlicher Schwachsinn ist die Shader-Einheiten für Physikberechnungen zu nutzen, entweder fehlen dann Ressourcen für das Bild-Rendering oder es fehlt bei der Physik.
Und, extra ein SLI-System zu kaufen nur um die damit gewonnene Shader-Power in die Physik zu blasen - naja, wers braucht. Da erscheint mir eine extra-Karte doch sinnvoller, zumal eine rein auf Physikberechnungen spezialisierte PPU immer deutlich schneller ist, als wenn die Arbeit von einer Dual-Core CPU oder einem SLI-System erledigt wird...
Sollten PhysX-Karten zusammen mit einigen namhaften Titeln in den Regalen stehen - ich werde zugreifen...
zum thema ein herrliches video:
http://www.gametrailers.com/download.php?id=9855&type=wmv&f=
Jap... Schon sehr schön anzusehn...
Wirklich interessant wird aber die Darstellung von Flüssigkeiten werden *sabber*
Einen Haken hat die Geschichte aber meiner Meinung nach: Bei schnellen MP-Shootern steigt dabei doch die Übertragungsrate deutlich an, schließlich müssen ja für alle Spieler dieselben Objektpositionen/Bewegungen dargestellt werden, dies bedeutet mit Sicherheit ein massives Problem.
Rudimentäre Physik wie z.B. in HL2/CSS geht ja noch, zumal bei diesen Games meist alles statisch ist, bzw, nach vorgegebenen Skripts abläuft. Bei einem PhysX-Game müssen das erhebliche Datenmengen sein die da per Echtzeit übertragen werden wollen, bin schon gespannt wie sie dieses Problem lösen werden...
Was mit so einer Physx-Karte theoretisch an komplexen Berechnungen innerhalb
einer dreidimensionalen Umgebung realisierbar ist, macht diese Erweiterung
prinzipiell interessant.
Letztendlich steigt und fällt das Schicksal dieser neuen Hardware-Innovation mit
der Summe, der Qualität und der Verfügbarkeit adäquater Software-Titel.
Und da bin ich mal gespannt, wie sich die -anfangs wohl ausschließlich großen-
Entwicklungshäuser dieser Thematik gegenüberstellen werden.
Wenn man mal kurz zusammenfaßt, was auf die Entwickler der Cores und Engines
so in der nächsten Zeit zukommt, darf man nur die Daumen drücken, dass
sich dort genug Etat,Kompetenz und Engagement zusammenfindet.
Spiele der Zukunft sollten ja bekanntlich idealerweise :
* 64-Bit optimiert sein
* Dual- und Quad-Core optimiert sein
* SLI -Verbund genauso unterstützen wie auch eine 4-er Kombo GraKas
* ...und dann idelaerweise noch die Physx-Karten voll ins Geschehen integrieren.
Da kann ich nur sagen : *haolladiewaldfee* - mächtiger Task, viel Erfolg !
Kann ja auch alles so eintreffen, aber es besteht parallel die symptomatische Gefahr,
dass mal wieder ein Kapitel in dem Buch
...noch mehr unausgereifte Hardware für noch mehr unoptimierten Code...
geschrieben wird.
In diesem Sinne,
SirHenry
ist eben so dass man versucht mit aller gewalt und hohen kosten die leitstung exponential zu steigern (siehe die laute und teuere X-Box 360)
Bin mir nicht mehr sicher, aber afaik wurde die Physik-Engine von Ageia auch von Sony lizensiert. Zudem wird zB. die Unreal3-Engine die PhysX-Karten unterstützen, was bei einer solchen Pracht wohl auch nötig ist....
Schlussendlich wird sich der geübte Käufer, die sinnvolle Hardware herauspicken und die restlichen "genialen Neuerungen" den weniger Vertrauten überlassen... ;o)
sorry, aber denke nicht an große probleme.
es werden nur die daten für den körper und die richtung und stärke der auftreffenden kraft übertragen, die karten können das ja dann rendern.
also wenns gut geproggt wurde, passiert da nicht viel an der übertragung!