In der aktuellen PC Games Hardware wurde eine Prognose von Nvidia veröffentlich, zu welchen Leistungen ein Grafikchip im Jahre 2014 imstande sein wird. Es werden folgende Werte genannt (in Klammern die aktuellen Spitzenwerte oder andere Vergleiche):
Pixelfüllrate: mehrere 100 Milliarden Pixel je Sekunde (Radeon X800 XT: 8,3 Milliarden)
Anzahl Pixel-Pipelines: 64 (aktuell: 16)
Rechenleistung: 10 Teraflops (entspricht dem Supercomputer ASIC White, Foto)
Anzahl Transistoren: über 1 Milliarde (GeForce 6800: 222 Mio.)
Speicherbandbreite: 3000 Gigabyte/s = 3 Terabyte (Radeon X800 XT: 35,8 GB/s)
Speichermenge: 30 Gigabyte (aktuell: 256 MB)
Busgeschwindigkeit: 100 GB/s (aktuell: 1,6 GB/s)
Fertigung: 45 Nanometer (aktuell: 130 Nanometer)
Polygondurchsatz: 127 Milliarden/s (Radeon X800 XT: 780 Mio./s)
Mit solchen Grafikkarten sollen sich Renderfilme wie Shrek in Echtzeit berechnen lassen. Die Zukunft ist schön :D.
Naja, aber ein paar Werte scheinen mir dennoch gering, speziell die Transistorzahl und die Anzahl der Renderpipelines (Ende des Jahres sollen ja schon 32 erreicht werden und in 10 Jahren sind es dennoch erst 64?).
Grafikkarten und Monitore 26.173 Themen, 116.041 Beiträge
schon wahnsinn solche Aussichten.
die Hersteller haben aber irgentwann ein Problem mit dem Silizium-Wafern,deren Stukturen sich nicht immer weiter verkleinern lassen.Dazu kommt der imense Stromverbrauch und Wärmeentwicklung solcher Chip´s.
Richtig,
die Entwickler haben bald ein mächtiges Problem:
1.: mit der Fertigungstechnologie
2.: Mit der maximalen Frequenz ich glaube mich zu erinnern das 20Ghz das Physikalische Maximum darstellt (da bin ich mir jetzt nicht ganz sicher)
Die Physik setzt grenzen, und der Mensch wird sie Brechen oder umgehen, das ist sicher.
Gruss
hab neulich so ne reportage gesehen, in dem folgendes scenario durchgespielt wurde: in einigen jahren kann "moores law" nicht mehr eingehalten werden, und sollten alternativen zu selizium/transistoren nicht gefunden werden, so würde die welt-wirtschaft völlig ins chaos versinken. weil wenns nicht schneller wird, dann fehlt auch ein wirtschaftswachstum usw. als eine kettenreaktion.
sehr interessant...
wobei ich bei grafikchips das net so schlimm sehe wie bei CPUs, denn grafikchip können prima parallel laufen. siehe voodoo 5 6000 (sabber...), oder die ganzen profi-flugsimulatoren die z.t. auf heutige desktop chips basieren, nur in 20(oder mehr)facher ausführung.
Es gibt sogar eine Prognose von Unreal-Engine Chefentwickler Tim Sweeny, die besagt, dass in 10 Jahren Grafikbeschleuniger komplett vom Markt verschwinden, weil die Fortschritte bei der CPU-Entwicklung schneller voran gehen werden als die Fortschritte bei der Grafikchip-Entwicklung. Außerdem werden Shader-Berechnungen immer allgeimer ausfallen, so dass eine CPU die Rolle der Grafikchips übernehmen kann. Bin gespannt, ob sich das bewahrheitet.
Wenn man zumindest eine heutige CPU mit dem Rendern eines shaderlastigen Spiels beauftragen würde, käme man aufgrund der vielen Emulationen wohl auf eine Diashow der ganz extremen Art.
Echt wahnsinn. Und ich habe nur eine Geforce 2 MX 400 (reicht für Videobearbeitung und Grafik vollkommen aus).
Wenn man da dann auch noch an den Quantencomputer denkt.... Wissenschaftler haben herausgefunden, wenn man den unendlich lange ausgeschaltet läßt, dann kommt er auch zum richtigen Ergebnis. Soll heißen: Wenn man den Rechner der Zukunft garnicht erst einschaltet, dann kann er alles.
ich bin mal gespannt, was noch alles so im bereich PC in Zukunft auf uns zukommt.
Bis denn
Dann braucht man auch Starkstrom um den PC anzuschließen ;-)
