1.Bitte nicht haun.Ich kann mir vorstellen,dass da jetzt einige Gesichter in die Hände fallen..Aber ich weiss es echt nich!
Zum Thema:
Im Zusammenhang mit GraKas hört man ja immer "256 bit high speed ddr interface" oder sowas.
Warum rennen dann aktuelle Otto-Normal-User-CPUs immernoch mit 32 bit?
Und warum stecken in R300/NV 30 GPUs weit über 100 Mio ransistoren drin und bei Prozzis (T-Bred) nur rund 30-40?
Ich wiederhole 1: nochmal:
Bitte nich haun!
Es ist ja sehr gut möglich,dass das alles miteinander nix zu tun hat (denk ich mal *g*) , aber falls das doch was miteinander zu tun haben sollte,warum sind dann CPUs so ... da fällt mir jetzt kein Wort ein...*sorry*
Archiv Prozessoren 8.660 Themen, 54.742 Beiträge
Hi !
Ziemlich umfangreiches Thema;
Es kommt immer darauf an was du mit einer CPU berechnen willst.
Es ist nicht immer sinnvoll wenn der Prozessor mehr Bits auf einmal berechnen kann.
32 Bit reichen für die meisten "normalen" Berechnungen im Heimbereich, so sind z.B. für Textverarbeitung, Suchen in Datensätzen oder der Berechnung der künstlichen Intelligenzin Spielen
32 Bit mehr als genug. Meistens benötigt man nicht einmal die
vollen 32 Bit für eine Berechnung, die benötigten Bits müssen dann vor der Operation ausmaskiert werden - was Zeit frisst.
Bei 3D Grafik sieht das wieder anders aus: 3D Grafiken brauchen "größere" Zahlen, deshalb sind hier auch GPU's mit mehr Bits am Werk.
Desweiteren musst du aufpassen dass du die Anbindung an den Prozessor (Datenbus) nicht mit den internen Registern der CPU verwechselst.
Der Datenbus kann auf jeden Fall mehrbittiger als die CPU selbst sein, wie z.B. beim Pentium (32Bit Proz. / 64Bit Speicheranbindung).
In diesem Fall wird der Überschuss an Daten nämlich gepuffert - berechnet werden die ganzen Daten allerdings mit nur max.32bit !
Gruß
IDE-ATAPI