Archiv Server-Windows 15.877 Themen, 54.317 Beiträge

W2K u. Größe des Arbeitsspeichers Zitat von "THG"

Rebedj / 3 Antworten / Baumansicht Nickles

"Top-Leistung ab 1 GByte Speicher"


++++++++++++++ Die Messungen mit Content Creation Winstone belegen, dass Windows-2000- und -XP-Systeme erst ab 1 GByte richtig in Fahrt kommen. Die Benchmarks zeigen die Abhängigkeit der Systemleistung von der Speichermenge. 512 MByte RAM sind bei schnellen Windows-XP-Systemen als Minimalausstattung anzusehen. +++++++++++++++++++++


Dies war der Aufmacher vorgestern auf der THG-Site.


Habe mein W2K mit 3x256MB DDR PC 266 Infineon laufen. Hatte vorige Woche testweise 3x512 MB DDR PC 266 Elexir eingesetzt. Hatte den Test aber schnell abgebrochen, weil es wirklich absolut nix brachte. Ausser, dass Elexir mit Infineon nicht ganz mithalten kann, wenn es um Geschwindigkeit u. Stabilität geht.


Hat von Euch jemand Erfahrung mit solch grossen Ram-Mengen in Verbindung mit W2K ? Ich glaube THG ist hier etwas über das Ziel hinausgeschossen. Oder ?


Ich habe einen AMD XP 2100+ amwerkeln, aber der richtige Schub kam erst, nachdem ich mit einem Raid-0 Array ( 2x WD 400 BB ) arbeite und die Sicherungen auf normalen Plattensysteme mache.


Gruss Rebedj

xafford Rebedj „W2K u. Größe des Arbeitsspeichers Zitat von "THG"“
Optionen

naja, erfahrungen mit großen ram-mengen (2-8GB) hab ich schon, allerdings nicht im dektopbereich. ich frage mich, woher diese leistungsschübe kommen sollen? ich gestehe dies anwendungen zu, die temporär riesige datenmengen produzieren, wie renderings, raytracings, FEM-berechnungen auf worksations, oder datenbanksystemen, vielleicht auch benchmarks, aber im alltagsgebrauch? ich denke selbst viele grafikprogramme dürften probleme haben mehr als 1GB im speicher zu produzieren.
eine speicheralloziierung wird wohl kaum schneller durch mehr speicher, ein vorteil kann es nur brigen, wenn durch zu wenig alloziierten speicher durch das programm im verlauf neuer angefordert werden muß, dies hat aber mit dem programm selbst und weder mit dem OS, noch mit der verfügbaren speichermenge zu tun. ich kann mir also beim besten willen nicht vorstellen, daß die speichermenge einen entscheidenden einfluß auf die geschwindigkeit hat, wenn es nicht um das paging geht.
ps: THG hat häufig recht ominöse tests, artikel, ergebnisse welche auch von anderen fachseiten häufiger mal kritisiert werden.
das mit den 512MB kann man aber iegentlich so stehen lassen, ich finde mit 256 macht das arbeiten unter 2000 nur bedingt spaß.

Rebedj Nachtrag zu: „W2K u. Größe des Arbeitsspeichers Zitat von "THG"“
Optionen

Jepp so sehe ich das auch. Ich arbeite ( Weiterentwicklung und Weiterbildung ) mit Access-Datenbanken und rendere ab und an ein Filmchen. Beim Start verbraucht ein Teil der Hintergrundprogramme und das Windows ca. 230 MB ( Auslagerung des Kernel wurde abgeschaltet soweit das W2K überhaupt mit sich machen lässt, Registry wurde so optimiert, dass erstmal der Ram drann ist, bevor etwas ausgelagert wird ) Für W2K und Office installiere ich in der Firma an den Arbeitsstationen nur 256MB-Riegel. Das reicht dicke aus. Hier macht es sich gut wenn nicht Ausgelagert wird, denn mit dem Klick ist das Programm auch schon wieder da.
Von meinen 768 MB Ram hab ich mit Ram-Idel schon öfters die Anzeige auf unter 10 MB schwinden sehen. Das ist aber sehr selten. Meist bei Rendering oder während einer Datensicherung ( hier bringt das Raid0 mehr Daten als die normalen HDD's schreiben können ). Als Puffer spürt man den Vorteil von viel Ram. Ich vermute aber im Desktopbereich könnte sich die Performence sogar verschlechtern, weil die Qualität der Riegel und der Board's / Chipsätze hier wohl eine entscheidende Rolle spielen.
Ich hab bei meinem System mit 768 MB Marken-DDR die besten Ergebnisse, und schaffe es nicht die Kiste zum Absturz zu bringen, und das zählt. Schneller als ich gucken kann braucht der PC ja nicht zu arbeiten ;-))
Nach THG's Test, könnte wohl jeder 2. Anwender zum Aufrüsten in den Media..ähh Aldi ;-))

Gruss Rebedj

pco Rebedj „W2K u. Größe des Arbeitsspeichers Zitat von "THG"“
Optionen

Bei derzeitigen RAM-Preisen ist ein System mit weniger als 512MB nicht mehr vertretbar (Gelle Liebe OEMS!).

Andererseits sollte man dies nicht überbewerten. Ich schnibble recht gern Videos, was gerade RAM-Intensiv sein sollte, doch auch hier gibt es kaum signifikante Unterschiede. mit 1GB ist man wohl wirklich am oberne Limit des Sinnvollen, alles andere ist Prahlerei.

Auch wenn WindowsXP bis hoch zu 1,5 GB mit seinem RAM-Bedarf recht gut skaliert...

Ich weiss auch nicht, wo der spürbare Unterschied zwischen "schnellem" und "langsamem" RAM sein soll. Er ist ohnehin schwierig messbar - aber spürbar? Einen guten Riegel zeichnet Fehlerfreiheit und ein sauber programmiertes EEPROM aus. Wenn ich mir ne Noname-CL2,5-Modul ausm Shop hole, einbaue und nach 10 Sekunden CTRamtest schon 2 Bitkipper hab, dann weiss ich, dass das Modul nix taucht und nur Scherereien machen wird. Wenn mein Board dann noch nicht mal die Timings einstellen kann, dann weiss ich, schlimmer gehts nimmer.

Meine Meinung: 1GB ist derzeit optimal, allerdings nicht wegen der Menge, sonder wegen des Preises.
Ein gutes 256er (PC3200) kostet 60 Euro, ein gutes 512er Modul 80. Da derzeit fast zum guten Ton gehört Dual-Channel-Boards zu kaufen und zur Nutzung dieser Technik zwei Module nötig sind... 1 GB.

So Far

PCO