Ich hab den virtuellen Speicher abgeschaltet, neu gebootet und defrag gestartet. Nach 30 sec hörte defrag auf und es kam einer meldung arbeitsspeicher reicht nicht. Danach wurde der compi zur schnecke und ich konnte grad so nach x versuchen den virtuellen Speicher wieder aktivieren. Ich hab 64 MB ram drinne und nen P166.
Wer kann mir helfen; was mach ich falsch?
Datenträger - Festplatten, SSDs, Speichersticks und -Karten, CD/ 19.578 Themen, 110.118 Beiträge
Hast es doch selber geschrieben - für das defragmentieren wird Speicherplatz gebraucht, weil fragmentierte Programmteile 'zwischengelagert' werden müssen. Dafür reicht dein RAM nicht aus.
Also Win wieder virtuellen Speicherplatz auf der Festplatte schenken.
Salut -a.
Ab wieviel Ram hab ich ne Chance die Auslagerungsdatei zu defragmentieren?
Kann man garnicht, weil sie von Windows dynamisch angelegt wird. Muß man auch nicht, wäre deshalb sinnlos.
Mehr Ram natürlich dennoch sinnvoll - mehr Ram - weniger Auslagerung -schneller.
Salut -a.
Das stimmt aber nun nicht. Überall wird empfohlen, aus der dynamischen Auslagerungsdatei eine statische zu machen, in dem man den min-Wert gleich dem max-Wert festsetzt. Es ist dann natürlich sinnvoll, eine defragmentierte Datei zu haben. Die Methode, die der Fragesteller anwendete ist richtig und sollte mit 64 MB Hauptspeicher im Normalfall sehr wohl gehen.
MfG
Das sind doch 2 paar Stiefel: Defragmentieren auf der einen und min=max auf der anderen Seite.
Win legt eine Auslagerungsdatei aus gutem Grund immer an (und ist keineswegs so doof, wie oft behauptet).
Ich habe jetzt 3 Möglichkeiten:
1) Disable - nicht zu empfehlen
2) dynamisch
3) "statisch".
2 und 3 haben beide Argumente für und gegen. Wenn ich viel in unterschiedlichen Bereichen arbeite (Text, Grafik, AV), empfiehlt sich eine dynamische: Weil manchmal sehr viel Platz gebraucht wird. Da es sich aber um eine virtuell angelegte Datei handelt, ist defragmentieren überhaupt nicht möglich.
Wenn ich vorwiegend nur eine Tätigkeit mache und auch noch weiß, wieviel Speicher sie braucht, kann ich dessen Größe festlegen. Ich habe aber noch keinen User getroffen, der mir diese Frage beantworten konnte. Deshalb ist dieses Modell ziemlich theoretisch und diejenigen, die es empfehlen (ich weiß, du hast recht, sind viele), sind ziemliche Theoretiker.
Bleibt die dynamische Verwaltung.
Die Microsoft zu Recht empfiehlt. Ein klein wenig weiß man auch in Redmont von Computern - auch wenn die deutschen Computer-Schrifsteller natürlich viel klüger sind.....
So sehe ich die Geschichte. danke für dein sachliches Posting.
-a.
Hallo, nein es sind eben nicht 2 paar Stiefel: Wenn man sich dafür entscheidet, eine statische Auslagerungsdatei anzulegen, dann ist es eben wichtig, den Bereich, wo sie entstehen soll, vorher zu defragmentieren. Und das geht unter Windows eben nur so, in dem man vor dem Defragmentiervorgang den virtuellen Speicher disable setzt, damit Windows die Platte komplett formatiert, was ansonsten nicht der Fall ist (hier wird ein Bereich gesperrt; welcher auch immer). Danach gilt es, so schnell wie möglich Die min-max-Werte festzulegen, damit der Auslagerungsbereich möglichst unfragmentiert ist. Zusammenhang klar?
Für mich ist die Sache mit min max logisch, ein benchmarker bin ich allerdings nicht. Wenn windows eine Datei ständig dynmamisch anlegt, geht erstens Zeit verloren und zweitens ist klar, daß dieser Bereich/Datei je fragmentierter die Platte ist, ebenso fragmentiert wird, hier also wieder Zeit d'raufgeht...
MfG
Jein - aber so nebenbei, ein guter Dialog - wenn statisch, dann möglichst am Stück. Da hast du recht, zugegeben.
Nur habe ich auch dargelegt, was für dynamischen Raum spricht, und darauf bist du nicht eingegangen.
Festplatten werden bei Usern, die auch nur halbwegs eine Ahnung haben, regelmäßig defragmentiert. Dynamischer Speicherraum bringt bei üblicher Plattenpflege deshalb keine Nachteile (welche denn??), aber eine Menge Vorteile - und die habe ich genannt. Seite Einrichtung geschieht übrigens, wie auch bei einem festgelegten Größenrahmen, beim Start, kostet also keine zustätzliche Zeit.
Beim defragmentieren gibt es allerdings ein generelles Proble, das die meisten nicht beachten: Große Teile der Platte werden garnicht defragmentiert. Das fängt mit den schreibgeschützten an...
Und so bewegt sich diese ganze Diskussion im Promille-Bereich. Da sitzt einer 4 Stunden vor dem Computer und spielt. Und macht sich Gedanken, wo er Sekunden gewinnen oder verlieren könnte. Das wäre ein schönes Feuilleton wert...
Hast du eigentlich einen Account hier bei Nickles - glaube, ich hab mal vergeblich geschaut. Finds immer schön, so ungefähr zu wissen, mit wem man redet.
Salut -a.
Ich glaub mit deinem P166 kannste nicht mehr viel zur schnecke machen oder?! ggghhhhhhmmmmpppffff!!!
Ich habe einen Athlon 600 und 128MB bei geht das ich deaktiviere die Auslagerungsdatai und dann neustart und einfach defragmentieren.
Eigentlich ist Deine Methode richtig, warum die Meldung mit dem Arbeitsspeicher kommt, kann ich mir nicht erklären, eventuell ist sie sachlich nicht richtig. Versuche doch die gleiche Angelegenheit noch einmal, und beende/deaktiviere aber vorher unbedingt alle im Hintergrund unnötig laufende Programme (z.B. Virenscanner, plextools etc.) sowie Bildschirmschoner und Powermanagement. Ich habe mal gehört, daß das MS-Defragmentierungsprogramm sehr empfindlich sein kann auf sowas.
Eine noch bessere Form der Defragmentierung der Auslagerungsdatei bietet z.B. das Norton speed disk. Bei diesem wird eine schon vorhandene (also von Dir vorher festgelegte) Auslagerungsdatei in der Art optimiert/defragmentiert, daß sie genau auf den äußersten Bereich der Platte gebracht wird, auf dem die Geschwindigkeit am größten ist. Außerdem ist das Programm m.E. wesentlich schneller. Es ist in den Norton Utilitis enthalten, welche für Win 95/98 ab der Version 4.0 brauchbar sind. Selbige bekommt man manchmal für Spotpreise, eventuell im Mediamarkt.
MfG