In diesem Thread:
http://www.nickles.de/static_cache/538591364.html
wurde das Problem der Defragmentierung angesprochen.
Und ich stellte fest - es gibt da Unklarheiten.
So defragmentiere ich regelmäßig und empfehle das auch - *Synthetic_codes* hingegen behauptet, es wäre überflüssig.
Einen Performance- Gewinn, wie so oft behauptet wird, habe ich tatsächlich noch nicht feststellen können.
Aber dafür andere nützliche Effekte. Die ich mal als reine Erfahrungswerte - ohne theoretische Begründung - nennen will:
- Ich habe zum Beispiel schon einigemale die Daten von Dateipartitionen wieder hergestellt, in die ein Image -im unbegründeten Vertrauen auf die Richtigkeit der Laufwerksanzeigen von Acronis- wieder hergestellt wurde.
(Acronis TrueImage zeigt nicht die gleichen Laufwerksbuchstaben an, wie sie unter XP dastehen)
Wurde diese Datenpartition zuvor defragmentiert, dann wurden Filme, mpeg usw auch in einem Stück gerettet - bei nicht defragmentierten Partitionen wurden diese Filme zwar auch restlos wieder hergestellt - aber in unverwendbaren Einzelteilen.
Das betrifft auch rar, iso und andere größere zusammenhängende Dateien.
- In nicht wenigen Fällen konnten Dateisystemfehler mit einer einfachen (space) Defragmentierung per O&O Defrag korrigiert werden.
Sehr viel nachhaltiger, als mit der Reparaturfunktion (Laufwerk > Eigenschaften > Extras > Jetzt prüfen > beide Häkchen rein) möglich war.
Und das betraf ausschließlich Dateisysteme, die nie defragmentiert wurden.
Das sind für mich die beiden Hauptgründe. Aber auch die Ausnutzung des Speicherplatzes sollte bedacht werden:
- Ich habe hier einmal etwas genau definiertes herausgepickt und dokumentiert.
Mittels des Cluster- Inspektors habe ich 2 nebeneinander liegende Blöcke aufgerufen.
Vor der Defragmentierung:
http://www.juekirs.de/Foren/nickles/def1.jpg
und unmittelbar daneben:
http://www.juekirs.de/Foren/nickles/def2.jpg
Nach der Defragmentierung:
http://www.juekirs.de/Foren/nickles/def3.jpg
http://www.juekirs.de/Foren/nickles/def4.jpg
Der leere Raum wurde aufgefüllt - keine Leerstellen mehr.
Hier mal eine Darstellung der Blöcke, wie sie O&O Defrag anbietet:
http://www.juekirs.de/Foren/nickles/def5.jpg
Schwarz - Logfile
Gelb - für MFT reserviert
Grün - in Benutzung befindliche MFT
Braun - pagefile.
Diese Dateien werden nicht berührt, nicht defragmentiert.
(Die in Benutzung befindlichen MFT auch als "fragmentiert" definiert, aber in Ruhe gelassen)
Blau - Dateien
Bei dieser Betrachtung lasse ich kleinkarierte (in meinen Augen, ja?) Betrachtungen über HDD- Lebensdauer mal außer Acht.
Es sollte mal wirklich nur um die Nützlichkeit oder Unsinnigkeit der Defragmentierung von NTFS- Systemen gehen, ok?
Ich würde mich über lehrreiche Kommentare zu diesem "Problem" sehr freuen.
Jürgen
Datenträger - Festplatten, SSDs, Speichersticks und -Karten, CD/ 19.540 Themen, 109.440 Beiträge
Ich denke, es macht für die Festplatte sehr wohl einen Unterschied, ob sie die Dateifragmente schön nebeneinander auslesen kann oder ob sie die sich über den ganzen Discs verteilt zusammensuchen muss.
Ausserdem dürfte das wohl sehr vom jeweiligen Szenario abhängen, ob sich ein defragmentiertes System auf die Performance auswirkt oder nicht!
Ich betreibe zum Bleistift zwei TV-Karten mit Powercinema. Es kommt bei mir recht häufig vor, dass beide TV-Karten gleichzeitig aufzeichnen (mpg-Format) wobei noch zusätzlich standartmässig für beide Karten Time-Shift aktiviert ist und ich parallel zu den Aufnahmen noch Filme anschaue, die auf der gleichen Platte liegen.
Bei zu starker Defragmentierung könnte ich mir schon vorstellen, dass dies die Leistungsgrenze des gleichzeitigen Lesens und Schreibens herabsetzen würde.
Gruss,
kds