Datenträger - Festplatten, SSDs, Speichersticks und -Karten, CD/ 19.578 Themen, 110.118 Beiträge

Defragmentierung von NTFS- Systemen

jueki / 13 Antworten / Baumansicht Nickles

In diesem Thread:
http://www.nickles.de/static_cache/538591364.html
wurde das Problem der Defragmentierung angesprochen.
Und ich stellte fest - es gibt da Unklarheiten.
So defragmentiere ich regelmäßig und empfehle das auch - *Synthetic_codes* hingegen behauptet, es wäre überflüssig.
Einen Performance- Gewinn, wie so oft behauptet wird, habe ich tatsächlich noch nicht feststellen können.
Aber dafür andere nützliche Effekte. Die ich mal als reine Erfahrungswerte - ohne theoretische Begründung - nennen will:

- Ich habe zum Beispiel schon einigemale die Daten von Dateipartitionen wieder hergestellt, in die ein Image -im unbegründeten Vertrauen auf die Richtigkeit der Laufwerksanzeigen von Acronis- wieder hergestellt wurde.
(Acronis TrueImage zeigt nicht die gleichen Laufwerksbuchstaben an, wie sie unter XP dastehen)
Wurde diese Datenpartition zuvor defragmentiert, dann wurden Filme, mpeg usw auch in einem Stück gerettet - bei nicht defragmentierten Partitionen wurden diese Filme zwar auch restlos wieder hergestellt - aber in unverwendbaren Einzelteilen.
Das betrifft auch rar, iso und andere größere zusammenhängende Dateien.

- In nicht wenigen Fällen konnten Dateisystemfehler mit einer einfachen (space) Defragmentierung per O&O Defrag korrigiert werden.
Sehr viel nachhaltiger, als mit der Reparaturfunktion (Laufwerk > Eigenschaften > Extras > Jetzt prüfen > beide Häkchen rein) möglich war.
Und das betraf ausschließlich Dateisysteme, die nie defragmentiert wurden.

Das sind für mich die beiden Hauptgründe. Aber auch die Ausnutzung des Speicherplatzes sollte bedacht werden:

- Ich habe hier einmal etwas genau definiertes herausgepickt und dokumentiert.
Mittels des Cluster- Inspektors habe ich 2 nebeneinander liegende Blöcke aufgerufen.
Vor der Defragmentierung:

http://www.juekirs.de/Foren/nickles/def1.jpg

und unmittelbar daneben:

http://www.juekirs.de/Foren/nickles/def2.jpg

Nach der Defragmentierung:

http://www.juekirs.de/Foren/nickles/def3.jpg

http://www.juekirs.de/Foren/nickles/def4.jpg

Der leere Raum wurde aufgefüllt - keine Leerstellen mehr.
Hier mal eine Darstellung der Blöcke, wie sie O&O Defrag anbietet:

http://www.juekirs.de/Foren/nickles/def5.jpg

Schwarz - Logfile
Gelb - für MFT reserviert
Grün - in Benutzung befindliche MFT
Braun - pagefile.
Diese Dateien werden nicht berührt, nicht defragmentiert.
(Die in Benutzung befindlichen MFT auch als "fragmentiert" definiert, aber in Ruhe gelassen)
Blau - Dateien

Bei dieser Betrachtung lasse ich kleinkarierte (in meinen Augen, ja?) Betrachtungen über HDD- Lebensdauer mal außer Acht.
Es sollte mal wirklich nur um die Nützlichkeit oder Unsinnigkeit der Defragmentierung von NTFS- Systemen gehen, ok?
Ich würde mich über lehrreiche Kommentare zu diesem "Problem" sehr freuen.

Jürgen

- Nichts ist schwerer und nichts erfordert mehr Charakter, als sich im offenem Gegensatz zu seiner Zeit zu befinden und laut zu sagen "NEIN!" Kurt Tucholsky
bei Antwort benachrichtigen
peterson jueki „Defragmentierung von NTFS- Systemen“
Optionen

Ich habe bei meinen Festplatten noch nie Dateisystemfehler feststellen können. Wo kommen die bei Dir her?

Eine Performancesteigerung wirst Du auch nicht feststellen.
Die liegen sicher im Millisekundenbereich.

Leerstellen brauchen tatsächlich nicht aufgefüllt zu werden. Das hat mit Fragmentation nichts zu tun.

Wenn Du von True Image was zurückspielst, dann werden die Daten ordentlich defragmentiert abgelegt. In meinem Defrag-Programm kann ich einstellen, daß riesige Dateien ans Ende der Platte verlegt werden.
Wenn ich ein Image zurückspiele, ist dieses Zeugs wieder vorne mit drin.

bei Antwort benachrichtigen
Synthetic_codes jueki „Defragmentierung von NTFS- Systemen“
Optionen
Bei dieser Betrachtung lasse ich kleinkarierte (in meinen Augen, ja?) Betrachtungen über HDD- Lebensdauer mal außer Acht.

Gerade das ist aber ein aufkommender Fakt. Auf dauer werden SSDs die herkömmlichen Platten die mit GiantMagnetoResistive Recording arbeiten ablösen. damit hast du dann eine SSD, deren Lebenszyklen mit jeder defragmentierung kürzer werden. Um den Effekt zu verdeutlichen habe ich unter Debian Lenny eine Virtuelle maschine mit vmware erstellt und deren Disk-Image auf eine debugfs-Partition gelegt. Debugfs bietet die möglichkeit eines inkrementellen logs, was wiederum bedeutet, dass man veränderungen am Dateisystem, zugriffe auf die einzelnen sektoren etc mitloggen und auswerten kann. Dann habe ich in der VM Xp-SP2 auf eine NTFS-Partition mit 5 GB installiert. Schlussendlich habe ich mit einem kleinen bash-script 500 Dateien variabler grösse aus /dev/urandom geholt, diese in die vm kopiert. dann davon die hälfte gelöscht, und weitere 250 aus urandom geleierte files reingeschoben. man könnte meinen dass das für eine anständige fragmentierung reicht oder?

Daraufhin habe ich smartdefrag laufen lassen. Das tool benötigte für die 5GB ca 20 minuten. das debugfs Log wies daraufhin eine durchschnittliche Schreibzugriffszahl je sektor von 17 aus. was bedeutet dass einmal defragmentieren auf einer SSD 17 Schreibzyklen verbrauchen würde, was bei derzeit afaik 5Millionen garantierten Schreibzyklen je Sektor8Ich glaube es sind 5kk, bin mir aber nicht sicher wie weit die technik atm ist) pro defragmentierungsvorgang 0,0000034% der lebensdauer verkürzt werden. Gerade im Privaten umfeld habe ich es an einigen PCs gesehen, dass hier gerne mal der Defragmentierer in den Task-Manager gehauen wird und dann täglich läuft. Klingt jetzt nach kinkerlitzchen, aber im jahr macht das konkret 0,1241% der SSD aus. Da ich an meinem Notebook eine CF-Karte über PCMCIA als Festplatte für das system betreibe, welche ein WearLevelingLog anlegt, kann ich weiter gehen, und konkrete daten für den normalverbrauch einer SSD angeben. Bei meiner CF sind dies im Mittel je Sektor 270.000 Schreibzugriffe.

Daraus ergibt sich bei einer MTBF von 5kk eine Lebensdauer der SSD um 18 Jahre mit defragmentieren,
eine Lebensdauer von 19Jahren ohne Defragmentieren.

Die meisten werden jetzt sagen WTF, das eine Jahr, allerdings sind hier ja nur mittelwerte angegeben, und durch das eingebaute Wear-Leveling von SSDs verkürzt sich die Zeit bis zum ersten ausfall mitunter bis auf ein Jahr, allein durch defragmentieren
'); DROP TABLE users;--
bei Antwort benachrichtigen
peterson Synthetic_codes „ Gerade das ist aber ein aufkommender Fakt. Auf dauer werden SSDs die...“
Optionen
Daraus ergibt sich bei einer MTBF von 5kk eine Lebensdauer der SSD um 18 Jahre mit defragmentieren, eine Lebensdauer von 19Jahren ohne Defragmentieren.

Eine Platte besteht aus mehr Teilen, als nur die Datenscheibe.
Der Rest geht viel eher kaputt zB. die Mechanik oder Motor.
Eine durchschnittliche Lebensdauer sind 5 Jahre.

In der Zeit brauchst Du sowieso ne neue, weil die alte zu klein ist.
bei Antwort benachrichtigen
Synthetic_codes peterson „ Eine Platte besteht aus mehr Teilen, als nur die Datenscheibe. Der Rest geht...“
Optionen

ich rede von einer SSD, die hat keine Motoren, keine mechanischen teile, und somit wird sie erst sterben, wenn oxidation die Quantensubtunnelung in den Flashzellen unmöglich macht

'); DROP TABLE users;--
bei Antwort benachrichtigen
jueki Synthetic_codes „ Gerade das ist aber ein aufkommender Fakt. Auf dauer werden SSDs die...“
Optionen

Du mißt der Lebensdauer die größte Bedeutung zu, gut. Ich bin nun der Meinung, das das zwar nicht unwichtig ist - allerdings für mich (und den Bereich, den ich betreue) - nicht das Entscheidende.
Ich habe noch nie eine Festplatte bis ans Ende ihrer Lebensdauer benutzt, da gab es immer welche, die schneller, größer - oder auch nur anders waren.
Und - wieder rein praktisch - beim Defragmentieren wird der Vorgang einmal durchgeführt.
Beim Arbeiten mit fragmentierten Dateien aber in einem fort. Oder sehe ich da etwas falsch?
Zu den von mir aufgeführten persönlichen Erfahrungen mit Datensicherheit und Datenrettung hast Du allerdings noch keine Ausage gemacht. Und gerade das betrachte ich als einigermaßen wichtig.

@peterson -
"Ich habe bei meinen Festplatten noch nie Dateisystemfehler feststellen können. Wo kommen die bei Dir her?"
Ich habe nicht gesagt, das sich meine Erfahrungen nur auf meine eigenen PCs beziehen.
Im Gegenteil - ich schiebe es auf die von mir regelmäßig praktizierte Defragmentierung mit O&O Defrag, das bei mir so etwas so gut wie nie vorkommt.
Dateisystemfehler habe ich fast ausschließlich auf PCs beobachtet, die nie oder selten defragmentiert wurden und -laut O&O- Fragmentierungen >30% aufwiesen.

Ist es möglich, konkret zu diesen von mir geschilderten Erfahrungen noch etwas zu sagen?

Jürgen

- Nichts ist schwerer und nichts erfordert mehr Charakter, als sich im offenem Gegensatz zu seiner Zeit zu befinden und laut zu sagen "NEIN!" Kurt Tucholsky
bei Antwort benachrichtigen
kds jueki „Du mißt der Lebensdauer die größte Bedeutung zu, gut. Ich bin nun der...“
Optionen

Ich denke, es macht für die Festplatte sehr wohl einen Unterschied, ob sie die Dateifragmente schön nebeneinander auslesen kann oder ob sie die sich über den ganzen Discs verteilt zusammensuchen muss.

Ausserdem dürfte das wohl sehr vom jeweiligen Szenario abhängen, ob sich ein defragmentiertes System auf die Performance auswirkt oder nicht!

Ich betreibe zum Bleistift zwei TV-Karten mit Powercinema. Es kommt bei mir recht häufig vor, dass beide TV-Karten gleichzeitig aufzeichnen (mpg-Format) wobei noch zusätzlich standartmässig für beide Karten Time-Shift aktiviert ist und ich parallel zu den Aufnahmen noch Filme anschaue, die auf der gleichen Platte liegen.

Bei zu starker Defragmentierung könnte ich mir schon vorstellen, dass dies die Leistungsgrenze des gleichzeitigen Lesens und Schreibens herabsetzen würde.

Gruss,
kds

bei Antwort benachrichtigen
Synthetic_codes kds „Ich denke, es macht für die Festplatte sehr wohl einen Unterschied, ob sie die...“
Optionen

öhm... also die schwachbrünstigste meiner platten schaufelt overall minimum 90mb daten. Das reicht praxisgemäss für einen kompletten Transponderdump via DVB-S ohne probleme.

Bei zu starker Defragmentierung könnte ich mir schon vorstellen, dass dies die Leistungsgrenze des gleichzeitigen Lesens und Schreibens herabsetzen würde.

tut sie auch, allerdings im einstelligen millisekundenbereich, weswegen das Defragmentieren hier keine Vorteile bringt. Ums in zahlen zu bringen, einmal defragmentieren kostet mehr strom, als der performanceverlust durch nichtdefragmentieren über die gesamte lebensdauer der platte kostet. Da die unterschiede extrem gering sind, merkst du als anwender keinen unterschied

'); DROP TABLE users;--
bei Antwort benachrichtigen
jueki Nachtrag zu: „Defragmentierung von NTFS- Systemen“
Optionen

Ich möchte mich erst einmal für Eure Teilnahme, Eure Antworten bedanken.
Ich hatte, ehrlich gesagt, da allerdings mehr Meinungen dazu erwartet.
Das Ergebnis hier kann man eigentlich so zusammenfassen, das gegen die Defragmentierung eigentlich nur die beschriebene Verkürzung der Lebensdauer spricht. Wobei mir das auch nicht hundertpro klar ist - denn
"beim Defragmentieren wird der Vorgang einmal durchgeführt.
Beim Arbeiten mit fragmentierten Dateien aber in einem fort
".
Ich konnte hier - und in anderen Internet- Quellen nicht einen wirklich konkreten Hinweis finden, der die Defragmentierung ad absurdum führt - wie es zum beispiel bei der "Registry- Reinigung" der Fall war.
Werde also weiter defragmentieren und das auch empfehlen.

Jürgen

- Nichts ist schwerer und nichts erfordert mehr Charakter, als sich im offenem Gegensatz zu seiner Zeit zu befinden und laut zu sagen "NEIN!" Kurt Tucholsky
bei Antwort benachrichtigen
peterson jueki „Ich möchte mich erst einmal für Eure Teilnahme, Eure Antworten bedanken. Ich...“
Optionen

Beim Arbeiten kommt es drauf an, ob man nur liest oder auch schreibt.

Beim Arbeiten liest der Rechner die Dateien ein, egal wo die Cluster liegen. Beim Zurückschreiben packt er sie da hin, wi gerade Platz ist.

Das betrifft aber nur die Dateien, mit denen er arbeitet.
Beim Defragmentieren dauert es viel länger, weil er ja ALLE Fragmente verlegt.


Ist doch ganz einfach.
Was dauert länger, eine Datei zu speichern oder eine Festplatte zu defragmentieren?

bei Antwort benachrichtigen
Synthetic_codes jueki „Ich möchte mich erst einmal für Eure Teilnahme, Eure Antworten bedanken. Ich...“
Optionen
das gegen die Defragmentierung eigentlich nur die beschriebene Verkürzung der Lebensdauer spricht.

Stichhaltige Punkte Pro Defrag hats aber auch noch nicht gegeben. Übrigens ist mir beim nachgrübeln noch ein Contra gekommen, welches zwar(hoffentlich) mittlerweile nicht mehr aktuell ist, aber es mal eine zeit lang zumindest war:

Unter umständen kann es nämlich vorkommen, wenn windows Organisatorische Vorgänge am laufwerk vornimmt, während dieses Defragmentiert wird, dass der verfügbare freie Speicher nach dem Defrag nicht korrekt angezeigt werden kann. Zugriffe mit dem Windows Explorer benötigen dann Ewigkeiten^^
'); DROP TABLE users;--
bei Antwort benachrichtigen
jueki Synthetic_codes „ Stichhaltige Punkte Pro Defrag hats aber auch noch nicht gegeben. Übrigens ist...“
Optionen
"Stichhaltige Punkte Pro Defrag hats aber auch noch nicht gegeben"

Doch, schon - jedenfalls für mich.
Und zwar ist mir die von mir (und nicht nur von mir!) beobachtete Datensicherheit sehr wichtig.
Oft genug lese ich in Foren bei Fragen nach Dateisystemfehler den Hinweis, erst einmal sauber zu defragmentieren. Und das half...
Wie ich schon nicht nur einmal erlebte, konnte ich trotz chkdsk immer wiederkehrende Dateisystemfehler mit O&O Defrag (was anderes benutze ich nicht) eliminieren.
Gut, so etwas zum Zwecke der Datensicherheit wird auf dem eigenen, gepflegten und optimal eingerichteten PC kaum nötig sein.
Aber für den User, der der sich den Deibel um Grundlagen schert -schließlich ist man in guter, reichlicher Gesellschaft, wenn man sein Unwissen mit Gezeter auf Microsoft kaschiert- ist es eine recht gute Empfehlung.
Ja, und auch die Datenwiederherstellung ist eben nicht zu unterschätzen.
Bei mir ist es nun schon 5 Jahre her, das ich eine Partition ins Nirwana befördert hatte (damals mit dem unsäglichen PM8) - aber in meinem Dunstkreis werde ab und an damit konfrontiert.
Und da ist es ganz konkret sehr viel einfacher und effektiver, Daten einer erst kürzlich defragmentierten Partition zu retten. Also komplett und sofort verwendbar zu retten.
Bei nie defragmentierten (größeren!) Daten geht diese Wahrscheinlichkeit mehr gegen Null.

Nun gut.
Ich habe diesen Thread (nicht nur in diesem Forum) gestartet, weil ich Deine früheren Aussagen so verstand, das es bei NTFS überhaupt keine Fragmentierung möglich sei - das hab ich eben falsch verstanden.
Was übrig bleibt, ist eben eine Frage der Gewichtung.-
Fast eine Glaubensfrage.
Ich wichte die Lebensdauer (bzw. die Minderung selbiger durch Defrag) sehr viel geringer, als die Datensicherheit.
Den von Dir eben noch angesprochenen Effekt "...Organisatorische Vorgänge am laufwerk vornimmt, während dieses Defragmentiert wird" kenne ich nicht, trat bei mir noch nie auf (obwohl ich meistens normal während des Defragmentierens weiter arbeite) und ich habe da auch noch nichts davon vernommen.
Gut, wenn es keine weiteren Argumente gibt, werde ich das Thema als"beantwortet" markieren.
Vielen Dank für die sachliche Mitarbeit!

Jürgen
- Nichts ist schwerer und nichts erfordert mehr Charakter, als sich im offenem Gegensatz zu seiner Zeit zu befinden und laut zu sagen "NEIN!" Kurt Tucholsky
bei Antwort benachrichtigen
peterson jueki „ Stichhaltige Punkte Pro Defrag hats aber auch noch nicht gegeben Doch, schon -...“
Optionen

Diese Fehler hatte ich des öfteren, als ich noch mit Windows98SE unterwegs war.
Die Ursache lage wohl darin begründet, daß neuere Festplatten zu schnell waren.

Beim Runterfahren oder wie auch immer wurde der Cache nicht schnell genug zurückgespeichert und beim Neustart hat er erstmal gemault.
Bei Win98SE gabe es dafür aber auch Einstellmöglichkeiten.

Mit XP ist mir das noch nicht untergekommen.

bei Antwort benachrichtigen
jueki Nachtrag zu: „Defragmentierung von NTFS- Systemen“
Optionen

Übrigens, zur Information:
Ich wollte O&O Defrag v11.6 auf Win7 installieren - das wurde verhindert.
Soeben traf die Antwort auf meine diesbezügliche Anfrage an den Support ein:

Sehr geehrter Herr,
vielen Dank für Ihre Anfrage. O&O Defrag 11 ist nicht kompatibel mit Windows 7. Es kann daher zu schwerwiegenden Problemen führen wenn O&O Defrag 11 unter Windows 7 ausgeführt wird. Aus diesem Grunde wurde mit O&O Defrag 11.6 eine Installation auf Windows 7 unterbunden. Inwiefern die Kompatibilität mit Windows 7 durch ein Update oder über die nächste Version bereitgestellt werden wird, ist noch nicht abschließend entschieden.


V11.0 ließ sich sauber installieren - erzeugt aber anscheinend Probleme.
Ich habe zwar noch nichts bemerkt, werde O&O dort aber sogleich wieder entfernen.

Jürgen

- Nichts ist schwerer und nichts erfordert mehr Charakter, als sich im offenem Gegensatz zu seiner Zeit zu befinden und laut zu sagen "NEIN!" Kurt Tucholsky
bei Antwort benachrichtigen