Hallo,
als Linux Neuling und zu-lange-Windoofs-Benutzer, wollte ich mal wissen, wie das mit Linux (Kubuntu 7.10) und dem Defragmentieren ist?
Linux 15.070 Themen, 107.540 Beiträge
Laut diesem Thread ist es angeblich gar nicht nötig...:
http://forum.ubuntuusers.de/topic/134753/?p=1088724#1088724
Oder auch hier:
http://wiki.ubuntuusers.de/Grundlagen#head-3235d138354c08c00410d5f2e5f2d16a7e9b4860
CU
Olaf
Ich nutze schon seit Jahren ext3 als Dateisystem.
Am meisten werden die Daten im /var Verzeichnis fragmentiert. Ich hatte bei einem Desktopsystem nach etwa 3 Jahren ungefähr 13 -14 % Fragmentierung der Daten. Unter Windows würde man eventuell die Daten defragmentieren, aber unter Linux kenne ich kein zuverlässiges Programm dafür.
Die anderen Partitionen lagen unter 10 % Fragmentierung.
/ Partition etwa 4 % Fragmentierung
/home Partition ungefähr 8 % Fragmentierung
Wenn man die Festplatte sinnvoll partitioniert, dann kann man auch die Fragmentierung etwas verbessern.
Die Fragmentierung geht bei einer sinnvollen Partitionierung nicht bis in die / Partition rein.
Ich erstelle bei einem Desktoprechner eine
/ Partition
/home Partition
/usr Partition
/var Partition
Die Größen der jeweiligen Partitionen sind Erfahrungswerte.
Bei Windows ist die Speicherung der Daten etwas veraltet. Windowssysteme wurden für kleine Rechner entwickelt. Unter Windows werden meist oder oft erstmal die Festplattenspuren vollgeschrieben , bevor eine neue Spur angefangen wird.
Unter Windows werden die Daten bei der Speicherung schon sehr stark fragmentiert, vor allem bei diesem FAT Dateisystem.
Unixsysteme wurden gleich für große Server entwickelt.
Microsoft's Windows mußte mit viel weniger Festplattenspeicher auskommen.
Meine Festplatte von meinem alten 386er PC war nur 170 Megabyte groß.
Ich bekamm von VOBIS ein DOS 6.0 und ein Windows 3.1 und leider kein Unix.
Windows ist irgendwie in der Entwicklung steckengeblieben.
Auch die Speicherverwaltung ist veraltet.
Der Linuxkernel kann 64 Gigabyte RAM verwalten, auch die 32 bit Version (4 GigaByte werden bei der 32 bit Version gemapped).
Windows XP 32 bit hat schon mit 3 GByte RAM Probleme.
Linux ist kein abgespecktes Desktopsystem wie Windows XP, sondern ein richtiges Serversystem (vor allem Debian ;-).
Es gibt auch bei Linux und Unixdateisystemen eine innere Fragmentierung die tritt aber wohl sehr langam auf.
Sie soll durch Umkopieren in ein neues leeres Dateisystem wieder rückgängig gemacht werden können.
Das ist bei professionellen Serven möglich, weil dort viele Partitionen eigene Festplatten haben.
Die Partitionen können duchaus verschiedene Dateisysteme haben. In einem Ubuntu Buch wurde eine
Kombination von Ext3 und XFS beschrieben.
Bei Unix -dateisystemen, Solaris zB gibt es noch Slicing. da werden die Partitonen logisch zu einem volume zusammengefasst. Es kann aber zu einem Überlaufen einzelner Slices führen.
Ist glaube ich etwas schwieriger zu handhaben als bei Linux. Wenn man es sich zutraut kann man es mit
Netbsd oder Freebsd mal probieren.
Ich bin mir nicht sicher ob Gentoo beide Methoden kann. Gentoo soll sogar auf SGI -rechnern laufen aber selbst
da wird das bewährte Ext3 funktionieren.
Für häusliches Linux dürfte die innere oder interne Fragmentierung nur eine untergeordnete Rolle spielen.
Interresant ist die Verwendung mehrerer Platten für Linux. Laut Debian und Suse Informationen ist eine deutliche Leistungssteigerung möglich.
Ich denke bei 14 % Fragmentierung lohnt sich eine Defragmentierung bei einem Desktoprechner noch nicht.
Die Defragmentierung entsteht hauptsächlich durch das Löschen oder Speichern bei den Daten.
Ich weiß nur das DOS sehr sparsam mit Festplattenspeicher umgehen mußte , weil die Festplatten früher nur sehr wenig Speicher hatten.
Damals wurde immer erst eine Festplattenspur vollgeschrieben ehe eine neue angefangen wurde.
Ein Slice ist ein Teil einer Festplatte , also eine Partition. Bei Linux werden die Verzeichnisse wie /usr , /home, /var u.s.w auf logische Partitionen gespeichert (logische Partitionen sind Partitionen in einer erweiterten Partition)
Bei FreeBSD unterteilt man eine primäre Partition in mehrere Subpartitionen. Also bei FreeBSD und auch bei Minix wird eine primäre Partition in weitere Partitionen unterteilt. Und in diese Subpartitionen werden dann die Verzeichnisse wie /usr, /var und /home abgespeichert.
Das muß bei Unixsystemen allgemein so üblich sein.
Man kann Linux von primären Parttionen starten oder von logischen, das ist egal.
Man kommt mit Partitionsprogrammen wie von Acronis oder QParted überhaupt nicht an diese Subpartitionen ran.
Ich finde, wie es bei Linux gemacht wird ist es besser. Bei Linux kann man auch mal eine Partition verschieben.
Bei Linux gibt es den LVM, den Logical Volume Manager. Damit kann man auch die Partitionen logisch zusammenführen.
Ich habe den LVM noch gar nicht genutzt.
> Dateisystem wieder rückgängig gemacht werden können.
"Soll" ist gut ;-) das funktoniert natürlich bei jedem Betriebssystem. Wenn du eine Datenmenge, und sei sie auch noch so hoffnungslos fragmentiert, in eine jungfräuliche Partition kopierst, dann ist sie dort automatisch" defragmentiert. Der Sinn von Defragmentierungs-Software besteht darin, dass das Defragmentieren einer Partition nicht so viel Zeit in Anspruch nimmt wie das Hin- und wieder Zurückkopieren einer größeren Datenmenge. Außerdem haben viele User gar keine andere Wahl, z.B. wenn nicht mehr ausreichend Festplattenplatz für den Datentransfer zur Verfügung steht. Wobei ich in solchen Fällen eher die Anschaffung einer zusätzlihen großen Platte bevorzugen würde...
CU
Olaf
Diese Probleme hat man nicht nur mit Windows, sondern auch mit proprietären Unixsystemen wie Solaris 10.
Man ist immer von dieser Softwarefirma abhängig. So wie es der Manager sagt, so wird es gemacht.
Bei einem freien Betriebsystemen haben die Anwender die Möglichkeit ihr eigenes Betriebsystem zu programmieren.
Microsoft würde niemals ein Unix für Privatanwender programmeren, weil irgendein Manager denkt oder sagt das es sich nicht verkaufen läßt.
Diesen Verkaufsdruck gibt es nicht bei Linux .
Und bei Solaris 10 könnte man auch noch ein paar Sachen verbessern ;-).
Aber versuche mal mit Sun Microsystems zu diskutieren.
Ich brauche keine Manager.
@Olaf19, war mir nicht sicher ob das Umkopieren bei Fat oder Ntfs auch ginge bei zu großer Fragmentirung
Hältst du - auch bei Windows die Unterteilung in mehrere Partitonen
für Sinnvoll.
Seit die Festplatten so groß sind mach ichs fast immer.
Ein Unix -lehrer bei einer Fortbildung -- ein alter Hase, hat die Empfehlung gegeben:
Eine Fat Partition für alle Fälle kann nicht schaden. Auch wenn man nur Linux oder Unix einsetzt.
Jepp. Auf'm USB-Stick. ;-)
Gruß
Rheinlaender
Da hatte der Unixlehrer keine Chance die USB -Sticks gab`s noch nicht.
Aber soo dämlich wie oft behauptet ist Fat und NTFS nun auch wieder nicht, und ohne interne Reparaturversuche
sogar recht stabil.
Wenn es überhaupt ein gutes Dateisystem gibt, dann das von BeOs. Hartes Ausschalten oder Kurzschlüsse lassen es kalt. Das dieses System bis auf Fehlversuche (BeOs Max3 --grauenhaft, Zeta --teuer) nicht mehr sinnvoll weiterentwickelt wird ist schade. Treiber hatten kilobyte wo Andere zig Megabyte brauchten.
Wenn, dann maximal zwei - eine fürs System, eine für die Daten. Eine eigene Partition für Programme wird zwar auch oft empfohlen - Vorteil: die Programme fragmentieren nicht so leicht, wenn sie ihr eigenes Revier haben statt sich mit auf der Systempartition zu tummeln - aber damit konnte ich mich nie so recht anfreunden. KISS - "keep it simple and smooth" - ist mir irgendwie lieber. Ordnung kann man auch mit Ordnern schaffen, dazu braucht man nicht so viele Partitionen. Bei einer reinen Daten- bzw. Backupplatte würde ich wahrscheinlich immer nur 1 Partition anlegen.
CU
Olaf
Hi Olaf,
Warum nur 2-Partitionen für Windows?
HD1:
P1 Standard C: 50Gb WinXP
P2 () 4 Gb Standard Swap für Linuxe auf HD2
P3 () 4 Gb Standard "", (reserve)
Erweiterte:..
P5 D: Vmware verschiedene OS, Spiele, MS-Office, eMail-Save
P6 E: Web-Server Host Laufwerk, Web-Anwendungen, Gemeinsame Dateien zum Hosten, VPN etc..
P7 F: Download, Acronis-Images, Treiber Save, Freigeschaltetes Temp zum Übertragen im Lan
HD2: (später dazu gekommen)
P1 Standard 40 Gb Ubuntu 6.01
P2 Standard 40 Gb ..kommt Ubuntu 7.10 drauf
P3 Standard 40 Gb .. kommt Mint drauf..
Erweitert:
P5 G: 4Gb Swap für WinXp
P6 H: 4Gb Temp für WinXp
P7 () 4Gb Swap für OS auf HD1 P2/P3, bzw reserve-Swap, falls HD1 abkackt..
P8 I: Fat32, damit alle was haben...
P9 K: NTFS mit 64K-Cluster für die Filmchen. .. *g*
P10 L: NTFS mit 32K-Cluster für Acronis-Images, und gemountete CD/DVD
...läuft gut, binn zu frieden, und habe die Möglichkeit, mal was zu probieren, ohne gleich alles schreddern zu müssen. ..
Das Defragmentieren nach längeren Win-Sitzungen, geht auch in sekundenschnelle, da ich nur das defragmentiere, wo es was zu defragmentieren gibt, und das sind idr. max. 2-Laufwerke.
Knallt mir es mal eine Partition, wird gerettet was geht, danach eine neue angelegt, und zurückgezogen. Der Verlust hält sich in Grenzen..
Greezli, Thomas
Du bist sicherlich nicht der einzige, der so viele Partitionen anlegt - gelesen habe ich das schon öfter. Es gibt auch Leute, die "gar nicht" partitonieren und auf der Systempartition neben System und Programmen auch noch sämtliche persönlichen Daten beherbergen. Also, um es ganz kurz zu machen: Mich überzeugen die Vorteile von der Aufsplitterei nicht. Ich halte es lieber "simple and stupid" und habe alle persönlichen Daten auf nur einer Partition, System und Programme auf einer weiteren - und that's it. Ich muss also nicht für jede Aufgabenstellung (temp und swap und drop und clop ;-) eine eigene Partition eingerichtet haben.
CU
Olaf
"so verschieden sind die Geschmäcker.."
Korrekt. Müssen tut das bestimmt nicht. Aber die Auslagerung und Themp auf einer 2. Platte zu haben, bringt schon Vorteile; in sachen Speed und Defragmentierung. Ersteres ist natürlich besonders wichtig, wenn man wenig Ram, und hungrige Anwendungen hat. .. 1Gb Ram, WinXP-Prof, und Linux in der Vm. Da dreht die Heizung schon ganz schön hoch. *g*
Wenn man mit Acronis sein System sichert, bietet sich das auch an. Wenn z.B. Win zu viel Bugs gebaut hat/was eingefangen hat, sind die Sicherungen (Ak.Image) nicht so groß, schneller wieder zurückgespielt. Die zuletzt gesavten Links, eMails Dokumente bleiben auch nach dem Zurückspielen erhalten. Besonders die OS in der VM. Es ist manchmal eine ziemlich langwierige Sache, ein OS in der VM einzurichten und zu konfigurieren. Mein Win hat mich nach einem Update von MS schon mal mit einem Blue hängen lassen, 10-Min später lief es wieder (Acronis), der gesamte Rest ist heile geblieben.
Diese sch*** Reparaturinstallation vermurxt oft gerade die Dinge/Einstellungen, welche den Fehler nicht verursachen, während die Bugs bleiben. .. (Ist halt Win..) :-)
Wenn man mehrere OS auch real verwenden will, kommt man um die Partitionierung 'e nicht rum, es sei denn, man kann sich mehrere Rechner, oder eine Wechsel-HD leisten.
Letzten endes kommt es aber natürlich auf die Anwendungen an die man mit dem Rechner machen will, und natürlich auf die Möglichkeiten die man dabei zur Verfügung hat.
Diesen PC habe ich seit Feb. 07 . Mein letzter vorher war (ist) ein P2 mit 333Mhz, und einer 80G Platte. Da liefen auch schon mehrere OS. Hauptsächlich um andere Oldies zu Supporten, Progs für Win95 für Win98 "fit zu machen", ..
Da lernt man zwangsläufig, aus Schei** Gold zu machen. .. Not macht erfinderisch. :-)
Jetzt kämpfe ich aber gerade damit, unter Ubuntu ein paar Foxy-Erweiterungen zu installieren. Aber das mit der Verzeichnishirarchie und den Zugriffsrechten werde ich wohl nie begreifen. Naja, 13-Jahre Win-Erfahrung gegen 5-6-Monate mit Linux, klar wo meine Stärken und Schwächen liegen. ..
Aber du bist doch 'e Mac User, oder? Wahrscheinlich wirst du dich hier dauernd krumm Lachen. .. *g* *duckundweck* ----->>
CU, Thomas
> Wahrscheinlich wirst du dich hier dauernd krumm Lachen...
1. Ja :-) Mac OS X 10.5 "Leopard" auf einem ollen PowerMac G5 mit IBM-Prozessor
2. Nein, durchaus nicht... wenn ich das alles zum Lachen fände, würde ich wahrscheinlich nicht versuchen, mich an Problemlösungen zu beteiligen.
Ehrlich gesagt, wie das am Mac mit der (De-)Fragmentierung abläuft, weiß ich nicht sicher. Es ist wohl eher so wie bei Linux, dass das System die Dateien so intelligent behandelt beim Abspeichern, dass eine Fragmentierung schon im Vorwege - zumindest weitgehend - vermieden wird. Eine eigene Defrag-Software für Mac OS wäre mir nicht bekannt, aber es ist wohl so, dass das Betriebssystem über sog. Cron-Jobs in regelmäßigen Abständen Defragmentierungen vornimmt, ohne dass der User davon etwas bemerkt.
Ich gebe jetzt in ganz groben Zügen wieder, was mir ein sehr erfahrener Mac-User vor 2 Jahren bei einem Mac-User-Treffen einmal erklärt hat ;-)
CU
Olaf
2. war mir kar, war nur Spaß... *g*
Wieviel Mhz/Ghz bringt eigentlich so ein PowerMac? Und Wieviel Ram steckt man da so rein?
Ich habe mit Commodore Amiga A600 gearbeitet, (was ich heute noch würde, wenns noch ginge..) und auf PC von DOS-5 -->IBM-OS2 --Win ab 3.1, naja, und damit mir nicht langweilig wird breche ich mir jetzt verzweifelt die Finger in der Linux-Console.
Wer weiß, was noch alles kommt... :-)
Mein PowerMac G5 Dual 2 GHz hat 2 CPUs mit Single Core und je 2 GHz, Speicher sind ab Werk magere 512 MB, ich habe gleich 2 Riegel à 1 GB nachgerüstet - also insgesamt 2,5 GB. Das ist heute fast schon allgemeiner Standard! Kein Wunder bei den Preisen, 2 GB bekommst du ja schon für rund 50 €, wenn es gute Qualität sein soll.
Mein G5 ist vom Sommer 2005 - im Herbst kamen noch ein letztes(!) Mal neue Modelle. Der Namensvetter meines G5 war kein "Dual-System" mehr, sondern nur noch mit 1 CPU ausgerüstet, die dafür aber mit DualCore und wiederum 2 GHz. Vorteil: Noch mehr Leistung bei weniger Stromverbrauch. Im Jahr drauf kam dann schon der Mac Pro mit 2x Intel Core 2 Duo.
Wie sagte jemand in meinem Bekanntenkreis einmal so schön und treffend: "Du kannst kaufen was du willst und wann du willst - du hast immer ein altes Gerät!" ;-)
CU
Olaf
