Hallo zusammen.
Jeder mehr oder weniger fortgeschrittene Computer-Benutzer hat die Neigung, seine Festplatte(n) von Zeit zu Zeit zu de-fragmentieren, der Geschwindigkeit und besseren Raumausnutzung wegen.
Wie verhält es sich aber, wenn man eine Homepage mit vielen kleineren und größeren Dateien (HTML, GIFs, JPEGs) hochlädt, wieder löscht, ein Update hochlädt und auch dies irgendwann löscht, wieder eine neue Version hochlädt etc.pp. - geht dann auch irgendwann Kapazität oder Tempo verloren? Oder werden die Server von Zeit zu Zeit durch den Provider de-fragmentiert, z.B. im Zuge allgemeiner Wartungsarbeiten?
Danke im voraus für Eure Antworten.
CU
Olaf
Homepage selbermachen 7.851 Themen, 35.616 Beiträge
Hach jetzt muß ich auch mal mitstänkern:
Wie bitteschön definierst Du Leistungsfähigkeit?
Jedes System ist nur so leistungsfähig wie derjenige der es administriert. Und wenn ich den ganzen Schulungsaufwand für Linux/Unix sehe, und auf einen globalen Pool von lauter "bösen "Microsoft-geschulten Admins zurückgreifen kann, ist die Effizienz plötzlich ganz anders.
Also: Nicht der Name des BS samt zugehörigem Kult ist wichtig, sondern die Einsatzfähigkeit, und vor allem die Kenntnis des Anwenders/Verwalters. Wer sich mit tUnix auskennt, wird damit gute Ergebnisse erreichen, wer sich mit MS auskennt, damit.
Und komm mir nicht mit schnellerem Dateisystem oder so, wir haben 2002, und jeder poplige Rechner mit jeder popligen Platte und jedem popligen Speicher hat genug Leistung um anfallende Daten zu verarbeiten. Ausser Du meinst natürlich Quantensimulationen oder so Spielchen, aber das dürfte hier kaum einen wirklich interessieren.
Und generell gilt: Der Fehler sitzt meist vor dem Monitor...