Homepage selbermachen 7.851 Themen, 35.616 Beiträge

Fragmentierung von Webspace?

Olaf19 / 32 Antworten / Flachansicht Nickles

Hallo zusammen.

Jeder mehr oder weniger fortgeschrittene Computer-Benutzer hat die Neigung, seine Festplatte(n) von Zeit zu Zeit zu de-fragmentieren, der Geschwindigkeit und besseren Raumausnutzung wegen.

Wie verhält es sich aber, wenn man eine Homepage mit vielen kleineren und größeren Dateien (HTML, GIFs, JPEGs) hochlädt, wieder löscht, ein Update hochlädt und auch dies irgendwann löscht, wieder eine neue Version hochlädt etc.pp. - geht dann auch irgendwann Kapazität oder Tempo verloren? Oder werden die Server von Zeit zu Zeit durch den Provider de-fragmentiert, z.B. im Zuge allgemeiner Wartungsarbeiten?

Danke im voraus für Eure Antworten.

CU
Olaf

Die Welt ist ein Jammertal ohne Musik. Doch zum Glueck gab es Bach, Beethoven, Haendel und Goethe (Helge Schneider)
bei Antwort benachrichtigen
@Zaphod und Heinz Olaf19
@Zaphod und Heinz xafford
Heinz_Malcher Olaf19 „Fragmentierung von Webspace?“
Optionen

Erde an Zaphod und Xafford, Erde an Xafford und Zaphod, kommt mal zurück in die Wirtschaft....

ich habe bereits Ausfallsituationen in verschiedenen Situationen mitbekommen...beide setzten sowohl Linux als auch NT ein. SOrry, aber das ist ja nun wirklich lächerlich: Keine Firma dieser Welt mit 4000 Mitarbeitern und weltweitem Export kann sich darauf verlassen, dass irgendwann mal jemand per Usenet einen Tipp für ein wirklich verstricktes Problem liefert, jede Sekunde Ausfall kostet Geld

Falls ich mich nicht wirklich klar ausgedrückt habe, aber ich denke das habe ich !!!

Es geht hier a) nicht darum, dass dann eben mal die Rechner für ne Stunde still stehen, sondern darum, dass ein Verantwortlicher Geholt werden muss, der das Problem zu lösen hat, wenn er das nicht kann, für den Schaden aufzukommen hat

Beispielsweise wurde bei einer Firma, in der ich Bis Anfang 2002 gearbeitet hatte, gleich die Anwälte informiert, wenn auch nur ein STOP Fehler auftrat, und die Server für 15 min still standen.
Es geht nicht darum, dass man sich mal eben gegen die MS Welt auflehnen will, sondern einfach darum, aber das können anscheinend, wie ich immer wieder in diversen Diskussionen feststellen muss, weder sogenannten Theorie Analytiker und oftmals auch Studenten, die noch nie einen Betrieb von innen gesehen haben, nicht verstehen.

Heutzutage ist das eben so, dass man Verantwortliche braucht und das lässt sich eben mal eine mittelständische bis grosse Firma etwa kosten. Übrigens ist Linux wesentilch teurer, berechnet man den Ausfall eines Servers, ohne dass hier jemand zur Verantwortung gezogen werden kann.

NT und 2000 sind sehr stabil, ist eben alles eine Frage der Einstellung

@Xafford: Ist doch logisch STatistiken nehmen alle Freespace Server etc mit rein, dass die sich keine MS leisten können ist doch klar, haut man eben mal Linux drauf, ist doch egal, denn der Kunde der Space für lau bekommt hat auch keinen Anspruch auf Qualität.

Aber das sieht meist in einer Firma etwas anders aus.

bei Antwort benachrichtigen
Dein Denkfehler ... Zaphod
Schlußwort von mir Olaf19