Hallo zusammen.
Jeder mehr oder weniger fortgeschrittene Computer-Benutzer hat die Neigung, seine Festplatte(n) von Zeit zu Zeit zu de-fragmentieren, der Geschwindigkeit und besseren Raumausnutzung wegen.
Wie verhält es sich aber, wenn man eine Homepage mit vielen kleineren und größeren Dateien (HTML, GIFs, JPEGs) hochlädt, wieder löscht, ein Update hochlädt und auch dies irgendwann löscht, wieder eine neue Version hochlädt etc.pp. - geht dann auch irgendwann Kapazität oder Tempo verloren? Oder werden die Server von Zeit zu Zeit durch den Provider de-fragmentiert, z.B. im Zuge allgemeiner Wartungsarbeiten?
Danke im voraus für Eure Antworten.
CU
Olaf
Homepage selbermachen 7.851 Themen, 35.616 Beiträge
worüber diskutierst du eigentlich gerade? wovon reden wir hier? eben hattest du es noch von servern, jetztz fängst du wieder vom desktop an? liest du eigentlich selbst was du schreibst?
welche großfirmen kennst du denn? diene kleine druckerei? wo hast du denn schon reingeschnuppert? wieviel ahnung hast du von serversystemen? von consulting? welche systeme kennst du außer vielleicht windows2000 server? auch wenn es dich erschrecken mag, computer hören nicht bei nem dual P4 auf, nicht mal bei einem 32 prozessor x86 system, aber microsoft hört da auf. danach fangen die wirklichen großrechner an. warum läuft wohl der weltgrößte und schnellste rechner auf einem beowulfcluster (benütze google, bevor du wieder was durcheinanderschmeißt)? warum kann SUN seine rechner absetzen? warum beraten Anderson und andere consulter für viel geld, wenn dui doch so einfach die richtige betriebsystemstrategie kostenlos und pauschal abgeben kannst? (wir redeten nämlich die ganze zeit pber server, nicht über worksations oder desktop, also wirf anderen net vor nicht beim thema zu bleiben und sachen durcheinander zu werfen,. wenn du es selbst tust).
microsoft ist und bleibt im SoHo und unteren midrange bereich angesiedelt, alles was mit kritischen anwendungen und real time zu tun hat läuft unter unixen (und linux ist ein unix, auch wenn du 20 mal das gegenteil behauptest, lies dir die entstehungsgeschichte durch, vor allem bezüglich berkeley-unix). ibm gibt mittlerweile linux den vorzug vor einem eigenen aix. oracle bevorzugt linux als plattform für seine datenbank wegen der stabilität und geschwindigkeit. java-entwicklungsserver laufen zu 75% unter linux und der rest ist sun.
linux ist nicht immer die beste oder die richtige wahl, weil jedes server OS seine vor und nachteile hat, aber stabilität und skalierung ist bestimmt kein vorteil von Windows. clustering ist für windows immer noch eine harte prüfung, die allzu oft daneben geht.
und hier noch eine kleine anekdote aus der MS-Support abteilung. ich hatte mal das vergnügen bei daimler chrysler in der entwicklungsabteilung zu sein. einer der simulationsserver wollte einfach nicht laufen (microsoft, speziell angepasstes server OS)...die jungs von microsoft haben nach 2 wochen aufgeben müssen, heute laufen die simulationsserver bei daimler auf einem linux.
noch was...warum laufen im internet wohl die meisten server auf unix/linux? nicht die server die zuhause bei den leuten stehen mit dynDNS, sondern die großen router, die rootserver, die großen dns der provider (BIND), die mailserver, die proxys, die firewalls?
aus deiner argumentation lese ich mal heraus, daß für dich ein großrechner das ist, was vielleicht bei euch in der firma im serverraum rumsteht´und linux für dich die distri ist, die du vielleicht aus dem internet ziehst oder im laden kaufst...
linux ist aber mehr, nicht umsonst entwickeln HP, IBM, Redhat, Slackware, SuSE und zig andere speziell angepasste Linuxversionen für kunden genau zurechtgeschnitten.
noch was...wie blöd müssen denn die firmen sein, die sich IBM-server kaufen, oder Crays, oder SUn Blade oder ähnliche? auf jeden läuft ja das tolle, stabile und günstige windows garnicht? die könnten sich ja auch im mediamarkt nen rechner kaufen mit windows, der kann ja wohl das selbe, oder?
(mist, jetzt hab ich wirklich getrollt)