Hallo,
Ich hatte noch einige alte Desktop-Gehäuse rumstehen,
die sind noch "richig stabil" und ich wollte sie nicht wegwerfen.
Sie sollten entkernt und zu Büro-PCs umgebaut werden.
Also habe ich mir testweise folgendes gekauft:
1x ECS A740GM-M, AM2+, mATX
1x AMD Athlon II X3 400e
1x Netzteil be quiet! SFX Power BQT SFX 300W
1x SSD Corsair Nova 64GB SSD
1x FANTEC MR-35SATA-A silber 8,9 cm (3,5)SATA Wechselrahmen
2 GB DDR2 RAM hatte ich noch da
o.k. ist kein 100 € PC geworden, nur ein 300 € PC.
Das ganze wurde in das Desktop-Gehäuse gebaut.
Vor das Netzteil habe ich noch einen Luftkanal gebaut,
damit das Netzteil möglichst die warme Luft von oben
anzieht und aus dem Gehäuse bläst.
http://250kb.de/u/101014/j/yJs1buwTnwzj.JPG
Installiert wurde Windows XP. Und K10Stat zur
Optimierung des Energieverbrauchs des Prozessors.
Der Rechner braucht im Idle-Mode nur 34 Watt.
http://250kb.de/u/101014/j/P6FSNQ5ScFeC.JPG
Unter Volllast 67 Watt. Das sind schon mal keine
schlechten Werte. Und er ist dank der SSD sehr schnell.
Dieser komische blaue Balken von Windows wandert einmal
über den Bildschirm, dann ist das Windows mit dem
Booten fertig. Dank des SATA-Wechselrahmens kann man
schnell Backups erstellen oder zusätzlich Speicher
ankoppeln. So stelle ich mir heute einen Büro-PC vor.
Gruss
ChrE
PC-Selbstbau, Reparatur, Optimierung 11.459 Themen, 79.627 Beiträge
Für einen simplen Büro-Pc, der nur schreiben und drucken und im Internet surfen kann, viel zu teuer, die Energiewerte sind natürlich gut!
MfG
Erwin
Naja, allein die SSD verschlingt schon rund 40% des Gesamt-Budgets ;-) Wer das nicht braucht - und das dürfte auf einige Büroanwender zutreffen - der kommt noch einmal deutlich > 100 EUR günstiger weg.
CU
Olaf
Hallo,
Auch ein Büroanwender freut sich, wenn der PC schnell bootet.
Oder wenn Webseiten im Firefox blitzartig aufgebaut werden.
> Wer das nicht braucht - und das dürfte auf einige Büroanwender zutreffen - der kommt noch einmal
> deutlich > 100 EUR günstiger weg.
Nur um auf Krampf noch mal 100 € zu sparen? Der PC soll ja eine Weile
halten. Wenn man die 100 € auf die Dauer der Nutzung umrechnet, kommt
ein sehr kleiner Betrag heraus, den man mehr ausgibt.
Die SSD hat 110 € gekostet. Eine normale Platte kostet auch 40-50 €.
Also habe ich nur 50-60 € mehr bezahlt.
Muss denn ein Büro-PC immer aus den absolut billigsten Komponenten bestehen?
Solche Werte wie Lärmentwicklung und Stromverbraucht zählen wohl gar nichts?
Wie viele PCs von z.B. Dell habe ich schon im Büro rumstehen gesehen.
Und die kosten bestimmt das Doppelte in der Anschaffung. Drinnen werkelt dann ein Pentium
mit 2-3 GHz und verbrät auch das doppelte oder dreifache an Strom. Mit 250 GB Platten,
von denen gerade mal 20 GB genutzt werden. Sehr sinnvoll.
Die Zukunft sieht ja wohl eindutig so aus:
http://www.tomshardware.de/iSSD-embedded-SSD,news-244524.html
Aber warum noch 1-2 Jahre warten, wenn man es heute schon haben kann?
Gruss
ChrE
Heyhey, mich brauchst du nicht zu überzeugen - ich mag SSDs! Bei mir ist Anfang 2011 auch eine fällig, so 256 GB könnten mir gefallen. Aber da warte ich noch bis Januar, wenn die allgemeine Konsumflaute einsetzt und den Leuten noch die letzten Knochen der weihnachtlichen Gänsekeulen aus dem Mund herausschauen. Erfahrungsgemäß ist das immer ein (preis-)günstiger Zeitpunkt für die Anschaffung neuer Technik.
Mir ging es hier nur um die Verhältnismäßigkeit. Wenn der PC insgesamt nur 300 EUR gekostet hat, sind 120 für die SSD ein sehr hoher Anteil, nämlich 40%. Wenn sich dagegen jemand einen Mac Pro für 2500 hinstellt, sieht es völlig anders aus.
Zu diesen iSSDs - eigentlich ist das doch nur eine Art SD-Karte, kombiniert mit der Intelligenz einer SSD (Bad-Blocks-Management, Wear-Leveling, was eine reine SD-Karte nicht beherrscht), und etwas kleiner ist sie vielleicht auch noch. Oder sehe ich das falsch?
CU
Olaf
Aber ein 300-Euro-PC ohne DVD-Laufwerk?
Gruß,
Oliver
Hallo,
Gibt es. Eines mit USB-Anschluss. Habe darum keines reingebaut.
Denn: Wie oft braucht man heute CD/DVD ??
Sehr, sehr selten. Und ein internes Laufwerk braucht immer Strom.
Gruss
ChrE
Moin ChrE,
Ich wäre völlig aufgeschmissen ohne DVD-LW. Aber da es ausdrücklich ein Büro-PC ist, ist es wahrscheinlich auch im Sinne des Arbeitgebers...;-)
Gruß,
Oliver
Hallo,
> Ich wäre völlig aufgeschmissen ohne DVD-LW.
Und was machst du damit?
Ich habe meins deaktiviert. bzw. auf USB umgestellt.
Brauche es vielleicht einmal im Monat. Wenn jemand unbedingt eine CD kopiert haben muss.
Gruss
ChrE
- Ich sehe mir Video-Aufzeichnungen an (u.a. Filme)
- Ich bekomme regelmäßig CDs/DVDs mit neuer Software
- Ich kopiere Videos (Filme)
- Ich lege Spiele-DVDs ein
- Ich brenne Software-Kompilationen
- Ich erstelle Sicherungs-DVDs von Dateien
Die Liste läßt sich beliebig fortsetzen. Ich denke, daß Du mit Deiner Einstellung die Ausnahme bist.
Solange es keine genormten USB-Sticks gibt, die man mitsamt Daten weggibt und dafür gleichwertigen Ersatz bekommt (wie das System der EURO-Paletten), wird das auch so bleiben.
Gruß,
Oliver
Hi Oliver,
Genau die von dir genannten Beispiele sind für einen Büro(!)-PC völlig irrelevant. Spielen und Filme gucken ist da nicht, und neue Software wird immer per Fernwartung installiert.
Ich sehe es an mir selber - wann habe ich in der Firma im Büroalltag jemals dieses Laufwerk benötigt? So gut wie nie!
Lieferanten schicken manchmal Info-Material auf CDs, aber das kommt im Zeitalter immer größerer USB-Stick-Kapazitäten auch allmählich aus der Mode.
Privat könnte ich dann und wann sogar zwei DVD-Laufwerke gebrauchen, aber das ist auch eine ganz andere Baustelle.
CU
Olaf
Um 6:32 schrieb ich:
Ich wäre völlig aufgeschmissen ohne DVD-LW. Aber da es ausdrücklich ein Büro-PC ist, ist es wahrscheinlich auch im Sinne des Arbeitgebers...;-)
Gruß,
Oliver
Ein Büro-PC kommt mit minimaler Ausstattung zurecht:
2 Ghz Prozessor, 40-80 GB HDD, onboard Grafik, VGA-Anschluss für den Monitor, 2-3 USB Anschlüsse: fertig.
Noch besser: ThinClient - Programme werden aus dem Firmen-Netz geholt.
Gruss, der Strohwittwer.
Das ist mir durchaus klar. ChrE fragte, was ICH mit einem DVD-Laufwerk machen würde.
Ich habe das nur ausgeführt, weil mir ein PC mit SSD (110,- Euro), aber ohne DVD (ca. 20,- Euro) nicht zeitgemäß vorkommt. Ganz egal wo er eingesetzt wird.
Gruß,
Oliver
OK,
aber ohne DVD
ein PC mit oder ohne SSD mit oder ohne DVD?
Vielleicht verstehen uns wir falsch, ein Office-PC in einem Unternehmen sollte Standard-Anwendungen wie Textverarbeitung, E-Mail oder Tabellenkalkulation ausführen. Ein DVD-Laufwerk braucht so ein PC nicht. Gespeichert werden die Ergebnisse im Netz.
Gruß, der Strohwittwer.
Netter kleiner Zweitrechner, oder Homeserver, den man irgendwo verschwinden lassen kann und per Remote steuert. So einen kleinen Desktop habe ich auch dafür rumstehen, der ist allerdings nicht selber gebaut.
Zeigt mal wieder, man muss nicht gleich alles wegwerfen und kann mit releativ wenig Aufwand ein Gerät bauen, dass für die meisten Anwendungen locker ausreicht. Zusätzlich noch der Spass am Bauen!
Gruß
Maybe
Geht eine SSD nun ohne vorzeitig zu Altern mit Xp oder nicht.
-- Wenn ja dann ist die SSD eine gute Sache, wenn auch - noch teuer.
Ein Altes robustes Gehäuse mit einem Preiswertem Board zu erhalten und zu Nutzen ist gut.
Und den Preis der SSD holt man vielleicht wieder raus da man keine teure aber moderne CPU nehmen kann.
Was mich wundert:
Bisher konnte ich im gestarteten Zustand keinen soo dollen Schnellezuwachs bei (normalen, egal welche)
Festplatten Feststellen..
Und meine Rechner haben oft sogar wenig RAM*
das sollte doch dann eigentlich recht FestplattenLastig sein?
*(als Bastler hat man viele Boards die Einsatzbereit sein Sollen und daher nicht so viel RAM je Rechner abfällt)
Wenn aber bei einem mit 2GB oder mehr die SSD eine signifikante Schnelle im Alltag bringt muß es ja ein wahres Wunderding sein.
Bei viel RAM sollte die Platte doch wenig zu tun haben...
Im Mac Laptop und einigen Anderen waren die ja recht früh drin und man hat da anscheinend noch nichts von der sagenhaften Geschwindigkeit vernommen.
Erst wo Windows 7 eine Weile raus war.
Vielleicht bekommt dies ja besonders gut damit klar.
ps
luttyy hat einen "neueren" Vergleich mit den Raptoren gemacht :-)
Hallo,
Meiner Meinung nach bringen SSDs bei WinXP Vorteilen, weil die
vielen Seek-Zeiten (Zugriff des Plattenkopfes) wegfallen.
Windows besteht aus vielen tausend Dateien.
Permanent werden statisch oder temporär Dateien angelegt.
Logfiles geschrieben. Oder Programmzustände persistent abgelegt.
Daten werden ins Pagefile geschrieben, auch bei ganz viel freiem RAM.
Man muss ja nur mal den FileMon starten, um zu sehen, was da
im Hintergrund alles abläuft.
Diese Zeiten von vielleicht 8 ms pro Zugriff fallen einfach weg.
Das macht mehr aus, wie eine super duper Transferrate.
Darum fühlt sich Windows mit SSD schneller an.
> luttyy hat einen "neueren" Vergleich mit den Raptoren gemacht :-)
Ja, die größten Kritiker der Elche...
(Hätten heute auch gerne eine SSD)
Gruss
ChrE
es ja ein wahres Wunderding sein.Bei viel RAM sollte die Platte doch wenig zu tun haben...
Ist doch genau umgekehrt: Je mehr RAM du hast, desto mehr hat das Betriebssystem auf die Platte auszulagern. Hast du 64 GB RAM, dann werden eben 64 GB ausgelagert.
Frag mich bitte nicht warum, ich habe diese krude Logik noch nie verstanden. Aber inzwischen habe ich mich damit abgefunden, zumal Mac OS X und Linux in dieser Beziehung anscheinend auch nicht besser sind.
CU
Olaf
Ist eigentlich relativ einfach. Die Auslagerungsdatei dient nicht nur zur Auslagerung von Daten, wenn der Arbeitsspeicher voll ist. Sie übernimmt zusätzlich auch Hintergrundprogramme, protokolliert Speicherfehler, entlastet den Speicher etc.
Heute Programme sind ja auch um einiges speicherhungriger geworden, damit relativiert sich das Verhältnis zwischen Programmen, Arbeitsspeicher und Auslagerungsdatei.
Zusätzlich können die heutigen Multicore-Systeme ja wesentlich mehr Aufgaben gleichzeitig (theoretisch) übernehmen und das System reagiert dennoch flüssig!
Gruß
Maybe
Sobald nennenswert ausgelagert wird (teilweise schon ab 10% RAM, bei 25% auf jeden Fall) reagiert auch ein Mehrkern-System nicht mehr flüssig!
Die Auslagerungsdatei dient nicht nur zur Auslagerung von Daten, wenn der Arbeitsspeicher voll ist.
Wenn die Auslagerungsdatei vorher ernsthaft verwendet wird, dann wird das System dadurch signifikant ausgebremst!
Das ist so nicht richtig. Bei einem Multicore-Prozessor kann jede CPU-Einheit nur den RAM-Speicher verwalten, der tatsächlich vorhanden ist. Bei 2 CPU-Einheiten müssen sich beide Cores sogar den direkt adressierbaren Adressraum teilen. Darum arbeiten neuere, intelligente, Betriebssysteme mit virtuellem Speicher. Speicherseiten, die momentan nicht benutzt werden, werden in Pages in den virtuellen Speicher abgelegt. Es verhält sich dabei ähnlich wie bei dem Stack: First in, first out (FiFo). Um Speicherplatz zu sparen, verwendet man z.B. bei C/C++ die sogenannten Pointer, die Variablen belegen dabei nicht den physischen Speicher, sondern zeigen nur darauf und referenzieren Speicheradressen.
Eine schnelle Multicore-CPU kann mit wenig RAM-Speicher nicht viel bewirken, deshalb müssen Speicherseiten ausgelagert werden. Kurz gesagt, der virtuelle Speicher erweitert den Adressraum um etliches.
http://de.wikipedia.org/wiki/Speicherverwaltung
Gruß, der Strohwittwer.
Hallo,
Was schreibst Du denn für einen Quatsch? Wo kommt das denn her?
> Bei einem Multicore-Prozessor kann jede CPU-Einheit nur den RAM-Speicher verwalten, der tatsächlich vorhanden ist.
falsch bzw. es kann immer nur der RAM verwaltet werden, der vohanden ist.
Oder können Single Cores schnell mal RAM übers WEB nachbestellen?
> sogar den direkt adressierbaren Adressraum teilen.
falsch
> Es verhält sich dabei ähnlich wie bei dem Stack: First in, first out (FiFo).
total falsch
> Eine schnelle Multicore-CPU kann mit wenig RAM-Speicher nicht viel bewirken
falsch
> verwendet man z.B. bei C/C++ die sogenannten Pointer
Das klingt ja so, als würde nur C und C++ Pointer verwenden. Das machen aber eigentlich
alle Programmiersprachen
> die Variablen belegen dabei nicht den physischen Speicher
Der Zusammenhang ist falsch. Variablen belegen Speicher und Pointer
zeigen auf sie. Das hat aber nichts mit virt. Speicher oder Multicore CPUs zu tun.
Variablen belegen immer den selben Speicherplatz. Egal ob physisch oder virtuell.
Ich habe jetzt keine Lust und Zeit alles zu widerlegen. Es ist aber eigentlich
alles falsch bzw. in einem falschen Zusammenhang dargestellt, was geschrieben wurde.
Was ist nur aus meinem schönen Thread geworden... ;-)
Gruss
ChrE
Hi ChrE,
schade, dass aus deinem 'shönen Thread' so etwas geworden ist. Das tut mir leid.
Leider widerlegst du dich selbst und gibst mir dadurch wieder Recht. Leider unterfütterst du deine Kommentare
total falsch nicht. Lies mein Posting noch einmal in Ruhe durch, dann merkst du, dass alles das, was du als
falsch bezeichnest, seine Richtigkeit hat.
falsch bzw. es kann immer nur der RAM verwaltet werden, der vohanden ist.
Oder können Single Cores schnell mal RAM übers WEB nachbestellen?
Genau das habe ich gesagt!
verwendet man z.B. bei C/C++ die sogenannten Pointer
z.B. bedeutet 'zum Beispiel', ich habe C/C++ als 'B E I S P I E L' genannt, bitte lies mein Posting nochmal durch.
Trotz der Mißverständnisse wünsche ich dir noch eine schönen Sonntag,
Gruß, der Strohwittwer.
Hallo,
> Genau das habe ich gesagt!
Nee, Du sprachst von Multicore-CPUs, ich sagte hingegen "immer".
Du implizierst, dass sich nur Multicores so verhalten.
> ich habe C/C++ als 'B E I S P I E L' genannt
Na dann drück dich doch richtig aus.
Sage einfach: "alle modernen Programmiersprachen benutzen Pointer für die Adressierung"
Den Rest spare ich mir mal. Kann jeder selber einschätzen.
Gruss
ChrE
Das würde ich so aber auch nicht unterschreiben. Die modernen Sprachen (wie Java oder C# (managed Code)) haben alle eine automatische Speicherverwaltung und lassen die Programmierer gar nicht mehr erst mit den Zeigern spielen...
Ansonsten sind wir aber wohl einer Meinung :-)
Gruß
Borlander
Das ist immer so.
Darum arbeiten neuere, intelligente, Betriebssysteme mit virtuellem Speicher.
Virtueller Speicher ist nun wahrlich keine neue Erfindung. Und das hat erst mal nichts mit dem Thema Auslagern/Swappen zu tun...
Speicherseiten, die momentan nicht benutzt werden, werden in Pages in den virtuellen Speicher abgelegt.
Du hast das prinzip der virtuellen Speicherverwaltung nicht verstanden. Die sorgt dafür, dass auf Anwendungsseite ein großer linear adressierbarer Speicherbereich ansprechbar ist, aber physikalisch nur so viel Speicher belegt wird wie aktuell vom Programm angefordert wurde. Die Verwaltung und auch das Caching wird bei x86-CPUs Hardwareseitig unterstützt und erfolgt auf Basis der Speicherseiten/pages. Für das Caching gibt es verschiedene Algorithmen und nicht nur FIFO. FIFO hat den Nachteil, dass hier auch Seiten aus dem Cache fliegen die dauernd benutzt werden.
Gruß
Borlander
Hi Olaf,
Ist doch genau umgekehrt: Je mehr RAM du hast, desto mehr hat das Betriebssystem auf die Platte auszulagern. Hast du 64 GB RAM, dann werden eben 64 GB ausgelagert.
Das stimmt so nicht ganz. zumal Mac OS X und Linux in dieser Beziehung anscheinend auch nicht besser sind.
. Mac OS X und Linux nehmen an RAM-Speicher, was sie kriegen können, versuchen, wenig auszulagern. Linux benutzt auch keine Auslagerungsdatei sondern eine SWAP-Partition. (Wird beim Mac OS X auch nicht anders sein).
Bei Windows (seit NT) werden Speicheradressen, die nicht so oft benutzt werden, in Pages in die Auslagerungsdatei abgelegt. Das war bei 32-Bit Systemen oft die einzige Möglichkeit, die 4 GB-Grenze bei der Adressierung zu umgehen.
Ich habe mal einen interessanten Artikel gelesen, in dem beschrieben wurde, wie ein 32-Bit-Windows-Server-OS locker mehr als die physkalische (magische?) Grenze von 4GB umschiffen konnte.
Gruß, der Strohwittwer.
Hi Strohwittwer, ich kann nur beten, dass das nicht wahr ist :-((
Bei 2 CPU-Einheiten müssen sich beide Cores sogar den direkt adressierbaren Adressraum teilen.
Darum arbeiten neuere, intelligente, Betriebssysteme mit virtuellem Speicher.
Das ist doch ein totaler Irrweg. Dann nimmt man eben ein 64-Bit-System, da ist der Adressraum dermaßen riesig, dass es völlig wurscht ist, wie viele Prozessorkerne ihn sich teilen. Deswegen diese altmodische Auslagerei als "intelligent" zu bezeichnen, erscheint mir gewagt. Ich finde das eher furchtbar stumpfsinnig.
Linux benutzt auch keine Auslagerungsdatei sondern eine SWAP-Partition.
Das ist aber nun nichts besonderes. Man kann auch unter Windows eine Extra-Partition für die Auslagerungsdatei anlegen. Dass das System direkt auf eine Partition schreibt, ohne dass eine Datei entsteht, halte ich für ein Gerücht. Und selbst wenn, was brächte das für einen Vorteil?
CU
Olaf
Hi Olaf,
Das ist doch ein totaler Irrweg.
ist es nicht! Es ist kompliziert, aber kein Irrweg. Mit 64-Bit Prozessoren und genügend RAM sollte man eigentlich zufrieden sein, aber auch 64-Bit Multicore CPUs sind auf die Möglichkeiten des Motherboards angewiesen, und da hapert es (zumindestens im Home-User-Bereich) etwas. Sonst könnte die Industrie ja keine Work-Stations mehr auf den Markt bringen.
Die 64-Bit-Architektur birgt auch Nachteile in sich, einen lesenwerten Artikel findest Du hier:
http://de.wikipedia.org/wiki/64-Bit-Architektur
diese altmodische Auslagerei als "intelligent" zu bezeichnen, erscheint mir gewagt
Es ist nicht altmodisch, oder vielleicht doch, weil es eine alte Methode ist, aber intelligent ist es dennoch. Der Speicherplatz einzelner Variablen ist enorm hoch, insbesondere, wenn es um Dezimalzahlen geht. Ein ASCII-Buchstabe besteht aus 8-Bit = 1 Byte, unter ANSI wird der Speicherbedarf schon höher. Der Unicode, den sowohl MacOSX, Linux und Windows (zum Glück) einsetzen, erhöht nochmals den Verbrauch an Speicher. Dazu kommt dann Antialising, Schattenwurf usw, nur, um uns das Lesen und Schreiben der Nickles-Meldungen zu erleichtern.
Einen durchaus interessanter Beitrag zum Thema Variablen kannst Du hier nachlesen:
http://de.wikipedia.org/wiki/Variable_%28Programmierung%29
Auch wenn es nicht zum Thema gehört, aber als Programmierer sollte man (immer noch) tunlichst auf die Verwendung von Variablen achten. (Und die Verwendung selbiger zu löschen, also Speicher frei zu geben). Im freundlichsten Fall führt es (gerade unter C) zu einem Fehler beim Compilieren. Im schlimmsten Fall kommt es erst während der Laufzeit des Programms zu einem Fehler (Runtime Error), was sogar den Computer abstürzen lässt. Diese Programmier-Fehler lassen sich oft auf eine falsche Adressierung des Speichers zurückführen. (Buffer Overflow, RAM Leaks)
Langer Rede, kurzer Sinn: es spielen sowohl CPU, GPU, RAM u n d Auslagerungsdatei/SWAP eine wichtige Rolle.
Man kann auch unter Windows eine Extra-Partition für die Auslagerungsdatei anlegen
Ja, aber der Knackpunkt ist: DATEI. Eine SWAP-Partition sammelt verschiedene, temporäre Dateien, unabhängig voneinander auf der Partition. Linux kann man auch mit einer 'Auslagerungsdatei' installieren, so machen es ja die Live-Systeme wie Knoppix. Da wird die Auslagerungsdatei sogar in den RAM geschrieben, quasi eine RAM-Disk. MacOSX basiert auf einem freien Unix, ich glaube, es ist BSD. Die machen es nicht anders.
Jetzt aber Schluß mit der Theorie,
viele Grüße und einen schönen Sonntag,
wünscht der Strohwittwer!
Altmodisch deswegen, weil es mit Blick auf die heutigen Speichergrößen weitgehend überflüssig geworden ist. Allenfalls das Nachladen von häufig benutzten Inhalten mag davon profitieren.
Mit 64 Bit lassen sich 16 Millionen Terabyte - bei einem 64-Kern-Prozessor wären das immer noch 250.000 TB pro Nase! Das ist doch kein ernsthaftes Argument pro Auslagerung.
Die Nachteile von 64-Bit-Systemen laut Wikipedia-Artikel halten sich in überschaubaren Grenzen.
Eine SWAP-Partition sammelt verschiedene, temporäre
Dateien, unabhängig voneinander auf der Partition.
Alles klar - das hatte ich nicht gewusst. Damit wird der Unterschied zu nicht-unixoiden Systemen deutlich.
THX
Olaf
Hi Olaf,
ich willl nicht weiter Streiten, die Betriebssysteme sind heute so ausgelegt, dass Speicher ausgelagert wird - von Live-Systemen mal abgesehen.
Gruß, der Strohwittwer.
Das wussten wir bereits vor dieser Diskussion. Und nicht erst "heute", sondern schon viel "früher".
Die Frage nach dem Sinn ist weiter unbeantwortet.
CU
Olaf
Meine Beobachtung, speziell bei Xp ist:
Es kommt auch gut mit kleiner pagefile.sys aus, auch wenn man viel RAM hat.
Intelligent ist eine Auslagerung doch dann wenn, selten gebrauchtes,
oder,
was nicht so schnell sein muß um zwingend im knappen RAM residend nötig ist, ausgelagert wird.
Dann könnte es sogar mit, schneller als ohne sein.
Xp, ja selbst Vista - windows 7 sowieso sind anscheinend ganz gut in der Speicherverwaltung.
Der hohe Verbrauch kommt oft auch wenn zuviel auf Vorrat in den Wertvollen RAM geholt wird.
Es ist nicht immer leicht das richtig einzustellen.
Aber selbst Vista konnte so akzeptabel konditioniert werden.
Linux und wohl auch Mac gehen etwas anders vor, und vermeiden Default das Auslagern solange es geht.
Wenn es aber nicht anders geht, funktioniert auch dies ganz gut.
Bei KDE 4 und etwas zu wenig RAM kann eine Swap fast Wunder wirken.
Egal ob als Partition oder nur als swapfile.
In der Praxis funktioniert dies doch alles ganz gut.
Die die soetwas Programmieren können kann man fast bewundern.
Vielleicht wird es klarer, wenn man weniger technisch an die Sache herangeht. ;-)
Wenn ein Server über 16 GB RAM verfügt, weil er z.B. 50 Workstations u.a. als Fileserver zur Verfügung stehen soll, dann geht das Betriebsssystem sicherheitshalber davon aus, dass der RAM auch entsprechend genutzt wird, zumal das Mainboard nur begrenzt RAM aufnehmen kann.
Mehr noch:
Das Betriebssystem berücksichtigt ebenfalls, dass es zumindest phasenweise zu deutlich höheren Anforderungen kommen kann, als tatsächlicher RAM zur Verfügung steht.
Dies muss auch so sein, da Firmen keine statischen Datenanforderungen haben - je nach Auftragslage kann das Datenaufkommen sehr starken Schwankungen unterworfen sein.
Krasser sieht es im Home-Computing aus - hier sind die Schwankungen oft größer. Speicherlastige Anwendungen wechseln sich oft mit diversen anderen Programmen ab (Games, Office, Brennen, Internet, Bildbearbeitung usw.) - bei eher unterdimensioniertem RAM, wenn man den Speicherbedarf der Programme addiert und mit der Größe des RAMs vergleicht.
Um da auf Nummer Sicher zu gehen, geht Windows deshalb von einem ca. doppelt so großen Datenvolumen aus als RAM zur Verfügung steht.
Gruß
Shrek3