Hallo,
Ich hatte noch einige alte Desktop-Gehäuse rumstehen,
die sind noch "richig stabil" und ich wollte sie nicht wegwerfen.
Sie sollten entkernt und zu Büro-PCs umgebaut werden.
Also habe ich mir testweise folgendes gekauft:
1x ECS A740GM-M, AM2+, mATX
1x AMD Athlon II X3 400e
1x Netzteil be quiet! SFX Power BQT SFX 300W
1x SSD Corsair Nova 64GB SSD
1x FANTEC MR-35SATA-A silber 8,9 cm (3,5)SATA Wechselrahmen
2 GB DDR2 RAM hatte ich noch da
o.k. ist kein 100 € PC geworden, nur ein 300 € PC.
Das ganze wurde in das Desktop-Gehäuse gebaut.
Vor das Netzteil habe ich noch einen Luftkanal gebaut,
damit das Netzteil möglichst die warme Luft von oben
anzieht und aus dem Gehäuse bläst.
http://250kb.de/u/101014/j/yJs1buwTnwzj.JPG
Installiert wurde Windows XP. Und K10Stat zur
Optimierung des Energieverbrauchs des Prozessors.
Der Rechner braucht im Idle-Mode nur 34 Watt.
http://250kb.de/u/101014/j/P6FSNQ5ScFeC.JPG
Unter Volllast 67 Watt. Das sind schon mal keine
schlechten Werte. Und er ist dank der SSD sehr schnell.
Dieser komische blaue Balken von Windows wandert einmal
über den Bildschirm, dann ist das Windows mit dem
Booten fertig. Dank des SATA-Wechselrahmens kann man
schnell Backups erstellen oder zusätzlich Speicher
ankoppeln. So stelle ich mir heute einen Büro-PC vor.
Gruss
ChrE
PC-Selbstbau, Reparatur, Optimierung 11.459 Themen, 79.619 Beiträge
Hi Olaf,
Das ist doch ein totaler Irrweg.
ist es nicht! Es ist kompliziert, aber kein Irrweg. Mit 64-Bit Prozessoren und genügend RAM sollte man eigentlich zufrieden sein, aber auch 64-Bit Multicore CPUs sind auf die Möglichkeiten des Motherboards angewiesen, und da hapert es (zumindestens im Home-User-Bereich) etwas. Sonst könnte die Industrie ja keine Work-Stations mehr auf den Markt bringen.
Die 64-Bit-Architektur birgt auch Nachteile in sich, einen lesenwerten Artikel findest Du hier:
http://de.wikipedia.org/wiki/64-Bit-Architektur
diese altmodische Auslagerei als "intelligent" zu bezeichnen, erscheint mir gewagt
Es ist nicht altmodisch, oder vielleicht doch, weil es eine alte Methode ist, aber intelligent ist es dennoch. Der Speicherplatz einzelner Variablen ist enorm hoch, insbesondere, wenn es um Dezimalzahlen geht. Ein ASCII-Buchstabe besteht aus 8-Bit = 1 Byte, unter ANSI wird der Speicherbedarf schon höher. Der Unicode, den sowohl MacOSX, Linux und Windows (zum Glück) einsetzen, erhöht nochmals den Verbrauch an Speicher. Dazu kommt dann Antialising, Schattenwurf usw, nur, um uns das Lesen und Schreiben der Nickles-Meldungen zu erleichtern.
Einen durchaus interessanter Beitrag zum Thema Variablen kannst Du hier nachlesen:
http://de.wikipedia.org/wiki/Variable_%28Programmierung%29
Auch wenn es nicht zum Thema gehört, aber als Programmierer sollte man (immer noch) tunlichst auf die Verwendung von Variablen achten. (Und die Verwendung selbiger zu löschen, also Speicher frei zu geben). Im freundlichsten Fall führt es (gerade unter C) zu einem Fehler beim Compilieren. Im schlimmsten Fall kommt es erst während der Laufzeit des Programms zu einem Fehler (Runtime Error), was sogar den Computer abstürzen lässt. Diese Programmier-Fehler lassen sich oft auf eine falsche Adressierung des Speichers zurückführen. (Buffer Overflow, RAM Leaks)
Langer Rede, kurzer Sinn: es spielen sowohl CPU, GPU, RAM u n d Auslagerungsdatei/SWAP eine wichtige Rolle.
Man kann auch unter Windows eine Extra-Partition für die Auslagerungsdatei anlegen
Ja, aber der Knackpunkt ist: DATEI. Eine SWAP-Partition sammelt verschiedene, temporäre Dateien, unabhängig voneinander auf der Partition. Linux kann man auch mit einer 'Auslagerungsdatei' installieren, so machen es ja die Live-Systeme wie Knoppix. Da wird die Auslagerungsdatei sogar in den RAM geschrieben, quasi eine RAM-Disk. MacOSX basiert auf einem freien Unix, ich glaube, es ist BSD. Die machen es nicht anders.
Jetzt aber Schluß mit der Theorie,
viele Grüße und einen schönen Sonntag,
wünscht der Strohwittwer!