Archiv RAM - Module, Marken, Murks 4.582 Themen, 22.751 Beiträge

RAM Studie von Google

ChrE / 3 Antworten / Baumansicht Nickles

Hallo!

Google hat sich wieder mal hervorgetan...
http://www.heise.de/newsticker/meldung/Hauptspeicherfehler-sehr-viel-haeufiger-als-bisher-angenommen-828883.html

Das glaube ich. Viel zu oft gibt es unerklärliche, zufällige
Verhaltensweisen von PCs.

Bestimmt gibt es auch Unterschiede zwischen den Herstellern...

Jetzt weiss ich, warum ich nur 2 statt 4 GB im
Rechner habe :-)

Gruss

ChrE


Olaf19 ChrE „RAM Studie von Google“
Optionen

Interessanter Artikel, vielen Dank...

Ich habe mir in letzter Zeit auch öfter Gedanken über dieses Thema gemacht. Mein jetziger Mac (G5 von 2005) hat 2,5 GB RAM, der nächste (frühestens 2010) wird mindestens 4 GB haben. Da werden Qualität und Zuverlässigkeit immer wichtiger.

Was mich beunruhigt, ist die Vorstellung, dass du einen Rechner mit so viel Speicher mit einem der einschlägigen Tools stundenlang testen kannst und trotzdem nie die Sicherheit hast, dass RAM-Fehler auch wirklich gefunden werden. Diese Testing-Tools brauchen ja immer mehrere Durchläufe - je mehr, desto eher wird etwas gefunden. So kann man eigentlich nie ganz sicher sein, dass man fehlerfreien RAM besitzt.

Je größer der Speicher, desto schwieriger wird es mit dem Testen - man hat ja nicht unendlich Zeit dafür, muss ggfs. also die Zahl der Testdurchläufe reduzieren, zu Lasten der Zuverlässigkeit. Ich weiß ja nicht, wann die ersten PCs mit 1 TB RAM auf dem Markt sind, aber die Vorstellung, dass man den eine geschlagene Woche lang testen kann und dann immer noch nicht sicher sein kann, dass der RAM in Ordnung ist, finde ich schon bedrückend.

Aber bis dahin ist es noch ein weiter Weg, vielleicht gibt es bis dahin eine grundsätzliche Verbesserung.

CU
Olaf

ChrE Nachtrag zu: „RAM Studie von Google“
Optionen

Hallo!

> mit einem der einschlägigen Tools stundenlang testen kannst und trotzdem nie die Sicherheit hast

Die Fehler treten eben statistisch gesehen selten auf.

> dass man fehlerfreien RAM besitzt.

Der RAM ist ja nicht defekt. Nur machmal kippt ein Bit.
Das machen ALLE RAMs mit einer gewissen Wahrscheinlichkeit.

> vielleicht gibt es bis dahin eine grundsätzliche Verbesserung.

Einzige Lösung: ECC auch in Desktop-Systemen.
Wird im Premium-Segment in einigen Jahren vielleicht Standard sein.
Ansonsten: Strukturen werden kleiner -> Fehlerhäufigkeit wächst. Prost.

So ein RAM-Fehler könnte auch sehr gut an diesem Unfall schuld gewesen sein:
http://www.spiegel.de/wissenschaft/medizin/0,1518,654826,00.html

Zitat:
> Hintergrund des Problems war offenbar eine Computerpanne.
> Es sei beim Zurücksetzen des Geräts aufgetreten.
> Dabei sei ein überhöhter Standardwert für die abzugebende Strahlung festgelegt worden.


Gruss

ChrE

Olaf19 ChrE „Hallo! mit einem der einschlägigen Tools stundenlang testen kannst und trotzdem...“
Optionen
Strukturen werden kleiner -> Fehlerhäufigkeit wächst. Prost.

Im Grunde genommen das gleiche Prinzip wie bei den optischen Medien. Die haben alle die Größe einer CD, egal ob da 650 oder 800 MB, 4,7 GB oder 50 GB draufpassen. Diese dramatische Erhöhung der Datendichte kann eigentlich zwangsläufig nur dazu führen, dass jeder noch so kleine Kratzer schwerwiegende Folgen für die Lesbarkeit der Daten hat.

Zum Glück ist der Arbeitsspeicher wenigstens keiner mechanischen Belastung von außen ausgesetzt, den nimmt man ja nicht so häufig in die Hand...

CU
Olaf