Zu meinen anderen Threads über eine hohe Datenintegrität ist mir jetzt noch eine Idee gekommen.
Um sich vor kippenden Bits bzw "silent data corruption" zu schützen, hatte ich die geniale Idee, wie wärs denn wenn man Daten gleichzeitig auf 3 (mindestens!, sonst gehts nicht) Datenträger gleichzeitig schreibt, ein erweitertes Mirror RAID quasi.
Für jeden Lesevorgang wird dann natürlich auch auf alle 3 Festplatten gleichzeitig zugegriffen. Die Daten werden in 3 verschiedene Caches gelesen und miteinander verglichen. Wenn alles 3 gleich ist sind die Daten allerhöchstwahrscheinlich nicht korrput oder haben sich irgendwie verändert.
Stimmt ein Ergebniss nicht mit den anderen 2 überein müssen diese Daten falsch sein (auf der Festplatte). Es gilt hier: Die Mehrheit hat recht. Daher min. 3 Platten, je mehr umso besser. Die falschen Daten werden dann verworfen und die richtigen (wo beide Ergebnisse übereinstimmen) weitergeleitet. Im selben Zug werden die falschen Daten auf der entsprechenden Festplatte sofort überschrieben.
Das würde allerhöchste Datenintegrität gewährleisten, und alle anderen Probleme wären gleich mit gelöst, von defekten Sektoren bis zum Ausfall einer ganzen Festplatte, alles würde auffliegen. Backup entfällt dann wohl auch.
-------------------
Ich kenne allerdings keinen Controller oder Überhaupt ein System was sowas kann. Gibt es sowas überhaupt in der IT Welt?
Gegen andere ähnliche Probleme könnte man z.B. auch den Arbeitsspeicher mehrfach auslegen und beschreiben.
-------------------
Bei den sinkenden Preisen für Datenträger halte ich das garnicht so abwegig. Technik wird generell immer billiger.
Ich selbst habe eine große Platte und 2 zur Sicherung. Daraus könnte ich schon einen solchen 3er Spiegel bauen und meine Sorgen um Datenintegrität wären gelöst, aber ich kenne kein System was sowas kann.
--------------------
Bei den großen Festplatten heute und meiner Datenmenge würde es schon reichen wenn Dateien gleich 3 oder 4 mal nebeneinandergeschrieben würden und auch gelesen. Das könnte eine Software managen. Wäre die gleiche Lösung, zwar wohl Ressourcen und Zeitaufwändig, würde mir aber vorerst schonmal reichen.
--------------------
Nun ist die heutige Philosophie über Computer wohl mangels technischer Entwicklung schon immer auf Geschwindigkeit gerichtet gewesen. Ich glaube aus diesem Grund hat sich wohl noch kaum jemand Gedanken über mehrfach redundantes Speichern gemacht.
Könnte das in Zukunft aber Thema sein?