Tja schon geht es weiter mit die Mechanischen Festplatten:
http://ht4u.net/news/22087_3_terabyte_speicherkapazitaet_von_seagate_womoeglich_noch_2010/
Gruss
Sascha
Datenträger - Festplatten, SSDs, Speichersticks und -Karten, CD/ 19.576 Themen, 110.115 Beiträge
Für mich steht und fällt Sinn und Unsinn von immer größeren Festplatten mit der Geschwindigkeit.
Plakativ gesagt: Wenn eine Festplatte doppelt so groß ist, sollte sie im Idealfall auch doppelt so schnell sein.
Andernfalls werden die für ein Vollbackup erforderlichen Zeiten immer länger. Irgendwann braucht man eine ganze Woche, bis eine XX Terabyte große Platte komplett auf eine gleich große Backupplatte kopiert ist.
CU
Olaf
Hallo,
ich sehe schon die zukünftigen Threads kommen:
"Wie soll ich meine Festplatte mit 3 Terabyte partitionieren, und wie viele Partitionen (und in welcher Größe) sind zu empfehlen?" ;-)
Gruß
knoeppken
Hi Das seh ich genauso
Ausserdem ist es immer besser mehere kleiner Festplatten zu verwenden z.B. statt einer 3TB lieber 6mal 500GB wenn eine ausfällt ist zumindest nicht alles weg.
Grad bei den Leuten die solche partionierungsfragen stellen geh ich davon aus das eher selten backups existieren.
So sind z.B alle Filme Weg aber die Musik auf der anderen Platte ist noch da.
Ausserdem kann dann von der einen Platte n Vollbackup gemacht werden und auf einer anderen weiter gearbeitet werden ohne das dies das backup großartig ausbremst
Ich sicher momentan ca. alle zwei wochen meine Dateien komplett ca. 460GB über USB das ganze Voll verschlüsselt. Da dauerts jetzt schon 14std und die platte ist erst halb voll.
Stell dir mal vor du sicherst eine Woche lang Daten und am 6Tag gibts n Strom ausfall oder eine der Platten raucht ab.
Das sowas passiert wird mit der größeren sicherungszeit immer Warscheinlicher
Sers
Ten
Das nennt man dann auch "Risikostreuung" ;-) Dann ist beim Ausfall einer Platte nicht gleich alles weg, andererseits ist die Wahrscheinlichkeit, dass bei 6 Platten irgendwann eine ausfällt, um einiges größer als bei nur einer.
In jedem Fall - wenn man sich schon so eine Riesenplatte gönnt, dann immer nur paarweise, so dass man auf die 2. Platte ein 1:1-Backup machen kann. Und auch hier wieder Risikostreuung: Es wäre zu überlegen, sofern möglich, die Platten von verschiedenen Herstellern zu nehmen. Nicht dass man 2 Platten aus der gleichen Produktionscharge erwischt und die beide gleichzeitig nach kurzer Zeit ausfallen, wenn man großes Pech hat (so wie einst bei der inzwischen legendären IBM "Death"star).
CU
Olaf
Sicher ist die Geschwindigkeit das Problem.
Ist die Frage:
Wie lange hält die Mechanik bei 10.000 Umdrehungen und mehr?
Hallo peterson,
ich glaube kaum, dass die Drehzahl das entscheidende ist, bei solider Mechanik und Kühlung könnten sie noch etwas an Geschwindigkeit zulegen, habe 3 x 10000 rpm im PC, Plattentemperatur zwischen 29° und 33°, leiser Plattenzugriff, bis jetzt sehr zuverlässig und wesentlich leiser als meine alten Platten mit 7200 rpm, kein Rattern und Pfeifen.
Leider gibts für solche Datenmengen keine für "normale" Leute geeigneten Backup-Lösungen. Kopieren auf externe USB hat nichts mit Backup zu tun. Es ist nicht möglich das Backup-Medium aus dem Laufwerk zu entfernen und zudem sind die Daten auf der externen Platte bei weitem unsicherer untergebracht als auf der eingebauten im Rechner. Das ist nur eine schlechte Mogelpackung. Das letzte für normale Leute geeignete Backup-Medium war DVD-Ram mit max. 9GB. Alles andere hat nichts mit Backup zu tun! Es ist aber natürlich immer noch besser als gar nichts.
Ich nehme selbst einen LTO1-Streamer, gebraucht mit Garantie über Händler bei eBay gekauft. Läuft bei guter Kühlung sehr zuverlässig und braucht für oben genannte 450GB höchstens 10 Stunden. LTO2 hätte in den meisten Computern schon keinen Sinn mehr da ein Standard-PC mit SATA zu langsam ist um die nötige Datentranserrate auf Dauer zu bringen. Vorraussetzung ist bei Streamern aber immer SCSI oder Fibrechannel. Neuere gibts auch mit SAS oder SATA, aber aufgrund der Geschwindigkeit für normale PC nicht geeignet.
Die hohe Drehzahl ist kein Problem, Modelle mit 10000 oder 15000 Umdrehungen sind bei weitem zuverlässiger als Modelle mit 7200 oder auch 5400 Umdrehungen. Zudem vermute ich die häufigsten Fehlerquellen in der Elektronik und nicht in der Mechanik. Mechanische Platte sind auch immer noch zuverlässiger als SSD-Platten.
Bei Raid1 wäre es wichtiger wenn das Lesen nicht, wie weit verbreitet, im Raid 0 - Modus erfolgt, sondern nur von einer Platte, wie das bei SCSI-Raid immer war. Die Mirror-(Spiegel)-Platte kommt dann nur beim Schreiben zum Einsatz und ist somit wesentlich geringer belastet und "lebt" dadurch voraussichtlich länger.
Hi
Also ich sehe das ganz anders
Ne Externe platte kann man sehr wohl aus m gehäuse entfernen(bei mir 4 Schrauben) und es gibt auch docking stationen.
10 oder 14stunden macht jetzt noch keinen großen unterschied ausserdem glaub ich nicht das du weniger als 14 stunden in meinem anwendungsfall schafst da die Festplatten voll verschlüsselt sind und ich bloß anwendungsdaten sicher und kein image erstelle. Daher müssen alle daten erstmal entschlüsselt werden und wieder verschlüsselt auf dem Ziellaufwerk sonst währen des auch bloß 8-10 stunden.
Eine Ext.Platte ist auch nicht unsicherer als eine interne wenn sie dannach in einen Feuerfesten Tresor kommt.
DVD-ram als sicher anzupreisen ist aber ganz schön gewagt es gibt pilze die DVD beschichtungen fressen. Zuviel sonnenlicht ist auch schädlich und 9gb ist viel zu klein 50DVD's brennen mit einer noch langsameren geschwindigkeit als bei meiner usb lösung selbst bei Blueray wären es noch 18stück.
Hinzu kommt bei meiner Lösung kann ich das abends einschalten und morgens oder wenn es länger dauert nach der arbeit ausschalten für DVD-ram bräuchte ich einen DVD wechsler.
Sers
Ten
Dann hast Du das Laufwerk aus dem externen Gehäuse raus. Um die Trennung von Laufwerk (=Festplatte) zum Medium zu vollziehen müßtest Du die Platter aus der Festplatte ausbauen! Das gilt im übrigen auch für SSD-Platten, USB-Sticks oder andere Speicherkarten - eine physische Trennung von Laufwerk und Medium ist nicht möglich! Wenn der Controllerchip "durchbrennt" sind Deine Daten auf dem Platter oder den Speicherchips ja noch da, aber Du kommst nicht mehr an sie ran.
Die externe Platte ist bei weitem unsicherer, weil sie bei jedem Backup und Restore bewegt wird! Der Transport vom Schrank zum PC ist der Schwachpunkt dieser Lösung.
Der Hinweis zu Pilzen gilt für DVD-Ram in der Form nicht. Vernünftige Lagerung der Medien muß auch bei Streamer-Bändern gewährleistet sein! DVD-Ram war aber das letzte Medium das von den Eigenschaften her als vernünftige Backup-Lösung gelten konnte, was man von CD und DVD+ oder - generell nicht sagen kann. Das das von der Größe her nicht annähernd ausreicht ist unbestritten. Auch HD-DVD und Blue-Ray sind nicht für Backup-Zwecke geeignet.
Ich bleibe bei meinem Fazit: Es gibt zur Zeit keine für normale Anwender geeigneten Backup-Lösungen.
Hi
Eine Datenrettuingsfirma wird die Magnetscheiben aus der platte ausbauen und auslesen wenn die mechanik defekt ist.
Wenn du dir über den transport auch noch gedanken machst dann müssen wir anfangen uns zu überlegen wie weit wir mit dem Backup gehen wollen.
Man kann die sachen auch auf 2platten sichern und in Salzstöcken an verschiedenen orten auf der welt einlagern.
Dies könnte z.B. in form eines NAS geschehen das im Salzstock unter verschluss steht und eine Netzwerkverbindung besitzt
Aber bleiben wir auf dem Boden der Tatsachen.
Man stelle ein NAS in den Tresor und sichert über lan ausserdem sind festplatten relativ erschütterungsresistent im ausgeschalteten zustand.
Ausserdem macht man wenns wirklich wichtige Daten sind immer zwei redundante Backups.
Sag doch mal was für dich der grund ist das DVD-ram früher die lösung war.
Sers
Ten
Für eine Datenrettungsfirma bezahlst du dermaßen viel Kohle, dass du dich in 99% der Fälle lieber mit ihrem Verlust abfinden wirst. Wenn die Daten wirklich dermaßen wichtig sind, muss man eben mehrere Backups davon machen.
@Pfützner: Warum ist der Transport vom Schrank zum Rechner so ein Problem? Man muss die Platte ja nicht unterwegs fallen lassen oder überall damit gegenhauen...
Was hältst du von eSATA oder Firewire? Doch in jedem Fall besser als USB? - Der Nachteil, dass die Daten weg sind, wenn der Controller abraucht, bleibt natürlich bestehen.
CU
Olaf
Hi
eSata oder Firewire würde die geschwindigkeit nur minimal erhöhen da beim Ver und Entschlüsseln die Cpu entscheident ist.
Das ist Pfützners problem ich lass sie ja nicht fallen
Sers
Ten
Natürlich läßt man die Festplatte nicht fallen, aber es passiert irgendwann eben doch einmal. Achtest Du darauf das die Festplatte im Betrieb immer gerade liegt und nicht schräg? Viele Leute machen sich da keine Gedanken, oder das Notebook auf dem Schoß, oder im Betrieb herumtragen, was für mechanische Festplatten nicht ratsam ist. Der Unsinn wird einem sogar im Fernsehen fast täglich noch vorgemacht.
eSATA oder Firewire haben den Vorteil das der Datentransfer mit wesentlich weniger Overhead verbunden ist als bei USB. Das grundlegende Problem bleibt aber bestehen: eine Festplatte ist kein Backup-Medium!
Ich hab für mein LTO + 5 Bänder ca. 100€ gelöhnt, SCSI-System hab ich ja schon seit ewigen Zeiten. Da sind die Daten bei weitem sicherer aufgehoben.
Mmh, ich würde sie normalerweise auf den Tisch stellen, alternativ auch beim Desktoprechner aufs Dach. Dann liegt sie automatisch gerade. Auf den Schoß gehört sie jedenfalls nicht ;-)
Meine Frage nach eSATA und Firewire galt eher der Sicherheit als der Geschwindigkeit. Man liest ja immer wieder, dass USB-Festplatten ganz besonders unsicher sein sollen. Wobei ich da ehrlich gesagt immer Schwierigkeiten habe, den Zusammenhang herzustellen - warum sollte eine Festplatte mit USB-Anschluss leichter Daten verlieren als eine mit Firewire oder eSATA?
CU
Olaf
Ich sehe da höchstens Unsicherheiten im Übertragungsweg. Da ist von allen 3 genannten Firewire das sicherste, gefolgt von SATA und am Schluß USB. Das Datenverlustrisiko ist von Seiten der Festplatte gesehen immer gleich hoch. Alle 3 Varianten nutzen ja intern auch SATA-Platten. Ich versteh bis heute nicht warum Intel seinerzeit den Unnützen seriellen Bus entwickelt hat. Firewire der ersten Generation ist immer noch schneller als USB 2.0 und in der Summe seiner Eigenschaften für alle Szenarien besser geeignet. Firewire läuft auch mit den maximal möglichen Geräten und überträgt Daten, bei USB ist bereits bei 15 - 20 Geräten Schluß, dann braucht das System allein für das Polling der Geräte die verfügbare Bandbreite, an Datenübertragung ist dann nicht mehr zu denken. Nun braucht niemand so viele Geräte, aber eine eigenintelligente gerätegesteuerte Lösung hat gegenüber einer "dummen" Hostcontrollierten immer Vorteile. Am Schluß hat der Preis der USB-Schnittstelle zum Durchbruch verholfen, ungeachtet der schlicht idiotischen Technologie.
Auch heute wird wieder was unsinniges unters Volk gebracht, SSD mit SATA-Schnittstelle, die ja immer noch im Halbduplex-Betrieb läuft. Warum gibts keine mit SAS- oder Fibrechannel-Anschluß, die ja schon im Vollduplex laufen? Wäre gerade für die Systemplatte durchaus von Vorteil. Die Hersteller könnten aber auch problemlos den Vollduplex-Betrieb bei SATA freischalten - tun sie aber nicht. Dafür wird der Kunde nach Einführung von 12Gbit SATA nochmal extra zur Kasse gebeten.
Interessant, was du über Firewire sagst. Ich hatte immer angenommen, dass USB deswegen so erfolgreich / beliebt / verbreitet ist, weil man von der Festplatte bis zum Eierwärmer einfach "alles" daran anschließen kann. Wäre das rein technisch auch für Firewire möglich gewesen, wurde dann aber doch nicht entwickelt, weil Firefiwire im Vergleich zu teuer war?
SSD mit SATA-Schnittstelle ist grundsätzlich nicht sinnvoll? Sollte man sich lieber einen SAS-Controller gönnen? Ich hatte immer noch im Hinterkopf, dass SATA so schnell ist, dass SCSI - und nichts anderes ist ja SAS - damit obsolet wird.
CU
Olaf
Ja, das Ganze für Firewire zu entwickeln wäre teurer, natürlich möglich und auch sinnvoller gewesen. Wie schon bei IDE und SCSI hat IDE über den Preis gewonnen, nicht über die bessere Technologie. Und das wiederholt sich jetzt mit SATA und SAS.
Wie schon geschrieben gibts bei SATA zwar getrennte Leitungen für Lesen und Schreiben, aber es ist über die Firmware reduziert das immer nur eins von beiden geht (halbduplex). Beides gleichzeitig soll dann erst nach 12Gb SATA eingeführt werden. Bei SAS funktioniert gleichzeitiges Lesen und Schreiben (vollduplex) schon jetzt. Und das wäre doch bei SSD mit den kurzen Zugriffszeiten gerade sinnvoll! Es gibt aber keine SSD mit SAS-Schnittstelle. SAS-Controller und SATA-SSD bringt nichts, weil die SATA-SSD's auch noch auf halbduplex laufen, dazu müssten SAS-SSD's hergestellt werden. Bei SAS hat man auch bei der Kabellänge weitergedacht, über geringfügig höhere Signalpegel sind hier 6m möglich. Besser ist nach wie vor auch das Command Qeueing gelöst, wie schon bei SCSI entscheidet hier wirklich die Festplatte selbst und wählt über reale Lage der Sektoren (nicht anhand der LBA!), Latenz-, Zugriffs- und Kopfwechselzeit die schnellste Variante. Bei SATA steckt die eigentliche Logic nicht in der Platte sondern im Hostcontroller (AHCI), und da wird nur über die LBA-Nummer sortiert, die reale Lage der Sektoren wie auch reale Zugriffszeiten bleiben unberücksichtigt. Ich hab bis jetzt auch noch keinen Benchmark gesehen der mit NCQ nennenswert bessere Werte geliefert hätte als ohne. Bei SATA kann man das NCQ ja auch im Controller-BIOS deaktivieren, bei SCSI- und SAS-Controllern kann die Funktion nicht deaktiviert werden, weil es keine Funktion des Controllers ist. Das geht nur auf der Platte selbst, aber auch nicht so ohne weiteres. Man kann im SAS-Controller-BIOS zwar NCQ deaktivieren, das gilt dann aber nur für angeschlossene SATA-Platten, SAS-Platten laufen weiter mit Tagged Command Qeueing.
Was mir da am Rande noch einfällt: Eigentlich müßte man bei SSD's das NCQ abschalten, bei den kurzen Zugriffszeiten ist der zusätzliche Aufwand für das Umsortieren der LBA doch kompletter Unfug. Oder seh ich das falsch?
Sorry Lutz - an dieser Stelle schnalle ich ein bisschen ab... so tief stecke ich in der Festplattentechnik nicht drin ;-)
Danke aber für deine ausführlichen Darlegungen - das relativiert den Nutzen einer SSD anscheinend ganz erheblich.
Wenn man deinen Gedankengang - "was nützt mir die schnellste Festplatte, wenn sie durch SATA ausgebremst statt durch SAS ausgereizt" - einmal etwas weiterspinnt, dann müsste man auch den Nutzen von Produkten wie Western Digital VelociRaptor für SATA in Frage stellen. Die müssten dann auch weit unter ihren Möglichkeiten bleiben.
Ich habe immer noch die Worte im Ohr, die mir ein Computer-Verkäufer vor einigen Jahren gesagt hat - "SCSI wird kaum noch verlangt bzw. lohnt sich nicht mehr, es gibt ja SATA, und das ist im Gegensatz zu IDE fast genau so schnell wie SCSI".
Nun liegt das eine Weile zurück - könnte man sagen, dass SCSI durch die neue SAS-Technik den "alten Abstand" zu SATA wieder hergestellt hat? Ist das Verhältnis "SAS vs. SATA" heute in etwa das Gleiche wie damals "SCSI vs. IDE"?
CU
Olaf
Eine SSD ist ja wie ein Speichermodul (RAM), und ob nun auf die eine oder eine andere Adresse zugegriffen wird ist rein zeitmäßig doch egal.
Dei Hinweis auf die VelociRaptor ist berechtigt, hier auch vor allem bezüglich NCQ. Die wäre als SAS wesentlich interessanter. Um mal den Unterschied verständlich zu machen: wenn 3 Sektoren einzulesen sind, auf der Magnetscheibe liegt der Erste auf Spur 7, der zweite ebenfalls aber genau eine halbe Umdrehung später, der Dritte auf Spur 8 genau zwischen den ersten beiden. Bei NCQ werden die auch genauso eingelesen, also erst Sektor 1, dann 2 und dann 3, macht also eine halbe Umdrehung zum 2. und noch eine dreiviertel zum 3. - dauert etwa 7,5 msec. Bei SAS dauert es genau 3msec für alle drei, die liest erst Sektor 1, schwenkt eine Spur raus zu Sektor 3, und wieder zurück zu Sektor 2. Nun stelle Dir das Ganze mal bei einer Datenbank mit vielen kleinen Dateien vor was da zusammenkommt.
Das Verhältnis ist duirch SATA nie kleiner geworden als bei IDE, die Entwicklung ist auch bei SCSI (vor SAS) nicht stehengeblieben. Der Abstand ist nach wie vor gleich groß und der war immer da. "Wird kaum noch verlangt" ist nur durch den Preisunterschied gekommen.
All das ändert nichts an den signifikanten, schon genannten Nachteilen der Festplatte als Backup-Lösung.
Eine dauerhaft an den PC angeschlossene Lösung ist ja wohl nicht Dein Ernst? Ob nun über USB, Lan oder sonstwie, die Sicherungs-MEDIEN müssen weg vom PC und vernünftig gelagert werden.
Zu DVD-Ram:
Neben den bereits genannten Grundvoraussetzungen wäre da die Medienhaltbarkeit die gewöhnliche DVD bei weitem übertrifft, was auch für die Wiederbeschreibbarkeit gilt.
Dann wird jeder Sektor einer DVD-Ram gleich oft verwendet, d.h. es werden auch wenn Daten gelöscht wurden zuerst unbenutzte Sektoren verwendet und erst danach die schon benutzten. Defekte Sektoren werden markiert und nicht wieder verwendet. Bei Medienproblemen wird das betreffende Medium als Read-only gekennzeichnet und kann für zukünftige Sicherungen nicht mehr verwendet werden, nur noch für Restore. Um mal die wichtigsten zu nennen ...
Hi
Ich meinte damit jetzt fei nicht das die SAN den ganzen Tag läuft.
Und auch bei verbauten Festplatten ist unter den richtigen vorausetzungen eine lange lagerung möglich. Man kann die SAN auch komplett stromlos machen bis zur nächsten sicherung.
Aber da stellt sich mir jetzt eine sehr wichtige frage wie lang hält eine Festplatte im Durchschnitt ich hab im schlafzimmer noch ne 40mb platte liegen auf der Dos 5.0 ist und vor ein paar monaten teste ich ob sie noch geht. Keine Probleme gefunden.
Ist natürlich n einzelbeispiel.
Wie lange hällt DVD Ram?
Das mit der prüfung ist recht intelligent man könnte allerdings für Festplatten dateisysteme entwickeln die Ebenfalls sektoren der art beschreiben und Vor sowie nach der Sicherung die Platte prüfen.
Was natürlich noch eine Coole lösung wäre man brennt mit einem Laser in einen Kristall punkte und liest diese aus von Glas ist bekannt das es extrem lange hält natürlich muss man es entsprechend absichern -->Dauert aber noch bis sowas kommt.
Bei einem Backup ist es meiner meinung nach aber auch nicht so wichtig später neue daten schreiben zu können auf das selbe medium.
Sers
Ten
Die Festplattenhersteller geben meist eine "Dienstzeit" von 5 Jahren an. Das kann man als Empfehlung ansehen die Festplatten nach dieser Zeit zu tauschen, was man nätürlich nicht muß. Ich hab bis voriges Jahr eine Fujitsu MAS 73GB mit 15000 Umdrehungen im System gehabt, die hat 7 Jahre klaglos Ihren Dienst verrichtet. Die war noch vollkommen in Ordnung, ich hab sie nur verkauft weil ich günstig eine 300GB SAS-Festplatte kaufen konnte.
Für DVD-Ram waren glaub ich 100000 Zyklen angegeben, also Schreib-/Lesezyklen. Man sollte aber immer CDFS nehmen, FAT oder FAT32 zerstört die Medien schnell weil bei jedem Schreiben die FAT auch geschrieben wird und in dem Fall immer auf die gleichen Sektoren. Noch schlimmer wirds mit neueren Dateisystemen wie NTFS oder ext. Es gibt einen ziemlich umfangreichen Wikipedia-Artikel dazu.
Es bleibt zu hoffen das sich da mal jemand was einfallen läßt und ein Backup-System entwickelt was den Anforderungen entspricht und eben auch günstig und einfach in der Anwendung ist.