Yuna DeSantis
Freund/in des Forums
Meine "Müllhalde" besteht aus dutzenden alter CD's die früher mal als Datenspeicher herhalten mussten. Kein Plan was da noch so alles drauf ist.
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
So viele Umzugskartons passen gar nicht in meine Wohnung ^^Meine "Müllhalde" besteht aus dutzenden alter CD's die früher mal als Datenspeicher herhalten mussten...
Ich selbst halte inzwischen von mehreren Partitionen auf einer Festplatte garnichts mehr.
Ist eigentlich unwichtig, Yuna.
Eigentlich bekräftigen die beiden Posts nur, was vorher schon geschrieben wurde.
Man kann eine SSD Platte partitionieren, aber es macht keinen Sinn und könnte sich eventuell, gewissermaßen, vielleicht negativ auswirken.
Muss nicht, aber kann passieren.
Das wäre die Übersetzung für ONUs wie mich. (ONU = OttoNormalUser)
Wie erwähnt: Je mehr Platten, auf die man seine Daten verteilt, desto höher die Wahrscheinlichkeit, dass ein Teil der Daten futsch ist. Deswegen ist es eigentlich immer besser weniger Platten im System zu haben. Bei den SSD kommt noch dazu, dass große SSD normal länger halten als kleine. Einfach weil es da länger dauert bis alle Zellen gleichmäßig "abgenutzt" sind.
Das Wear Leveling der SSD hängt dabei ein bisschen von der Platte ab und dem Controller - aber normal geht das über die ganze Platte, nicht nur innerhalb der einen Partition, das läuft quasi "transparent" im Hintergrund ab, auf der Controller-Ebene. Ein Problem bei der Wiederherstellung der SSD ist ja eben, dass die Daten dort nicht wie bei der Festplatte "am Stück" irgendwo in einer Partition liegen. Die sind bei der SSD in kleinen Blöcken wahllos über die gesamte SSD verstreut. Und es gibt keine konstante Zuordnung wie noch bei bei der HDD: So dass ein Block aus Partition a1 direkt neben einem Block aus Partition b liegen kann, gefolgt von wieder einem Block von a2. Und nur der Controller weiß überhaupt wo welcher Block im Speicher liegt. Den Speicher Stück für Stück auszulesen (was auch bei einer SSD im Prinzip immer noch geht) bringt so leider überhaupt nichts mehr. Während man bei der HDD noch ziemlich viele Daten retten kann.
Das heißt auch, dass es bei der SSD keine "wenig beanspruchte Partition" gibt.
Was meist nur innerhalb einer Partition arbeitet ist allerdings das TRIM, bei dem nicht mehr genutzte Zellen/Bereiche als solches markiert werden. Die haben mit dem wear leveling allerdings nur bedingt zu tun und beschleunigen die SSD ein klein bisschen weil unnützer Mist nicht mehr berücksichtigt werden muss.
Es ist mathematisch korrekt, dass je mehr GB man hat (...) desto höher die Wahrscheinlichkeit dass ein GB (eine Platte) davon ausfällt,
... (und wenn man seine Daten auf mehrere Platten aufteilt, hat man auch mehr GB als wenn man nur eine Platte hat, da man ja nie die gesamte Platte bis zum letzten Byte voll schreibt) ...
Ich bleibe dabei: bei einem Home PC empfiehlt es sich, für logisch zusammengehörige Daten am besten jeweils eigenständige Festplatten zu verwenden.
Das Aufteilen der SSD in Partitionen hat noch einen Vorteil: wenn man versehentlich bei Experimenten (z.B. so wie ich die Tage mit Linux experimentiere) eine Partition löscht, dann ist alles andere noch da. Das muss eben jeder für sich entscheiden.
Es steht dir frei eben mal 5 Platten in dein System zu hängen. Aber die Ausfall-Wahrscheinlichkeit hat nichts direkt mit den GB zu tun, die man im System hat, sondern in erster Linie wirklich mit der Anzahl der Platten.
Das liegt mit daran, dass die Hersteller eben die HDDs (wie auch andere technische Geräte im Consumerbereich) üblicherweise nicht so produzieren, dass 100% der Platten über die Garantiezeit voll durchlaufen. Das wäre machbar, aber leider furchtbar teuer. Also legt man Geräte üblicherweise so aus, dass eben die allermeisten Geräte die Garantiezeit bzw. die beworbene Leistung schaffen, z.B. 95,5%. [Man nimmt da bei der Qualitätssicherung +/-2s um die Fertigungstoleranzen einzustellen. Und wenn es mit den restlichen bis zu 4.5%, dann kriegen die Betroffenen eben eine Ersatzplatte.] Und so werden alle Platten produziert.
Die Hersteller geben als zulässige Datenfehlerrate meist auch bei allen Platten pauschal etwas wie "1 per 10E14 bits" an, d.h hier macht es keinen Unterschied ob man seine 4TB im Rechner auf eine Platte legt oder über 8 Stück verteilt. Die Fehlerwahrscheinlichkeit ist in beiden Fällen ähnlich hoch.
Nur kommt zusätzlich zur Fehlerwahrscheinlichkeit durch falsch gelesene/geschriebene Bits eben noch der Faktor Controller und der Faktor Mechanik dazu. Wobei sich die Mechanik einer 4TB in den essentiellen Teilen nicht wesentlich von der einer 500GB Platte unterschiedet. Die 4TB Platte hat höchstens bisschen höhere Speicherdichte und eine Platte mehr im Gehäuse.
So hat man wie schon erwähnt mit einer Platte eine Ausfallwahrscheinlichkeit von 5% über 5 Jahre, während man mit 8 Platten immerhin eine Ausfallwahrscheinlichkeit von grob 33% hat.
Und ja, klar liest der Rechner von z.B. 4 oder 6 Platten bei parallelen Operationen mit vielen Dateien von verschiedenen Platten schneller, da diese gleichzeitig lesen können und je Platte eben durch die Mechanik ziemlich limitiert sind, auf (je nach Modell) 50MB/s bis 120MB/s. Nur kommt das in vielen Fällen nicht zu oft vor, wenn man nicht gerade Filme schneidet oder Streams umkodiert usw. Meist werden die Daten dann doch von einer Platte gelesen, etwa wenn man ein Spiel Startet, Fotos bearbeitet etc.
Und genau hier wäre es IMHO sinnvoller seine mehrere Platten nicht einfach so in den Rechner zu hängen sondern ein RAID5 oder eventuell sogar RAID6 daraus zu machen.
Oder halt eine SSD zu nutzen. Da gibts mehr Durchsatz und mehr Datensicherheit. Sogar wesentlich mehr als mit nur einer Platte.
(Bei der SSD gilt auch generell: Je größer und je weniger voll desto länger lebt sie im Verhältnis.)
Ich gebe deiner Argumentation ja recht, dass mit der Anzahl der unterschiedlichen Platten die Wahrscheinlichkeit erhöht wird, dass etwas kaputt geht. Aber bei geschickter Aufteilung der Daten verringert sich mit der Anzahl der Platten die Wahrscheinlichkeit dass etwas wichtiges kaputt geht wesentlich.
Ich gebe deiner Argumentation ja recht, dass mit der Anzahl der unterschiedlichen Platten die Wahrscheinlichkeit erhöht wird, dass etwas kaputt geht. Aber bei geschickter Aufteilung der Daten verringert sich mit der Anzahl der Platten die Wahrscheinlichkeit dass etwas wichtiges kaputt geht wesentlich.
Nach Deiner und Shirleys Logik ist dem nicht so. Es geht genauso viel "kaputt" wenn nicht nach Shireys Annahme noch mehr (33% statt 5% bei einer Platte)
Wenn man die Daten geschickt auf mehrere physisch voneinander getrennten Platten aufteilt (System, Cache, Programme, Persönliche Dateien), dann verringert sich insgesamt die Wahrscheinlichkeit wesentlich, dass die Partition mit den wichtigen Daten (in diesem Beispiel "persönliche Dateien") kaputt geht.
Unabhängig davon, ob die Wahrscheinlichkeit dass irgend eine der Platten kaputt geht, insgesamt möglicherweise steigt oder nicht.
Die Anzahl der Zugriffe, die Wärmeentwicklung, die Abnutzung und vieles mehr sinkt massiv, wenn man die Daten auf mehrere Platten aufteilt, wodurch insgesamt die einzelnen Platten weniger stark genutzt werden.
Unbenutzte Platten fallen nicht aus.