• Bitte schaltet eure Ad Blocker aus. SLinfo kann nur betrieben werden, wenn es durch Werbung Einnahmen erzielt. Vielen Dank!!
  • Wir freuen uns, wenn du dich in unserem Forum anmeldest. Bitte beachte, dass die Freigabe per Hand durchgeführt wird (Schutz vor Spammer). Damit kann die Freigabe bis zu 24 Stunden dauern.
  • Wir verwenden Cookies, um Inhalte und Anzeigen zu personalisieren, Funktionen für soziale Medien anbieten zu können und die Zugriffe auf unsere Website zu analysieren. Sie geben Einwilligung zu unseren Cookies, wenn Sie unsere Webseite weiterhin nutzen.

Der junfräuliche PC

Meine "Müllhalde" besteht aus dutzenden alter CD's die früher mal als Datenspeicher herhalten mussten. Kein Plan was da noch so alles drauf ist.
 
SSD teilen, wie schon geschrieben: never.
Alles zum Arbeiten und/oder Spielen da drauf.
Wenn du etwas Übersicht haben willst, kannst du wie ich eigene Ordner anlegen.
z.B.: C:/ EIGENE_PROGRAMME und EIGENE SPIELE.
Alle deine Dokumente, Fotos, Downloads auf die HDD. Die kannst du nach Belieben teilen,
macht aber heute auch nicht mehr sooo viel Sinn.
Diese Aufteilung hat den Vorteil, dass, wenn die SSD mal abkackt, durch Infizierung oder einfach durch kaputt,
sind deine Daten, Fotos usw. immer noch sicher auf der zweiten Platte.
 
Ich selbst halte inzwischen von mehreren Partitionen auf einer Festplatte garnichts mehr.

oha, dann bin ich ein ewig gestriger
23.gif


500 Samsung 840 SSD
C/ Windoof
F/ Programme - Games - SL
(die Programm und Spiele die ich am häufigsten nutze)
T/ Skyrim + ESO Programm-Partition

3 TB Seagate
G/ Games
H/ Homepage
J/ Second Life
K/ Sixx - Bilder Video etc
M/ Multimedia und Musik
S/ Skyrim Mods und Tools
Y/ Downloads

4TB Samsung iwas
X/ Serien, Filme, Programme, Sicherung, Dokus, Spiele ISO etc

750GB MD07500 ehem Systemplatte
D/ Tools
E/ Programme
/ altes Win 7

und etliche weitere externe USB Platten..

Warum diese Aufteilung ? Weil ich das schon seit ewigen Jahren so habe. Meine letzten Windows-Neuinstallation
liegt Jaaaaahre zurück. Hab auch schon überlegt das alles mal zu ändern, aber das wäre ein riesen Auwand für
mich und da hab ich keine Lust zu.. Alles ist schön unterteilt, alles ist verlinkt und verknüpft, alles ist in Ordner
sortiert, selbst im Startmenü.. Das wird gehegt und gepflegt.. nur die Platten wurden im laufe der Zeit immer
größer und somit auch die Partitionen. Die Systemplatte wird regelmäßig 1zu1 inkl Bootsektor etc kopiert, so das
ich bei einem Ausfall meiner Systemplatte nur einen Tausch der Platten vornehmen muss und hoffentlich ohne
größer Verluste (abhängig von letzten Backup, Daten sind eh auf anderen Platten) sofort weiter machen kann..

Diesen Gau hatte ich auch nur einmal vor zig Jahren, aber dank Backup ohne großen Ärger darüber. Hier und da
vielleicht mal den Bootsektor verloren, aber der läßt sich normal recht gut reparieren (führte dann aber oft zum
Wechsel der Systemplatte gegen eine neue Platte)

Ich bin ein absoluter Gegner von "mal eben System neu aufsetzten" Da gehn mir die Nackenhaare hoch wenn ich
diese Pseudotipps von angeblichen Experten in so manchen Foren lese und das bei kleinsten Problemen. Klar kann
man machen wenn man nicht viel installiert hat, aber wenn es in Arbeit ausartet dann besser nicht..

Naja bisher läuft mein System sehr gut und stabil. Kaum Probleme und wenn konnte ich die eigentlich immer gut
in Griff bekommen, selbst als mich mal der Bundestrojaner erwischt hat (die Sau). Aber Viren und Co haben bei mir
kein Zuhause.

Letzte Neuinstallation war (glaube) bei mir als ich Win XP aufgespielt habe, seit dem immer Update auf neues Windows
bis jetzt hin zum Windoof 7.. Das 10er erspare ich mir im Moment, das ist für mich uninteressant..

Daumen drücken das es weiter so gut läuft
26.gif

Sollte ich mal bei Null anfangen müssen, hab ich wohl Monate miese und schlechte Laune und ärger mich bei
jeder Benutzung, weil alles weg ist - und das kann ich sehr gut
24.gif


Bei meinem Laptop sieht das dann aber wieder komplett anders aus. Da hab ich eh nur sehr wenig drauf, daher ist es da
nicht sooo tragisch mal platt machen zu müssen, so wie vor einigen Wochen...
 
Man kann SSDs problemlos in mehrere Partitionen aufteilen.
Der einzige nennenswerte Nachteil kann sich ergeben, wenn eine dieser Partitionen dann wesentlich weniger genutzt wird als die anderen, da dann die anderen Partitionen schneller "abnutzen". Weil das Wear Leveling (die automatische Verteilung der Schreibvorgänge auf die gesamte Platte, damit nicht bestimmte Teile schneller "abnutzen" als andere) meinen Informationen nach immer nur innerhalb der jeweiligen Partition arbeitet.
Aber man kann die Platte dann einfach in ein paar Jahren neu in Partitionen aufteilen, und schon ist alles wieder gut.

Ich denke nicht dass es wirklich wesentlichen Einfluss auf die Schreib- und Lese-Geschwindigkeit hat, wenn man mehrere Partitionen auf einer SSD erstellt. Das kann man aber im Zweifelsfall ganz leicht selbst mit der eigenen SSD im Detail testen, indem man eine sehr große Datei einmal vor, und einmal nach dem Aufteilen in Partitionen verschiebt. Das Ergebnis wird vermutlich je nach Controller, Software und Speicherart stark variieren.

Kurz: ob man die SSD in mehrere Partitionen aufteilt oder nicht, ist mehr eine Frage der Übersichtlichkeit und des persönlichen Geschmacks, als eine technische.
Nachteil ist es natürlich, wenn einem irgendwann auf einer der Partitionen der Platz ausgeht, aber man kann die Partitionsgrößen nachträglich relativ leicht ändern.

Ich empfehle immer separate Platten zu verwenden, da sie sich leichter austauschen lassen, und im Fall von Defekten dann auch nur die jeweilige Platte kaputt ist. Und es ist kaum teurer, etwa bei der Samsung EVO beispielsweise liegen die 500GB, die 1TB und die 2TB-Variante preislich je Gigabyte praktisch gleichauf. Andererseits ist eine 2TB Samsung EVO jedoch eine schöne Schwanzverlängerung :D
 
Wie erwähnt: Je mehr Platten, auf die man seine Daten verteilt, desto höher die Wahrscheinlichkeit, dass ein Teil der Daten futsch ist. Deswegen ist es eigentlich immer besser weniger Platten im System zu haben. Bei den SSD kommt noch dazu, dass große SSD normal länger halten als kleine. Einfach weil es da länger dauert bis alle Zellen gleichmäßig "abgenutzt" sind.

Das Wear Leveling der SSD hängt dabei ein bisschen von der Platte ab und dem Controller - aber normal geht das über die ganze Platte, nicht nur innerhalb der einen Partition, das läuft quasi "transparent" im Hintergrund ab, auf der Controller-Ebene. Ein Problem bei der Wiederherstellung der SSD ist ja eben, dass die Daten dort nicht wie bei der Festplatte "am Stück" irgendwo in einer Partition liegen. Die sind bei der SSD in kleinen Blöcken wahllos über die gesamte SSD verstreut. Und es gibt keine konstante Zuordnung wie noch bei bei der HDD: So dass ein Block aus Partition a1 direkt neben einem Block aus Partition b liegen kann, gefolgt von wieder einem Block von a2. Und nur der Controller weiß überhaupt wo welcher Block im Speicher liegt. Den Speicher Stück für Stück auszulesen (was auch bei einer SSD im Prinzip immer noch geht) bringt so leider überhaupt nichts mehr. Während man bei der HDD noch ziemlich viele Daten retten kann.
Das heißt auch, dass es bei der SSD keine "wenig beanspruchte Partition" gibt.

Was meist nur innerhalb einer Partition arbeitet ist allerdings das TRIM, bei dem nicht mehr genutzte Zellen/Bereiche als solches markiert werden. Die haben mit dem wear leveling allerdings nur bedingt zu tun und beschleunigen die SSD ein klein bisschen weil unnützer Mist nicht mehr berücksichtigt werden muss.
 
Ist eigentlich unwichtig, Yuna.
Eigentlich bekräftigen die beiden Posts nur, was vorher schon geschrieben wurde.
Man kann eine SSD Platte partitionieren, aber es macht keinen Sinn und könnte sich eventuell, gewissermaßen, vielleicht negativ auswirken.
Muss nicht, aber kann passieren.
Das wäre die Übersetzung für ONUs wie mich. (ONU = OttoNormalUser)
 
Also... eine SSD besteht aus einer festen Anzahl an Speicherzellen, die wiederum eine feste Kapazität haben. Diese Speicherzellen können beliebig oft gelesen, aber nicht beliebig oft beschrieben werden. Mit anderen Worten: sie halten nur eine gewisse Anzahl an Schreibvorgängen aus, dann gehen sie kaputt. Bei den Consumer-SSDs gehen die Zahlen da auseinander, irgendwas um 1000 bis 3000 Zyklen pro Zelle.

Was macht die SSD also, um möglichst lange zu überleben? Sie führt intern darüber Buch, wie oft schon welche Zelle genau beschrieben wurde und versucht, die Zahl pro Zelle möglichst gleichmäßig wachsen zu lassen. Weiterhin haben SSDs meist ca. 10% der Nennkapaziutät an Reserverzellen verbaut, die erst dann genutzt werden, wenn eine Zelle kaputt ist.

Und diese gleichmäßige Abnutzung der Zellen ist das, was man als Wear-Leveling bezeichnet.

TRIM dagegen ist ein Befehl, mit dem das Betriebssystem der SSD sagt, dass es ungenutzte Datenblöcke gibt, die überschrieben werden können, darauf hin werden diese gelöscht. Das ist bauartbedingt notwendig, weil Dateisysteme normal das Überschreiben bei Festplatten nur intern festhalten, und der Bereich dann einfach überschrieben wird. Bei SSDs aber funktioniert das eben nicht, da die Daten ja ständig woanders geschrieben werden und das Betriebssystem darauf keinen Einfluss hat, müssen diese Blöcke explizit wieder frei gegeben werden. Außerdem sind Schreibvorgänge in völlig leeren Zellen schneller. Also ist es dank TRIM besser, man löscht den Datenblock direkt beim Löschen als erst beim neuen Schreiben, das ist dann Auslesen, Löschen, neu Schreiben und zieht die Leistung der SSD herab.

Jedenfalls moderne Betriebssysteme nutzen TRIM automatisch - bis auf Mac OS X. Mac OS X schaltet TRIM nur bei den SSDs automatisch ein, die Apple offziell unterstützt, bei anderen muss man es erst aufwendig per Hand einschalten. Erst mit El Capitan (10.11) wird Apple dieses kundenfeindliche Verhalten aufgeben.
 
Zuletzt bearbeitet:
Ist eigentlich unwichtig, Yuna.
Eigentlich bekräftigen die beiden Posts nur, was vorher schon geschrieben wurde.
Man kann eine SSD Platte partitionieren, aber es macht keinen Sinn und könnte sich eventuell, gewissermaßen, vielleicht negativ auswirken.
Muss nicht, aber kann passieren.
Das wäre die Übersetzung für ONUs wie mich. (ONU = OttoNormalUser)

Bei einer klassischen Festplatte laden Daten aus Partitionen in bestimmten Bereichen der Festplatte schneller, da sich die Datensektoren weiter außen mit höherer Geschwindigkeit drehen. Hier sind Partitionen auch noch feste Bereiche, so dass das lesen/schreiben in diesen Partitionen zu relativ geringen Bewegungen der Lese/Schreib-Köpfe führt, auch das beschleunigt die Datenrate noch mal, die Daten sind dank den festen Bereichen auch leicht wieder herstellbar. Zumindest solange die Sektoren in den Bereichen noch nicht wieder überschrieben wurden.

Bei der SSD sieht es anders aus: Partitionen haben auf die Geschwindigkeit einer SSD keine Auswirkung, eben weil die Daten eh über die ganze SSD verstreut sind. Geschwindigkeitsvorteile gibts hier nicht mehr. Und auch das wiederherstellen funktioniert hier nicht mehr Sektor für Sektor. Beim Wear Leveling, der gleichmäßigen Abnutzung, macht das auch keinen Unterschied.
So dass der Einzige Sinn von verschiedenen Partitionen auf einer SSD eben in bisschen mehr Ordnung oder eben im Nutzen verschiedener Systeme besteht.

Wirkliche Nachteile hat man durch die Partitionierung einer SSD aber in der Praxis eher nicht.
 
Aber eben auch keine wirklichen Vorteile.
Im Sinne von Ordnung und Übersicht erfüllen Ordner den gleichen Zweck auf einer SSD.
Auf einer mechanischen HDD macht es keinen Sinn zu partitionieren, wenn sie nur als Lagerhalle genutzt wird.
Es sei denn, man will 10 Milliarden Fotos bunkern oder eine 1 Million kleine Videoclips.
Das wollte ich hauptsächlich ausdrücken.
 
Wie erwähnt: Je mehr Platten, auf die man seine Daten verteilt, desto höher die Wahrscheinlichkeit, dass ein Teil der Daten futsch ist. Deswegen ist es eigentlich immer besser weniger Platten im System zu haben. Bei den SSD kommt noch dazu, dass große SSD normal länger halten als kleine. Einfach weil es da länger dauert bis alle Zellen gleichmäßig "abgenutzt" sind.

Das Wear Leveling der SSD hängt dabei ein bisschen von der Platte ab und dem Controller - aber normal geht das über die ganze Platte, nicht nur innerhalb der einen Partition, das läuft quasi "transparent" im Hintergrund ab, auf der Controller-Ebene. Ein Problem bei der Wiederherstellung der SSD ist ja eben, dass die Daten dort nicht wie bei der Festplatte "am Stück" irgendwo in einer Partition liegen. Die sind bei der SSD in kleinen Blöcken wahllos über die gesamte SSD verstreut. Und es gibt keine konstante Zuordnung wie noch bei bei der HDD: So dass ein Block aus Partition a1 direkt neben einem Block aus Partition b liegen kann, gefolgt von wieder einem Block von a2. Und nur der Controller weiß überhaupt wo welcher Block im Speicher liegt. Den Speicher Stück für Stück auszulesen (was auch bei einer SSD im Prinzip immer noch geht) bringt so leider überhaupt nichts mehr. Während man bei der HDD noch ziemlich viele Daten retten kann.
Das heißt auch, dass es bei der SSD keine "wenig beanspruchte Partition" gibt.

Was meist nur innerhalb einer Partition arbeitet ist allerdings das TRIM, bei dem nicht mehr genutzte Zellen/Bereiche als solches markiert werden. Die haben mit dem wear leveling allerdings nur bedingt zu tun und beschleunigen die SSD ein klein bisschen weil unnützer Mist nicht mehr berücksichtigt werden muss.

Es ist mathematisch korrekt, dass je mehr GB man hat (und wenn man seine Daten auf mehrere Platten aufteilt, hat man auch mehr GB als wenn man nur eine Platte hat, da man ja nie die gesamte Platte bis zum letzten Byte voll schreibt), desto höher die Wahrscheinlichkeit dass ein GB (eine Platte) davon ausfällt, rein rechnerisch. Aber: wenn man die Daten aufteilt, dann werden die einzelnen Platten weniger beansprucht, und bei mechanischen Platten muss der Lesekopf auch weniger herumspringen. Es entsteht weniger Wärmeentwicklung, und die Wärme kann besser abtransportiert werden, da zwischen den Platten die Luft zirkulieren kann.
Zudem muss man bei einem Defekt nur einen Teil wiederherstellen, die Lebensdauer erhöht sich, und es sind nicht alle Daten verloren, im Fall eines Totalverlusts einer Platte.

Also rein rechnerisch hat Shirley in der Theorie recht, in der Praxis bei einem Home PC ist es wohl trotzdem von Vorteil, die logisch zusammengehörigen Daten (Programme, Cache, System, Downloads, persönliche Dateien) auf jeweils eigenständige Festplatten aufzuteilen, schon alleine deshalb, weil z.B. Programme, Downloads, Cache und System ersetzt werden können. Es ist nicht schlimm, wenn die jeweilige Platte kaputt geht, weil kaum persönliche Dateien darauf sind, wenn man darauf achtet wo die Programme hinschreiben (etwa im Fall von Second Life, wo man entweder den Chatlogordner auf der "Persönliche Dateien" -Partition hinterlegt, oder zumindest regelmäßig Backups macht).

Und weil System, Programme und Cache extrem viele Zugriffe erzeugen, persönliche Dateien hingegen nicht.

Das Aufteilen der SSD in Partitionen hat noch einen Vorteil: wenn man versehentlich bei Experimenten (z.B. so wie ich die Tage mit Linux experimentiere) eine Partition löscht, dann ist alles andere noch da. Das muss eben jeder für sich entscheiden.

Ich bleibe dabei: bei einem Home PC empfiehlt es sich, für logisch zusammengehörige Daten am besten jeweils eigenständige Festplatten zu verwenden. Dadurch läuft der Rechner schneller, und die einzelnen Platten halten länger (gerade mechanische Platten mögen Hitzeentwicklung überhaupt nicht). Und bei einem Totalausfall einer Platte sind alle anderen Daten noch intakt.
Auch vollständige Backups lassen sich so einfacher bewerkstelligen (z.B. vom Cache benötigt man kein Backup, und von der Systempartition wesentlich seltener als von den persönlichen Dateien...).
 
Es steht dir frei eben mal 5 Platten in dein System zu hängen. Aber die Ausfall-Wahrscheinlichkeit hat nichts direkt mit den GB zu tun, die man im System hat, sondern in erster Linie wirklich mit der Anzahl der Platten.

Das liegt mit daran, dass die Hersteller eben die HDDs (wie auch andere technische Geräte im Consumerbereich) üblicherweise nicht so produzieren, dass 100% der Platten über die Garantiezeit voll durchlaufen. Das wäre machbar, aber leider furchtbar teuer. Also legt man Geräte üblicherweise so aus, dass eben die allermeisten Geräte die Garantiezeit bzw. die beworbene Leistung schaffen, z.B. 95,5%. [Man nimmt da bei der Qualitätssicherung +/-2s um die Fertigungstoleranzen einzustellen. Und wenn es mit den restlichen bis zu 4.5%, dann kriegen die Betroffenen eben eine Ersatzplatte.] Und so werden alle Platten produziert.

Die Hersteller geben als zulässige Datenfehlerrate meist auch bei allen Platten pauschal etwas wie "1 per 10E14 bits" an, d.h hier macht es keinen Unterschied ob man seine 4TB im Rechner auf eine Platte legt oder über 8 Stück verteilt. Die Fehlerwahrscheinlichkeit ist in beiden Fällen ähnlich hoch.
Nur kommt zusätzlich zur Fehlerwahrscheinlichkeit durch falsch gelesene/geschriebene Bits eben noch der Faktor Controller und der Faktor Mechanik dazu. Wobei sich die Mechanik einer 4TB in den essentiellen Teilen nicht wesentlich von der einer 500GB Platte unterschiedet. Die 4TB Platte hat höchstens bisschen höhere Speicherdichte und eine Platte mehr im Gehäuse.
So hat man wie schon erwähnt mit einer Platte eine Ausfallwahrscheinlichkeit von 5% über 5 Jahre, während man mit 8 Platten immerhin eine Ausfallwahrscheinlichkeit von grob 33% hat.

Und ja, klar liest der Rechner von z.B. 4 oder 6 Platten bei parallelen Operationen mit vielen Dateien von verschiedenen Platten schneller, da diese gleichzeitig lesen können und je Platte eben durch die Mechanik ziemlich limitiert sind, auf (je nach Modell) 50MB/s bis 120MB/s. Nur kommt das in vielen Fällen nicht zu oft vor, wenn man nicht gerade Filme schneidet oder Streams umkodiert usw. Meist werden die Daten dann doch von einer Platte gelesen, etwa wenn man ein Spiel Startet, Fotos bearbeitet etc.

Und genau hier wäre es IMHO sinnvoller seine mehrere Platten nicht einfach so in den Rechner zu hängen sondern ein RAID5 oder eventuell sogar RAID6 daraus zu machen.
Oder halt eine SSD zu nutzen. Da gibts mehr Durchsatz und mehr Datensicherheit. Sogar wesentlich mehr als mit nur einer Platte.

(Bei der SSD gilt auch generell: Je größer und je weniger voll desto länger lebt sie im Verhältnis.)
 
Es ist mathematisch korrekt, dass je mehr GB man hat (...) desto höher die Wahrscheinlichkeit dass ein GB (eine Platte) davon ausfällt,

Das ist nach der Wahrscheinlichkeit nachvollziehbar.

... (und wenn man seine Daten auf mehrere Platten aufteilt, hat man auch mehr GB als wenn man nur eine Platte hat, da man ja nie die gesamte Platte bis zum letzten Byte voll schreibt) ...
Ich bleibe dabei: bei einem Home PC empfiehlt es sich, für logisch zusammengehörige Daten am besten jeweils eigenständige Festplatten zu verwenden.

Also ich würde sagen das im Homebereich überdurchschnittlich eher nur ein Festplatte in den Systemen verbaut ist. In Notebook-PCs passen meistens nur eine Festplatte. Eher 17" Geräte fassen zwei Festplatten, wo es dann evt. Sinn macht eine SSD und eine Mechanische zu nutzen.
Nicht nur in Mobilen PCs, sondern auch im Desktop-PC-Bereich wird immer mehr auf SSD gesetzt und weniger auch mechanische Laufwerke. Auch die werden immer kleiner.

Die Aufteilung von Nutzungsbereichen auf mehrere Laufwerke macht eher im Server und gewerblichen Bereich Sinn. Das erhöht die Skalierbarkeit und Ausfallsicherheit.

Das Aufteilen der SSD in Partitionen hat noch einen Vorteil: wenn man versehentlich bei Experimenten (z.B. so wie ich die Tage mit Linux experimentiere) eine Partition löscht, dann ist alles andere noch da. Das muss eben jeder für sich entscheiden.

Das kann bei herkömmlichen Konsumer SSDs eher die Lebensdauer stark verkürzen. SSDs sollten nicht so oft neu partitioniert und formatiert werden. Wenn die defekt ist, dann ist auf keine der Partitionen noch ein Zugriff möglich. SSDs funktionieren logisch anders als mechanische Laufwerke.
Anders sieht es bei SSDs für den professionellen Einsatz aus.

Damit Laufwerke generell länger halten sollten diese nicht mit mehr als bis zu 75% der Gesamtkapazität beschrieben werden. Sie werden dann nicht nur langsamer, sondern werden auch fehleranfälliger.
 
Zuletzt bearbeitet:
Es steht dir frei eben mal 5 Platten in dein System zu hängen. Aber die Ausfall-Wahrscheinlichkeit hat nichts direkt mit den GB zu tun, die man im System hat, sondern in erster Linie wirklich mit der Anzahl der Platten.

Das liegt mit daran, dass die Hersteller eben die HDDs (wie auch andere technische Geräte im Consumerbereich) üblicherweise nicht so produzieren, dass 100% der Platten über die Garantiezeit voll durchlaufen. Das wäre machbar, aber leider furchtbar teuer. Also legt man Geräte üblicherweise so aus, dass eben die allermeisten Geräte die Garantiezeit bzw. die beworbene Leistung schaffen, z.B. 95,5%. [Man nimmt da bei der Qualitätssicherung +/-2s um die Fertigungstoleranzen einzustellen. Und wenn es mit den restlichen bis zu 4.5%, dann kriegen die Betroffenen eben eine Ersatzplatte.] Und so werden alle Platten produziert.

Die Hersteller geben als zulässige Datenfehlerrate meist auch bei allen Platten pauschal etwas wie "1 per 10E14 bits" an, d.h hier macht es keinen Unterschied ob man seine 4TB im Rechner auf eine Platte legt oder über 8 Stück verteilt. Die Fehlerwahrscheinlichkeit ist in beiden Fällen ähnlich hoch.
Nur kommt zusätzlich zur Fehlerwahrscheinlichkeit durch falsch gelesene/geschriebene Bits eben noch der Faktor Controller und der Faktor Mechanik dazu. Wobei sich die Mechanik einer 4TB in den essentiellen Teilen nicht wesentlich von der einer 500GB Platte unterschiedet. Die 4TB Platte hat höchstens bisschen höhere Speicherdichte und eine Platte mehr im Gehäuse.
So hat man wie schon erwähnt mit einer Platte eine Ausfallwahrscheinlichkeit von 5% über 5 Jahre, während man mit 8 Platten immerhin eine Ausfallwahrscheinlichkeit von grob 33% hat.

Und ja, klar liest der Rechner von z.B. 4 oder 6 Platten bei parallelen Operationen mit vielen Dateien von verschiedenen Platten schneller, da diese gleichzeitig lesen können und je Platte eben durch die Mechanik ziemlich limitiert sind, auf (je nach Modell) 50MB/s bis 120MB/s. Nur kommt das in vielen Fällen nicht zu oft vor, wenn man nicht gerade Filme schneidet oder Streams umkodiert usw. Meist werden die Daten dann doch von einer Platte gelesen, etwa wenn man ein Spiel Startet, Fotos bearbeitet etc.

Und genau hier wäre es IMHO sinnvoller seine mehrere Platten nicht einfach so in den Rechner zu hängen sondern ein RAID5 oder eventuell sogar RAID6 daraus zu machen.
Oder halt eine SSD zu nutzen. Da gibts mehr Durchsatz und mehr Datensicherheit. Sogar wesentlich mehr als mit nur einer Platte.

(Bei der SSD gilt auch generell: Je größer und je weniger voll desto länger lebt sie im Verhältnis.)


Ich gebe deiner Argumentation ja recht, dass mit der Anzahl der unterschiedlichen Platten die Wahrscheinlichkeit erhöht wird, dass etwas kaputt geht. Aber bei geschickter Aufteilung der Daten verringert sich mit der Anzahl der Platten die Wahrscheinlichkeit, dass etwas wichtiges kaputt geht, wesentlich.
 
Ich gebe deiner Argumentation ja recht, dass mit der Anzahl der unterschiedlichen Platten die Wahrscheinlichkeit erhöht wird, dass etwas kaputt geht. Aber bei geschickter Aufteilung der Daten verringert sich mit der Anzahl der Platten die Wahrscheinlichkeit dass etwas wichtiges kaputt geht wesentlich.

Nach Deiner und Shirleys Logik ist dem nicht so. Es geht genauso viel "kaputt" wenn nicht nach Shireys Annahme noch mehr (33% statt 5% bei einer Platte)

Richtig ist aber das durch die Verwendung von mehren Laufwerken auf die Datenbereiche aufgeteilt werden, die Ausfallsicherheit besser gewährleistet ist. Wenn aber schon mehr als zwei Festplatten verwendet werden, dann stimme ich Shirey zu das ein RAID-System effektiver und sicherer ist. Die Daten werden dann in einer Ordnerstruktur aufgeteilt, nicht in Partitionen.
Nun kommt es allerdings noch darauf an welches Format verwendet wird, aber ich denke das wir von der ursprünglichen Fragestellung der TE schon sehr weit entfernt sind und solche Lösungen für Sie nicht praktikabel sind.
 
Ich gebe deiner Argumentation ja recht, dass mit der Anzahl der unterschiedlichen Platten die Wahrscheinlichkeit erhöht wird, dass etwas kaputt geht. Aber bei geschickter Aufteilung der Daten verringert sich mit der Anzahl der Platten die Wahrscheinlichkeit dass etwas wichtiges kaputt geht wesentlich.

Nach Deiner und Shirleys Logik ist dem nicht so. Es geht genauso viel "kaputt" wenn nicht nach Shireys Annahme noch mehr (33% statt 5% bei einer Platte)

Du verstehst nicht. Ich spreche davon, dass wenn man die Daten geschickt auf mehrere physisch voneinander getrennten Platten aufteilt (System, Cache, Programme, Persönliche Dateien), sich dann die Wahrscheinlichkeit insgesamt wesentlich verringert, dass die Partition mit den wichtigen Daten (in diesem Beispiel "persönliche Dateien") kaputt geht, auch wenn die Wahrscheinlichkeit dass eine der Platten kaputt geht, insgesamt möglicherweise etwas steigt.
Ob das wirklich in der Praxis so ist (die erhöhte Wahrscheinlichkeit eines Defekts), sei dahingestellt. Die Anzahl der Zugriffe, die Wärmeentwicklung, die Abnutzung und vieles mehr sinkt massiv, wenn man die Daten auf mehrere Platten aufteilt, wodurch insgesamt die einzelnen Platten weniger stark genutzt werden.
Unbenutzte Platten fallen nicht aus.
 
Zuletzt bearbeitet:
Na erkläre doch einfach was du meinst. Eine Unterstellung ich hätte das nicht (ausreichend?) gelesen bringt die Diskussion absolut nicht weiter.

Ich zitiere mich noch einmal selbst:
Wenn man die Daten geschickt auf mehrere physisch voneinander getrennten Platten aufteilt (System, Cache, Programme, Persönliche Dateien), dann verringert sich insgesamt die Wahrscheinlichkeit wesentlich, dass die Partition mit den wichtigen Daten (in diesem Beispiel "persönliche Dateien") kaputt geht.
Unabhängig davon, ob die Wahrscheinlichkeit dass irgend eine der Platten kaputt geht, insgesamt möglicherweise steigt oder nicht.

Die Anzahl der Zugriffe, die Wärmeentwicklung, die Abnutzung und vieles mehr sinkt massiv, wenn man die Daten auf mehrere Platten aufteilt, wodurch insgesamt die einzelnen Platten weniger stark genutzt werden.
Unbenutzte Platten fallen nicht aus.

Ich erkläre es gerne an einem Beispiel:
Wir haben einen PC mit folgenden logisch zusammenhängenden Arten von Daten: "System" (C:/Windows), "Cache" (Auslagerungsdatei, temporäre Internetdateien, SL-Cache), "Programme", "Persönliche Dateien" (Dokumente, Eigene Dateien, Fotos).
Wenn wir alle diese Daten auf einer einzigen Platte haben, dann ist z.B. die Ausfallwahrscheinlichkeit angenommen 5%, das gilt für alle Arten von Dateien die wir auf dieser Platte geschrieben haben.

Wenn wir diese Daten auf vier separate Festplatten aufteilen, dann ist die Ausfallwahrscheinlichkeit für die wichtigen Dateien (im Beispiel die "Persönliche Dateien"-Platte), also für einen einzelnen Teil der vier Arten von Daten dieses Beispiels, grundsätzlich (zunächst einmal den von Shirley beschriebenen Effekt vernachlässigend) um 75% geringer.
Der Effekt den Shirley beschrieben hat würde die Ausfallwahrscheinlichkeit unserer Platten um 33% erhöhen, hat sie gesagt. Dem halte ich dann auch noch entgegen, dass die einzelnen Platten weniger beansprucht, weniger abgenutzt werden, wenn wir die Daten auf mehrere Platten aufgeteilt haben (weniger Hitzeentwicklung, weniger Schreibvorgänge auf einer Platte, weniger Nutzung der einzelnen Platten), was den Effekt den sie beschreibt noch zusätzlich um ein gewisses Maß verringert.

Insgesamt sind unsere "wichtigen Dateien" also besser geschützt, wenn wir die Daten auf mehrere Platten aufteilen. Die Windows-, Cache- und Programme- Platte können wir im Fall eines Ausfalls (zum Teil problemlos) austauschen. Wenn jedoch die persönlichen Dateien weg sind, ist unser Ärger ungleich größer.
 

Users who are viewing this thread

Zurück
Oben Unten