[HFR] Actu : Endurance des SSD, quid après 600 To d'écritures ?

Actu : Endurance des SSD, quid après 600 To d'écritures ? [HFR] - HFR - Hardware

Marsh Posté le 24-02-2014 à 17:45:02   0  

Nos confrères de The Tech Report poursuivent un test d'endurance de SSD entamé en Août dernier. Le principe est simple, 5 SSD sont soumis à d'importants ...
Lire la suite ...

Reply

Marsh Posté le 24-02-2014 à 17:45:02   

Reply

Marsh Posté le 24-02-2014 à 17:56:45   3  

Flippant ce soucis de donnés corrompues sur le Samsung :S


Message édité par le 24-02-2014 à 17:56:59
Reply

Marsh Posté le 24-02-2014 à 18:00:26   2  

Non du tout,à une échelle qui ferait apparaître le nombre total de bloc sur le disque ce n'est pas inquiétant.

Reply

Marsh Posté le 24-02-2014 à 18:06:40   1  

De plus, il faut les faire transiter , les 600To ...  
Il est rare de soumettre un SSD à un tel traitement :>

Reply

Marsh Posté le 24-02-2014 à 18:08:10   1  

Mon Samsung 830 à de l'avenir devant lui  :D 11 TB d'écrit en 2 ans.


---------------
Asus Mini Transformer - Intel Atom X5 X8350 1.44 GHz, 1.92 GHz Turbo - Intel HD 400 - 4 GB memory - 128 GB eMMC - Windows 10.
Reply

Marsh Posté le 24-02-2014 à 18:13:06   1  

Xenon19 a écrit :

Mon Samsung 830 à de l'avenir devant lui  :D 11 TB d'écrit en 2 ans.


500 Go d'écrit en pratiquement 2 ans sur le mien MDR ^^
Quasiment rien ne s'écrit sur mon SSD, il risque pas de se déteriorer à cette allure, à mon avis il claquera pour d'autres raisons bien avant :D


Message édité par starconsole le 24-02-2014 à 18:14:05
Reply

Marsh Posté le 24-02-2014 à 18:17:15   2  

faut combien de temps au commun des mortels pour atteindre les 600To écris ? :D
 
grillead  :lol:


Message édité par squale22 le 24-02-2014 à 18:18:36
Reply

Marsh Posté le 24-02-2014 à 19:22:39   2  


Vu que cela n'est pas reproduit(ni avec ce disque ni un autre à priori), rien n'indique que le disque soit coupable ou non coupable...

Reply

Marsh Posté le 24-02-2014 à 20:10:31   1  

C'est clair que la quantité de données écrites ne devrait pas poser de problèmes pour la quasi-totalité des utilisateurs.
Moi ce qui me fait plus flipper c'est le phénomène d'amplification des écritures. Gare à un ssd un peu trop rempli en permanence...


Message édité par gurv75 le 24-02-2014 à 20:10:53
Reply

Marsh Posté le 24-02-2014 à 20:22:28   1  

Fanfan71 a écrit :


Vu que cela n'est pas reproduit(ni avec ce disque ni un autre à priori), rien n'indique que le disque soit coupable ou non coupable...


Je cite Tech Report a propos de ce problème : "Its SMART attributes logged a considerable number of unrecoverable errors around the same time, indicating serious failures that could have led to corrupt or lost data in a real-world situation. "
 
Dire que le disque n'est peut être pas en cause ne me parait pas correct.  
 
Il y a toujours un risque lorsqu'il y'a des secteurs réalloués que l'erreur d'origine ne soit pas corrigible. C'est excessivement complexe de quantifier la probabilité du risque bien évidemment, et ce n'est pas avec trois tests qu'ils le mettront en avant. Mais si on admet que la probabilité qu'un secteur défectueux soit irréparable est égale sur tous les modèles, le simple fait que le Samsung ait un plus grand nombre de secteurs réalloués multiplie les chances d'erreurs.
 
Maintenant, on peut relativiser sur le fait que les secteurs défectueux ne sont pas arrivés avant 100 To, ce qui représente une quantité considérable d'écritures, mais je pense que la quantité de secteurs réalloués est un point intéressant sur la question de l'endurance TLC/MLC.

Reply

Marsh Posté le 24-02-2014 à 20:22:28   

Reply

Marsh Posté le 24-02-2014 à 21:53:45   1  

Du coup quand on voit une telle endurance, y a t'il encore un interret a "tuner" windows pour économiser le SSD (hormis le defrag en moins)

Reply

Marsh Posté le 24-02-2014 à 22:20:38   0  

non aucun et on le sait depuis longtemps

Reply

Marsh Posté le 24-02-2014 à 22:58:05   0  

C_Wiz a écrit :


Il y a toujours un risque lorsqu'il y'a des secteurs réalloués que l'erreur d'origine ne soit pas corrigible. C'est excessivement complexe de quantifier la probabilité du risque bien évidemment, et ce n'est pas avec trois tests qu'ils le mettront en avant. Mais si on admet que la probabilité qu'un secteur défectueux soit irréparable est égale sur tous les modèles, le simple fait que le Samsung ait un plus grand nombre de secteurs réalloués multiplie les chances d'erreurs.
 
Maintenant, on peut relativiser sur le fait que les secteurs défectueux ne sont pas arrivés avant 100 To, ce qui représente une quantité considérable d'écritures, mais je pense que la quantité de secteurs réalloués est un point intéressant sur la question de l'endurance TLC/MLC.


C'est bien vrai. D'autant que la mémoire MLC n'est pas le top non plus. Les gammes pro sont souvent (toujours?) équipées de SLC ;)


Message édité par Tigrou le 24-02-2014 à 23:14:32

---------------
Feedback - Stacy's mom
Reply

Marsh Posté le 24-02-2014 à 23:33:04   0  

Tigrou a écrit :

C_Wiz a écrit :


Il y a toujours un risque lorsqu'il y'a des secteurs réalloués que l'erreur d'origine ne soit pas corrigible. C'est excessivement complexe de quantifier la probabilité du risque bien évidemment, et ce n'est pas avec trois tests qu'ils le mettront en avant. Mais si on admet que la probabilité qu'un secteur défectueux soit irréparable est égale sur tous les modèles, le simple fait que le Samsung ait un plus grand nombre de secteurs réalloués multiplie les chances d'erreurs.
 
Maintenant, on peut relativiser sur le fait que les secteurs défectueux ne sont pas arrivés avant 100 To, ce qui représente une quantité considérable d'écritures, mais je pense que la quantité de secteurs réalloués est un point intéressant sur la question de l'endurance TLC/MLC.


C'est bien vrai. D'autant que la mémoire MLC n'est pas le top non plus. Les gammes pro sont souvent (toujours?) équipées de SLC ;)


Le monde pro tend vers la eMLC aussi.


Message édité par the Grim Reaper le 24-02-2014 à 23:33:24
Reply

Marsh Posté le 25-02-2014 à 00:14:51   0  

Je me demande au bout de combien de temps on atteint 100To en swappant, exemple du traitement d'images, retouche etc. en très grosse résolution et grosse quantité sur une bécane avec "seulement" 8Go de RAM. Est-ce que les noyaux de Windows 7, 8, 8.1 etc. sont optimisés pour le swap sur SSD également, et savent-ils que les blocs font 1.5Mio ou je ne sais pas combien :D.
 
C'est un peu effrayant, si l'on swappe par blocs de 4Ko, il faut regarder où l'on met les pieds. Sur le 840, les blocs de flash sont 384 fois plus gros. Au moins, la nature purement aléatoire des accès et le firmware sensé tenir compte de ça peuvent pallier un peu.

Reply

Marsh Posté le 25-02-2014 à 07:31:50   3  

Très intéressant, il faut bien veiller à choisir des ssd MLC, reste à savoir si l'information est facilement trouvable sur les sites!

Reply

Marsh Posté le 25-02-2014 à 13:42:48   0  

gouik a écrit :

Très intéressant, il faut bien veiller à choisir des ssd MLC, reste à savoir si l'information est facilement trouvable sur les sites!


 
Et pourquoi donc ?
Le 840 fonctionne encore parfaitement après 600 To d'écritures, chiffre qu'aucun particulier n'atteindra, et de loin (sauf cas très particulier).
 
EDIT : ah non, zut...


Message édité par Nulenlatin le 26-02-2014 à 14:21:00
Reply

Marsh Posté le 25-02-2014 à 14:24:44   0  

Bien content de voir le résultat du gtx :D
 
Pas pour rien qu'il est garanti 5 ans.

Reply

Marsh Posté le 25-02-2014 à 14:41:18   1  

Comme quoi les MLC sont clairement meilleurs que les TLC :)
Bon après le commun des mortels n'écrivent pas 600 To donc faut plus regarder le % de retour ...

Reply

Marsh Posté le 25-02-2014 à 15:11:17   1  

Nulenlatin a écrit :

Et pourquoi donc ?
Le 840 fonctionne encore parfaitement après 600 To d'écritures

C'est faux. Il y a eu des erreurs non recouvrables et donc pertes de données. Cf mon message précédent et la citation de Tech Report.

Reply

Marsh Posté le 25-02-2014 à 16:12:21   2  

Il était évident que 1000 cycles d'écriture c'est pas terrible. À ne pas mettre entre les mains d'un poweruser.
 
Entre 100 et 150 To le samsung 840 250GB est donc à considérer comme en fin de vie car il donne un risque de perte de données.

Message cité 1 fois
Message édité par ledesillusionniste le 26-02-2014 à 00:14:27
Reply

Marsh Posté le 25-02-2014 à 19:08:27   0  

ledesillusionniste a écrit :

Entre 100 et 150 To le samsung 840 250GB est donc à considérer comme jetable. Car risque de perte de données.


 
C'est un poil sévère, déjà il est impossible de conclure quoique vis à vis d'un modèle, chaque modèle n'est testé qu'à un exemplaire.
Je conçois que l'on dise que le risque de perte de donnée est plus grand et plus rapide avec les TLC, mais ça on le savait déjà sans faire de test, c'est même annoncé. Ce que je trouve vraiment intéressant, c'est la forme de la courbe vraiment très linéaire et qui parait donc très prévisible, mais cela reste à vérifier sur une série...


Message édité par Fanfan71 le 25-02-2014 à 19:58:58
Reply

Marsh Posté le 25-02-2014 à 21:03:05   0  

ledesillusionniste a écrit :

Il était évident que 1000 cycles d'écriture c'est pas terrible. À ne pas mettre entre les mains d'un poweruser.
 
Entre 100 et 150 To le samsung 840 250GB est donc à considérer comme jetable. Car risque de perte de données.


En utilisation "bureautique", cela m'étonnerait que l'on dépasse les 10 To/an. (sur mes 830, j'en suis à 9 To en 2 ans).
Soit donc une durée d'au moins 10 ans.
Et à mon avis, dans 10 ans, il aura été déjà remplacé, voire même tombé HS non pas à cause de ses mémoires mais à cause du contrôleur par ex (ou parce que le  
firmware n'était pas parfait), comme souvent on peut le voir sur les pannes de SSD.
 
C'est souvent autre chose que la mémoire qui lâche avant, ... malheureusement.
 
Et cela ne s'applique pas QUE pour le Samsung.
 
Bref, pas vraiment de quoi s'inquiéter, du moins pour le grand public.
Quant aux pros, ils éviteront surement les SSD à base de TLC.


Message édité par wgromit le 25-02-2014 à 21:05:47
Reply

Marsh Posté le 25-02-2014 à 21:07:29   0  

C_Wiz a écrit :

C'est faux. Il y a eu des erreurs non recouvrables et donc pertes de données. Cf mon message précédent et la citation de Tech Report.


Ces erreurs non recouvrables peuvent elles être dues à un mauvais firmware ?
(et donc potentiellement corrigeable par mise à jour du firmware).


Message édité par wgromit le 25-02-2014 à 21:07:49
Reply

Marsh Posté le 26-02-2014 à 04:51:31   0  

J'en suis a 6 to en 2 mois d'usage courant avec le 840 donc il me reste encore 4 ans avant de m'inquieter?
Je pense que d'ici la j'aurais probablement deja change de ssd.

Reply

Marsh Posté le 26-02-2014 à 09:36:17   1  

le wear_leveling_count  de mon samsung  840 pro 128 go annonce 30  en 10 mois .  ce qui signifirait que j'ai ecrit environ 4 To sur le ssd  ce qui est impossible .  J'ai plusieurs partitions  , un swap linux , 2 / et 2 /home .  Un des /home que j'utilise le plus souvent fait 40 Go  ,  40 go *30 = 1200 Go ce qui semble plus proche de la réalité ( Si je regarde Total_LBAs_Written j'ai 3128660609 ce qui correspond à environ à 1491 Go  ). Ceci indiquerait que le firmware gère mal la présence de partitions !  Si c'est vraiment le cas  il faudrait ajouter aux tests de durabilité le comportement des firmwares en présence de partitions .  
 
edit: le swap est rarement utilisé  


Message édité par moment_magnetique le 26-02-2014 à 09:58:47
Reply

Marsh Posté le 26-02-2014 à 12:40:41   2  

wgromit a écrit :

Ces erreurs non recouvrables peuvent elles être dues à un mauvais firmware ?
(et donc potentiellement corrigeable par mise à jour du firmware).

Ca parait excessivement fortement improbable.

Reply

Marsh Posté le 26-02-2014 à 13:29:39   0  

moment_magnetique a écrit :

Ceci indiquerait que le firmware gère mal la présence de partitions !


 
Je dis peut-être une bétise, mais je ne pense pas que le partitionnement ait un impact dans le firmware d'un disque (SSD ou pas).  
 
Pour revenir au  wear_leveling_count, je ne comprends pas ton calcul, pourquoi le multiplier par la capacité du disque ? Ce n'est pas sensé représenter le nombre de bloc déplacer pour équilibrer la charge d'écriture ?

Reply

Marsh Posté le 26-02-2014 à 13:54:54   0  

Fanfan71 a écrit :


Je dis peut-être une bétise, mais je ne pense pas que le partitionnement ait un impact dans le firmware d'un disque (SSD ou pas).  


 je ne sais pas . En fait je  pose la question .  Peut être pour certain firmware , une raison technique fait que ... mais je n'en sais rien .
 

Fanfan71 a écrit :


Pour revenir au  wear_leveling_count, je ne comprends pas ton calcul, pourquoi le multiplier par la capacité du disque ? Ce n'est pas sensé représenter le nombre de bloc déplacer pour équilibrer la charge d'écriture ?


 
 j'ai effectué ce calcul à la louche ,je me disais que si le niveau d'usure est à 30 ça voulait dire 30 *128 go avait été écrit ,  mais ta remarque me fait douter de mon raisonnement car j'avais oublié cette histoire de bloc déplacé . Peut être qu le fonctionnement interne fait écrire un facteur 2, 3, 4 ou plus que la quantité réelle écrite . comme ma partition courante fait 40 go  ça tombait à peut près avec la quantité écrite me suis surement planté .Faudrait  que je fasse un test sur une petite partition de 10 go , mais la flemme de tout bouger sur le ssd .

Reply

Marsh Posté le 26-02-2014 à 20:45:07   0  

J'ai un SSD 830 Series de 128 go et je n'ai pas encore rencontré de problèmes.
 
Actuellement, ce SSD à 6555 heures de fonctionnement pour 4.38 TO d'écriture depuis ce temps.
 
Ce que je remarque, c'est que lors des benchmark depuis que je l'ai acquis seule la vitesse d'écriture baisse Par contre niveau lecture c'est comme au premier jour.
 
En lecture, j'ai un débit oscillant entre 500 et 530 mo/sec, en écriture le débit à chuté à environ 250 mo/sec contre 300 à 320 mo/sec à l'origine.
 
En tous cas, je fais confiance aux produits Samsung car c'est l'une des seules marques ici en l'occurrence pour les SSD ou les composants (mémoire, contrôleur mémoire, puce ARM...) sont 100 % Samsung.
 
Ce n'est pas le cas de chez OCZ,Corsair,Intel.
 
Les puces mémoires Samsung ont toujours été de très bonnes qualité, je me rappelle des Puces Samsung TCCD à l'époque des ATHLON 64 qui avaient le meilleur potentiel en overclocking.
 
Même en HDD, j'ai toujours un SAMSUNG HD 103SJ de 1TO qui à 19262 heures de fonctionnement.
 
Comme on dit, je touche du bois pour l'instant :)  
 

Reply

Marsh Posté le 27-02-2014 à 23:08:11   1  

J'aurai tendance à penser que le taux de secteurs en erreur doit décoller à vitesse géométrique, donc w&s pour le 840 en TLC...

Reply

Marsh Posté le 28-02-2014 à 15:35:41   1  

Beaucoup de monde se focalise sur le quantité de données qu'on peut écrire sur un SSD pour en déduire sa fiabilité.  
Or il n'y a pas que le nombre d'écritures qui joue, beaucoup de SSD ces dernière années mourraient subitement alors que les mémoires flashs étaient quasi neuves...

Reply

Marsh Posté le 28-02-2014 à 15:40:41   0  

sligor a écrit :

Beaucoup de monde se focalise sur le quantité de données qu'on peut écrire sur un SSD pour en déduire sa fiabilité.  
Or il n'y a pas que le nombre d'écritures qui joue, beaucoup de SSD ces dernière années mourraient subitement alors que les mémoires flashs étaient quasi neuves...


+1
Exactement ce que je disais plus haut.
Autre chose (contrôleur, firmware pas top) que la mémoire flash flanche visiblement très souvent bien avant l'usure très prononcée des flash.
 
Et en lisant les releases notes des correctifs des firmwares, cela semble souvent lié à la mise en veille (ou sortie de veille).

Reply

Marsh Posté le    

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed