Votre avis entre ces disques ?

Votre avis entre ces disques ? - Disque dur - Hardware

Marsh Posté le 11-02-2014 à 09:39:10    

Bonjour à tous,
 
Je cherche à remplacer mon raid de 5x1To, par 3x3To. C'est une utilisation sur serveur en 24/24, et j'hésite sur les modèles. Actuellement je suis sur des 1To de WD Caviar Black, mais les 3TB en black sont pas donnés..
 
Vous en pensez quoi entre le Seagate NAS 3TB ST3000VN000 ou le WD Red 3TB WD30EFRX ?
 
 
Merci,

Reply

Marsh Posté le 11-02-2014 à 09:39:10   

Reply

Marsh Posté le 11-02-2014 à 09:40:06    

Seagate a les plus mauvais chiffres de retour ces derniers temps, donc :)


---------------
/!\ DO NOT LOOK AT, TOUCH, INGEST OR ENGAGE IN CONVERSATION WITH ANY SUBSTANCES BEYOND THIS POINT. /!\
Reply

Marsh Posté le 11-02-2014 à 09:51:43    

Bizarre, c'est pas ce que disent les taux de retour :

 

- 1,99% Western Digital Red WD30EFRX
- 1,48% Western Digital Green WD30EZRX
- 1,29% Seagate Barracuda 7200.14 ST3000DM001

 

('fin bon, les taux de retour ne disent pas tout non plus, non non SH4, je ne cherche pas à te contredire à tout prix ;))

Message cité 1 fois
Message édité par artouillassse le 11-02-2014 à 09:52:22

---------------
3000 tués sur les routes chaque année - c'est décidé, demain je roule sur les trottoirs ©brèves de comptoire
Reply

Marsh Posté le 11-02-2014 à 09:55:37    

parait que les WD ont tendance à casser dès les premiers jours.  
Vous avez d'autres modèles à conseiller sinon ? Je vois pas mal passer de Toshiba, mais je sais pas trp ce qu'ils valent (et pas de centre en france en cas de retours)

Reply

Marsh Posté le 11-02-2014 à 09:58:48    

Sincèrement, niveau HDD c'est la roulette russe. Un disque peut très bien tourner pendant quelques mois et se déteriorer en quelques jours pour on ne sait quelle raison. Pareil, un disque qui présente des erreurs sur HdTune ou Crystal Disk peut très bien tourner pendant des années sans montrer le moindre signe de faiblesse.

 

Sinon toshiba fait du bon matos, et hitachi aussi il me semble.


Message édité par artouillassse le 11-02-2014 à 09:59:10

---------------
3000 tués sur les routes chaque année - c'est décidé, demain je roule sur les trottoirs ©brèves de comptoire
Reply

Marsh Posté le 11-02-2014 à 10:06:23    

artouillassse a écrit :

('fin bon, les taux de retour ne disent pas tout non plus, non non SH4, je ne cherche pas à te contredire à tout prix ;))


hs
J'ai une bonne excuse, j'ai fait une crise de migraine hier soir, je dois pas avoir le cerveau encore bien remis ça fait des effets bizarres comme raconter n'importe quoi, j'vais p'tet arrêter de poster ce matin :D
/hs


---------------
/!\ DO NOT LOOK AT, TOUCH, INGEST OR ENGAGE IN CONVERSATION WITH ANY SUBSTANCES BEYOND THIS POINT. /!\
Reply

Marsh Posté le 11-02-2014 à 10:09:54    

Moi, j'aurais tendance à dire qu'il vaut mieux utiliser des disques différents, histoire de pas mettre ses oeufs dans le même panier et éviter un défaut touchant tous les disques d'un même lot.

 

D'ailleurs, c'est possible avec tous les contrôleurs RAID ou y'en a qui n'aime pas la mixité raciale inter disque dur ?


Message édité par Fraisouille le 11-02-2014 à 10:10:35
Reply

Marsh Posté le 11-02-2014 à 10:10:11    

@SH4 Origon X : ça m'arrive tout le temps ! Pose toi au lieu d'poster, on sait ce que tu vaux :jap:


---------------
3000 tués sur les routes chaque année - c'est décidé, demain je roule sur les trottoirs ©brèves de comptoire
Reply

Marsh Posté le 11-02-2014 à 10:11:26    

c'est pas faut, je me demandais si vallait pas mieux que je mélange les 3 par 3 modèles différents :p  
après je veux pas qu'il y ait une brouette dans le lot qui fasse ramer les autres, mais je me dis, à 500tr/min d'écart entre les deux modèles, ça se verra pas trop..

Message cité 1 fois
Message édité par ouafnico le 11-02-2014 à 10:25:50
Reply

Marsh Posté le 11-02-2014 à 10:18:11    

à votre avis tout disque SATA 6GB passe quand même sur un SATA 3GB ? (bios uefi bien sûr) ?

Reply

Marsh Posté le 11-02-2014 à 10:18:11   

Reply

Marsh Posté le 11-02-2014 à 10:23:14    

ouafnico a écrit :

après je veux pas que y'a une brouette dans le lot qui fassent ramer les autres, mais je me dis, à 500tr/min d'écart entre les deux modèles, ça se verra pas trop..


Un peu d'effort sur la conjuguaison s'il te plait :cry: ;)
Sinon aucun soucis sur le SATA, c'est rétrocompatible, tu peux mettre un SSD SATA III sur un controleur SATA I sans problème.


Message édité par artouillassse le 11-02-2014 à 10:23:55

---------------
3000 tués sur les routes chaque année - c'est décidé, demain je roule sur les trottoirs ©brèves de comptoire
Reply

Marsh Posté le 11-02-2014 à 10:27:08    

navré petite faute en effet.
Dommage que les WD Black soient si chers :s Après le 3TB comparé au prix du black 1TB c'est rentable.

Reply

Marsh Posté le 11-02-2014 à 12:08:13    

Pour pas créer un nouveau topic je poste sur celui-ci, mais perso je part sur du 4TO, en fait, je comptait prendre un WD Red, un seagate NAS et pour terminer un HGST ...
 
C'est ce dernier qui me pose problème, il n'existe qu'en 7200 tr/min ... des idées pour du 5400 ?
 
EDIT: j'ai trouvé en allemagne en fait:/
 
Je comptait partir sur un RAID 5 mais le ZFS me fait de l'oeil aussi


Message édité par qwetchee le 11-02-2014 à 12:11:23

---------------
FIN.
Reply

Marsh Posté le 12-02-2014 à 10:51:54    

Tu ne précises pas si c'est du raid5 hardware (géré par le ROC d'une carte dédié) ou un raid soft géré par l'OS, ou un fakeraid
 
Mais oui si tu veux une configuration avec des disques différents, il vaut mieux passer par un raid Z
 
Les WD black perso j'en prends pas, je pars direct sur des RE au même prix en SATA, après les RE existent en SAS aussi, des RE j'en ai une 20aine, rarement de pb à usage "perso", le dernier que j'ai flingué c'était un RE3 de 320Go dans un raid1 (cramage du PCB), ensuite pour les clients qui veullent des disques de sauvegarde (jamais des volumes énormes de données donc le plus souvent plusieurs 500Go à 1To en roulement ça suffit) en rack/externe je leur mets aussi des RE4 comme ça j'ai pratiquement pas de retours, de toutes façons les pros sont prêt à y mettre le prix  ;)
Dans la pratique, les RE, ça fait pas de secteurs défectueux, j'en ai encore jamais vu sur ces disques, et pourtant je regarde à chaque fois.
J'ai pas encore regardé du côté des Red pour ça


Message édité par T3K le 12-02-2014 à 10:52:30
Reply

Marsh Posté le 12-02-2014 à 11:17:39    

Je connais pas les RE, mais c'est pas le même prix non plus..
 
Je ne connais pas RAID Z en tout cas :s
 
POur ma part mon RAID5 5x1To est matériel avec une P212. Le nouveau RAID que je veux faire est logiciel avec mdadm car ma carte raid faibli (elle ne gère pas de disque de 3To non plus).

Reply

Marsh Posté le 12-02-2014 à 12:44:53    

Pas de soucils avec mdadm, c'est très robuste si tu le maîtrise bien, t'as des fonctions intéressantes genre les bitmap (qui évite la resync en cas d'arrêt brutal), avec un param --bitmap=internal que tu passes au --create (creation metadata md) ou au --grow (modif des metadata md existantes) (très important sur les gros raid)
par contre tu risque d'avoir des pb avec le contrôleur, est-ce qu'il support les disques de + de 2To ? est-ce qu'il permet le passtrough ? etc... ce genre de détails technique
Après tu peux avoir de très bon disques pour pas cher, "il suffit" de ne pas les acheter en europe quoi  :whistle:  
 
Pour des SATA en raid soft via md tu peux faire sauter la carte raid et passer en direct sur la mobo
Après booter sur un raid géré par mdadm, c'est possible (ça peut demander un peu de bricolage du initrd pour charger les bons modules, mais techniquement c'est faisable, ça évite de se taper un petit disque inutile et moisi pour l'OS)
 
Après il te reste encore la question de l'alignement 4Ko sur les disques récents, avec mdadm il faut créer son raid avec des metadata en version 0.90 (metadata placées à la fin de chaque disque comme ça elles ne posent pas de pb)
gros disques donc partitionnement GUID, le plus simple c'est de créer la partoche raid avec parted en mode secteurs (unit s) qui commence au secteur (LBA donc 512) 40 et tu les fini à un secteur (LBA) multiple de 8 -1
Après (oui c'est pas fini  :lol: ) si tu jamais tu découpes ton raid avec lvm tu dois encore tenir compte des metadata lvm pour l'alignement (--metadatasize et --metadataalign au pvcreate)
 
RAID Z c'est ZFS, c'est souple, c'est stable, c'est rapide et fiable sur les OS qui gèrent en natif (genre solaris), mais sur les portages linux j'ai constaté des pb de stabilité donc pour le moment je laisse encore de côté.


Message édité par T3K le 12-02-2014 à 12:47:36
Reply

Marsh Posté le 12-02-2014 à 13:51:57    

mdadm je connais bien :)  
J'aurais pas de problèmes avec le controleur, ma carte mère est UEFI, donc les 3TB ça passera. Par contre j'utilise Centos 6 faut que je vois si c'est tout bon pour le boot sur UEFI. Le GPT je sais qu'il le gère, je suis déjà en GPT actuellement.
Je compte bien évidemment enlever la carte RAID, y'a pas d'utilité de faire du RAID logiciel au travers d'une carte RAID matérielle :)
 
Pour le boot sur mdadm ça fonctionne, il faut simplement que le /boot soit dans un RAID1 (pas 5). Du coup sur 3 disques je fais un RAID1 avec 3 disques actifs ou 2 actifs et un spare, et mes autres partitions dans un LVM en RAID5.  
 
Par contre faut que je vois les versions de metadata sur centos 6, je ne sais pas si c'est 0.90 par défaut, je crois pas.  
Après tes remarques sur les alignements de partitions sont pertinentes, il faut que je le teste en labo :)
 
 
EDIT : apparemment les metadata 0.90 limitent le raid à 28 composants et 2TB.

Message cité 1 fois
Message édité par ouafnico le 12-02-2014 à 13:56:59
Reply

Marsh Posté le 12-02-2014 à 14:09:51    

ouafnico a écrit :


Je compte bien évidemment enlever la carte RAID, y'a pas d'utilité de faire du RAID logiciel au travers d'une carte RAID matérielle :)


 
ça dépend, ça peut servir pour celui qui veut mettre des disques SAS en passtrough et faire un raid soft
 
 

ouafnico a écrit :


EDIT : apparemment les metadata 0.90 limitent le raid à 28 composants et 2TB.


 
ah oui c'est un soucil ça par contre (28 composants ça va encore, y'a de la marge  :lol: )
mais 2To, aucune idée, à la limite je peux tester pour voir, j'ai de quoi faire
 
le truc ça va être de trouver des metadata qui se collent à la fin des disques et surtout pas au début, ou au début avec un nb de LBA utilisé multiple de 8, en 0.90 les metadata font 64Ko (j'en suis sûr j'ai calculé) à la fin des disques, pour les suivantes je ne sais pas  [:le_cerealkiller]  
à priori de ce que je viens de lire sur le sujet, les metadata 1.2 sont prévues pour l'allignement sur les disques AFT (4K)
 
Par défaut sur centos/rhel, etc..., même les v6, les metadata par défaut sont encore en 0.90 (de mémoire)


Message édité par T3K le 12-02-2014 à 14:20:15
Reply

Marsh Posté le 12-02-2014 à 14:20:50    

si tu as de quoi tester :p apparemment sur le net les gens ont pas l'air bloqués..  
je sais que Fedora 20 créé des metadatas en 1.2. par contre, si on a des metadatas 1.2 on arrive à utiliser le raid sur un OS qui est plus ancien ?

Reply

Marsh Posté le 12-02-2014 à 14:43:56    

bon, je viens de tester des metadata 0.90 sur des volumes de 3To, ça passe  [:toukc] , j'ai plus qu'à tester la stabilité vite fait

Reply

Marsh Posté le 12-02-2014 à 14:46:15    

classe :p tu sais comment faire les partitions bien alignées ? j'ai vu des commandes fdisk qui te permettent de le faire de manière transparente, en donnant quelques arguments à fdisk.  
Mais du coup faut que je regarde plutôt avec gdisk qui fait du gpt :)
 
Tu veux pas te débarrasser de disques de 3To ? (Je blague :p)

Reply

Marsh Posté le 12-02-2014 à 14:57:04    

pas possible, infra virtuelle, de toutes façons ça tourne sur des SAS de 15K à 0.8€ le Go ^^
 
là je fais un test basique, ça a l'air bien parti, je vais charger un peu tout ça
pour l'alignement j'ai toujours fais ça à la main, après pour les utilitaires pour pas se gourer sur les gros volumes, je m'arrange en bricolant les CHS en fournissant des CHS de façon à ce que H*S = strip size du raid/taille des secteurs physiques, comme ça en mode cylindre t'es toujours alligné vu que chaque cylindre logique va correspondre à un strip raid ;)


Message édité par T3K le 12-02-2014 à 15:01:46
Reply

Marsh Posté le 12-02-2014 à 15:02:26    

là je t'avoue tu me parles chinois :p je suis pas trop calé sur tous les sujets de cylindres/secteurs disques :s

Reply

Marsh Posté le 12-02-2014 à 15:33:52    

petit détail aussi, ça va dépendre du fs que tu compte utiliser, mais sur certaines conf raid allignées, en fonction du nb de disque et du strip size, en ext2/3/4 les superblock vont toujours se retrouver sur le même disque de la grappe étant donner que les positions des superblock par rapport au début du fs ont toujours des pos relative de type (puissance de 2) * (puissance de 10)
exemples :
RAID0 de 2 disques
et par exetension :
RAID5 de 3 disques ou 5 disques etc...
RAID6 de 4 ou 6 disques
pour savoir à l'avance il faut calculer avec un modulo et tenir compte des emplacements des parités (qui elles méme dépendent du layout du raid)


Message édité par T3K le 12-02-2014 à 15:35:06
Reply

Marsh Posté le 12-02-2014 à 15:42:58    

je sais pas trop quel fs.. actuellement je suis sur ext4, mais j'hésite à essayer un autre fs pour mes data. Le truc, c'est qu'entre ext4, btrfs, zfs, xfs... je sais pas quoi choisir :)
Je sais que Redhat 7 qui va sortir sera sur XFS par défaut. Après vu que je suis que sur Centos 6 je sais pas trop :s

Reply

Marsh Posté le 12-02-2014 à 18:16:17    

XFS pour le moment ça reste le top niveau perf' sur les grosses arbo (il travaille au moins 10x plus vite que ext3/4 en matière de gestion des entrées fs), les fsck sont beaucoup plus rapides, et c'est tout aussi robuste, mais j'ai remarqué des effets de bord quand il sert de partage NFS, en tous cas chez moi les vm sont hébergées sur du xfs, les grosses arbos avec genre 2M de fichiers aussi.
ZFS sous linux comme je le disais sur un autre topic, il y a quelques pb de stabilité, sur les distros basées sur les sources de RHEL j'en suis sûr, sur les autres j'ai pas testé


Message édité par T3K le 12-02-2014 à 18:17:39
Reply

Marsh Posté le 12-02-2014 à 18:24:11    

C'est quoi tes effets de bords sur xfs quand tu l'utilises en nfs ?

Reply

Marsh Posté le 12-02-2014 à 19:13:00    

des trucs bizares comme des fichiers qui se retrouvent avec un md5 différent après transfert, ce genre de trucs, j'ai pas épluché plus loin mais c'est pas le genre de truc qui rassurent, surtout sur les gros fichiers (20-30Go et plus), en tous cas ça n'arrive jamais avec les autres fs

Reply

Marsh Posté le 13-02-2014 à 08:54:56    

c'est pas rassurant en effet, surtout que j'utilise NFS. Espérons que ça sera corrigé si c'est connu avant la sortie de RHEL7 qui va l'utiliser

Reply

Marsh Posté le 13-02-2014 à 10:26:49    

J'ai fait le tour des disques, les WD SE entreprise ont l'air pas mal, moins cher que les RE déjà.

 

Pour ce qui est du raid je suis sur debian et j'étais parti pour un raid logiciel mais le fait qu'il faille partir sur trois disques m'as freiné Chessy pour ça sur je m'intéresse a zfs


---------------
FIN.
Reply

Marsh Posté le 13-02-2014 à 16:00:30    

ouafnico a écrit :

c'est pas rassurant en effet, surtout que j'utilise NFS. Espérons que ça sera corrigé si c'est connu avant la sortie de RHEL7 qui va l'utiliser


 
Disons que dans mon cas particulier, c'est pas le genre de truc qui me dérange, vu que je ne stock jamais de données non-système sur /, donc chez moi on ne verra jamais de partage nfs pointer directement sur le fs /, donc xfs ou pas ça ne change rien dans mon cas
je crée des répertoires dans /mnt (vol0, vol1, etc...) dans lesquel je fais mes montages (locaux et réseau type iSCSI, SAS, bref les fs directement gérés par le kernel), les fs en question sont toujours appelés par un LABEL (avec comme nom de LABEL le point de montage final) dans fstab comme ça même si l'initateur iscsi bouge les chemins des périph' pas de pb, si je déplace un disque ou une carte, pas de pb, si je modifie l'ordre de chargement des modules dans initrd ? pas de pb
je fais mes montages nfs dans /net/[nom_serveur]/[nom_partage] et c'est valable sur toutes les machines clients (comme ça les script dans les montages nfs fonctionnent partout)
je crée un compte admin et un groupe admin avec moins de droit que root et une conf sudo, qui a pour répertoire de base /admin et le même PATH que root
donc en gros, seuls root et admin qui peuvent toucher des trucs sur /, admin ne peut rien changer sur le système sans faire un sudo avant, donc ce compte est safe pour la consultation, le compte admin n'a pas d'interface graphique (init lancé en runlevel 3 et X11 est lancé depuis le script .bash_profile de chaque compte, et admin n'a pas ça dans son .bash_profile)
les users : pas de sudo du tout et le PATH de base, ils ont leur groupe utilisateur à eux et je rajoute le compte admin dans le groupe des utilisateurs
les partages smb/nfs se font toujours quelque part dans /mnt/volX
et /tmp utilise un tmpfs (vu que des fois je créée des grosses arbos voire que je lance des commandes susceptibles de défoncer un fs, je préfère utiliser le /tmp comme espace de travail pour certains trucs, j'ai tellement déglingué de fs dans les années 2000 que je fais comme ça maintenant, dans le pire des cas un démontage/remontage de /tmp et ça repart...)
le répertoire home dégage de / pour laisser place à un lien symbolique qui va pointer quelque part dans les /mnt/volX avec le vrai home (séparation totale du système et des data utilisateur)
pour les éventuels swap je préfère utiliser des fichiers .swap que je place aux racines des fs montés dans /mnt, j'ai besoin en urgence de 40Go de swap supplémentaires ? ok pas de pb  [:t3k]  
 
etc... voilà j'ai une façon bien à moi de régler un environnement linux  :D


Message édité par T3K le 13-02-2014 à 16:10:28
Reply

Marsh Posté le 13-02-2014 à 18:17:13    

je n'ai jamais de données non plus sur une partition /, je fais toujours un /data sur une partition dédiée.
Mon fstab ne contient que des UUID pour que ça soit pas monté n'importe quand quand on joue avec les ports SATA :p :p
je fais même une arborescence /export avec des liens bind vers les dossiers que je veux partager, et le nfs partage uniquement ce /export/sous_dossier.
 
après je suis pas interface graphique, j'aime pas ça ;p un ssh c'est magique. Je vois que tu es pareil :D
 
Mon /home est pareil, les dossiers home sont des liens symboliques vers un dossier du /data :p
 
tmpfs j'aime bien le principe, je l'utilise pour pas mal de sujets, même du squid par exemple, les dossiers temporaires partent sur tmpfs, tout ce qui a besoin de patate et qui est pas utile dans le temps :)
 
t'façon linux c'est un super OS

Reply

Marsh Posté le 13-02-2014 à 20:33:28    

ouafnico a écrit :


après je suis pas interface graphique, j'aime pas ça ;p un ssh c'est magique. Je vois que tu es pareil :D


 
J'utilise encore du RS232 pour admin certains serveurs, ça permet aussi d'aller fouiller le setup des cartes raid ou du bios au besoin sans avoir à s'embarraser d'un écran et d'un clavier (et ça c'est super pratique), ça peut aussi servir sur les routeurs à base de mobo x86 sans sortie écran, le matos réseau, ce genre de trucs ;)
l'interface graphique j'aime bien, mais à l'usage, pas pour l'admin ^^
 
tmpfs aussi ça me sert en virtu pour monter des vm, j'héberge les vm directement dans la ram, les iso dans la ram, j'install, la vm est prête en 3 minutes au lieu de 30 (très pratique pour les windows qui prennent des plombes à s'installer, même sur des disques de 10 ou 15K), et hop copie de quelques Go sur les disques en 30s et basta c'est prêt.


Message édité par T3K le 13-02-2014 à 20:36:55
Reply

Marsh Posté le    

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed