Utilité de la défragmentation ?

Utilité de la défragmentation ? - Stockage/Sauvegarde - Windows & Software

Marsh Posté le 02-02-2005 à 05:27:52    

Bonjour,
 
Voila j'aurai voulu savoir si la defragmentation de nos disques durs est vraiment utile ?
Si ça provoque de réels changements et à quels niveaux ?
 
Et comment certains fichiers sont défragmentés ?
 
Merci d'avance :hello:
 
Je suis en NTFs sous W2k


Message édité par ToOm le 02-02-2005 à 05:28:30

---------------
http://www.boincsynergy.com/images/stats/comb-590.jpg
Reply

Marsh Posté le 02-02-2005 à 05:27:52   

Reply

Marsh Posté le 02-02-2005 à 07:54:53    

bah prend un dossier,  éparpille les feuilles dans toute ton habitation.
 
 
Cherche une infos dans ce dossier.
 
 
 
 
Puis  tu range les feuilles du dossier dans l'ordre. et cherche une infos.
 
 
quelle est la méthode la plus rapide ?


---------------
Cherche geekette | Traquez vos billets d'€ | Don du sang | Don de moelle osseuse
Reply

Marsh Posté le 02-02-2005 à 08:40:26    

Tellement vrai comme comparaison   [:itm]

Reply

Marsh Posté le 02-02-2005 à 09:32:25    

com21 a écrit :

bah prend un dossier,  éparpille les feuilles dans toute ton habitation.
 
 
Cherche une infos dans ce dossier.
 
 
 
 
Puis  tu range les feuilles du dossier dans l'ordre. et cherche une infos.
 
 
quelle est la méthode la plus rapide ?


 
 :jap:  
 
 

Reply

Marsh Posté le 04-02-2005 à 05:20:19    

Tellement vrai comme analyse mais tellement simpliste.
 
Désolé mais si quelqu'un vient d'apprendre quelque chose en lisant ça, c'est inquiétant :) Je parlais surtout si y'avait vraiment une grande différence en fin de compte entre un disque fragment de façon abusive et un autre défragmenté bien comme il faut.
 
Et puis ce n'était pas la seule question ^^


---------------
http://www.boincsynergy.com/images/stats/comb-590.jpg
Reply

Marsh Posté le 04-02-2005 à 07:33:50    

Oui ça provoque des changements au niveau des temps d'accès au disque, ce sera + rapide pr le user.

Reply

Marsh Posté le 04-02-2005 à 08:17:31    

ToOm a écrit :

Désolé mais si quelqu'un vient d'apprendre quelque chose en lisant ça, c'est inquiétant :)


 
C'est inquiétant que tu n'es pas compris le parallèle fait par com21 qui devrait te permettre de répondre à ta première question par toi même. Mais on pourrait le rendre un peu plus "précis".
 
Reprends ce même dossier, avec des feuilles éparpillées un peu partout et recherche une informations dans le sommaire qui indique le nom d'un chapitre et l'emplacement de la première page:
 
- Le premier paragraphe du chapitre se trouve sur la table de la cuisine.
 
1.- Tu vas donc jusque là, trouves le 1er chapitre (seek) et comme tu es malin du prends les 5 feuilles en dessous de celle-ci en te disant que c'est la suite (caching).
 
2.- Tu reviens à l'endroit où se trouve le sommaire pour trouver le 2ème paragraphe et manque de bol il est dans la chambre et pas dans les 5 feuilles que tu avais pris "au cas où" (mauvais cache hit ratio).
 
3.- Tu vas chercher ton chapitre dans la chambre, en prenant les 5 feuilles qui suivent (caching) ...
 
4.- Repeat steps 2 & 3 tant que le chapitre n'est pas complet.
 
Donc tu as fait des 10aines d'aller/retours pour rien car les feuilles que tu prennais "au cas où" ne correspondaient que rarement à la suite de ce que tu cherchais.
Si par contre tu avais rangé les paragraphes d'un même chapitre dans une même pile, tu n'aurais pas besoin de faire autant de déplacements "sommaire" -> "location" pour lire tout le chapitre car tu aurais déjà avec toi un nombre X de paragraphes qui suivent celui que tu étais allé chercher. -> Bon cache hit ratio -> accès plus rapide à l'information CQFD.
 
Maintenant pour ta deuxième question, un système de fichier (FS) dispose d'un sommaire (table d'allocation) dans lequel se trouve la position de chaque "paragraphes" (blocs) contenus dans les différents chapitres (fichiers).
Quand un FS est vide, l'OS écrit les fichiers par blocs successifs et contigus sur le disque, donc un fichier F1 de 4 blocs sera placé sur le disque de cette façon:
 
F1a - F1b - F1c - F1d
 
Lorsque le disque va lire F1a, il va cacher (lire les blocs suivant au cas où ce seraient les prochains à lire) dans une mémoire tampon. Donc quand l'OS demandera les blocs b,c et d le disque pourra les fournir sans même deplacer ses têtes (gain de temps !!!)
 
Imaginons que deux autres fichiers soient écrits à présent (F2 2 blocs et F3 4 blocs) celà ressemblera à ça:

F1a - F1b - F1c - F1d
- F2a - F2b - F3a - F3b - F3c - F3d
 
Les fichiers occupent des blocs contigus, donc pas de fragmentation. Maintenant on efface F2 (donc 2 blocs passent "libres" pour le FS):
 
F1a - F1b - F1c - F1d - Free - Free - F3a - F3b - F3c - F3d
 
Le FS n'est toujours pas fragmenté car les 2 fichiers restants occupent toujours des blocs contigus. A présent on écrit un 4ème fichier de 4 blocs lui aussi ... les blocs libres sont attribués par l'OS soit:
 
F1a - F1b - F1c - F1d - F4a - F4b - F3a - F3b - F3c - F3d - F4c - F4d
 
Et voilà ... la fragmentation commence ... le fichier F4 n'occupe plus de blocs contigus, donc quand l'OS demandera au FS de lire le fichier F4, celui-ci positionnera le disque au premier bloc (F4a) puis mettra en cache les blocs suivants ... mais hélas, seul le bloc F4b sera utile dans le cache car les autres appartiennent à F3 et le disque devra donc se deplacer sur F4c pour continuer à lire F4.
 
C'est plus clair ?
 
Plus le temps passe et plus des fichiers se fragmentent, leurs blocs respectifs s'entrelacent avec ceux d'autres fichiers, le cache du disque devient de moins en moins performant et les performances s'en ressentent ... CQFD (bis).
 
L'opération de defrag à pour but de reordonner tous ces blocs pour que les fichiers occupent à nouveau des blocs contigus. D'autres defragmenteurs plus "poussés" travaillent aussi sur les stats d'utilisation de fichiers, leurs tailles, leurs accès pour les organiser de manière encore plus performante ...


Message édité par Deadlock le 04-02-2005 à 14:02:58

---------------
Institutions européennes: Ensemble d'outils dont le but est de transformer une grande quantité d'argent en merde. Cette merde est utilisée pour créer de nouveaux fonctionnaires. L'argent restant payant des externes pour faire leur travail.
Reply

Marsh Posté le 04-02-2005 à 08:34:44    

hum.... Je peux me tromper mais je pense que Toom savait déja tout ca. Si j'ai bien compris sa question, ce serait plutot :
"Quelqu'un peutil me donner une url avec des tests ou des retours d'exeprience sur les differences de perfs observés entre fragmenté/pas fragmenté".
 
Alors j'ai pas d'url a te filer, mais voici mon retour d'exeprience. Sur des accés aleatoires, je n'ai pas constaté chez moi de gros changements (mais il doit quand meme y avoir de grosses differences sur des applis qui font vraiment beaucoup d'ios. Evidement dans une utilisation perso, ca se sent moins).
 
Par contre, en lecture sequentielle la difference saute aux yeux. Je te donne un exemple, transfert d'un gros fichier (plusieurs centaines de Mo) entre un pc et un portable.
Fichier non fragmenté : Le transfert était limité par la bande passante réseau, et j'approchai donc les 10 Mo/s, un peu moins quoi.
Avec un fichier eparpillé de partout, le taux de transfert avoisinait les 4 ou 5 Mo/s en moyenne, avec des sauts importants entre 2 et 6 on va dire. Bref, le disque pasait son temps a faire des seek et pas a lire les datas.

Reply

Marsh Posté le 10-03-2005 à 10:23:12    

même retour d'experience que ALANA.
 
j'avais fait des tests il y a un an.. ça date un peu, mais je les avais tous essayé.. :
http://forum.hardware.fr/forum2.ph [...] subcat=407

Reply

Marsh Posté le 13-04-2005 à 23:47:17    

Alana: fais-moi rire.
 
Avec quel HD tu obtiens des taux de 2-6Mo/s ?
Je te conseille d'essayer avec un outil aussi simple que le Total Commander 6 qui donne les taux de transfert.
Sur une partition bien fragmentée je monte à 40Mo/s sur des transferts de disque à disque.
Attention à ne pas prendre deux partitions sur le même disque !!
infos : j'ai des Hitachi 80 et 160Go très banals.
 
Les mecs, une bonne fois pour toute : arrêter de faire les mythos et testez VRAIMENT au lieu de faire les jobards et lire des trucs sur le net de mecs qui ne font que répéter les trucs d'autres qui disent n'importe quoi.
 
L'ignorant affirme, le savant réfléchit, le sage doute.

Reply

Marsh Posté le 13-04-2005 à 23:47:17   

Reply

Marsh Posté le 10-05-2005 à 11:24:56    

stjoanis c'est toi qui fait bien rire.
Je sais pas si tu sais lire mais on dits dans un transfère de donnée via un réseau local
a moins que tu as un switch ~1gb/s, un hub usb ou encore une hub Firewire (~480 mo/s)
c'est pratiquement impossible de dépasser la barre des 15 mb/s sur un réseau rj45 inférieur ou  
environ égale à 100mb/s ( Dont la plupart des particuliers on comme type de réseau avec cable )
je te donne les moyennes pour un réseau rj45 en 100 puis 10 mo/s
100 : 8 mo/s
10 : 5 mo/s
 
Je sais que certain vont modifier leur switch pour avoir plus de performance, mais je te parle  
la des switch non trafiquer !
 
Pour le local c-à-d 2 ( ou + , si on a des disques de backup ) disques sur la même UC , c'est  
différent , on peu obtenir des performance beaucoup plus accrue de l'ordre de moyenne de 40  
mo/s

Reply

Marsh Posté le 10-05-2005 à 12:39:00    

stjoanis a écrit :

Alana: fais-moi rire.
 
Avec quel [...] quoi.
 
L'ignorant affirme, le savant réfléchit, le sage doute.


stjoanis, sur le coup avec ta maniere de parler j'ai l'impression que tu es dans la premiere categorie ...


Message édité par lycantropia le 10-05-2005 à 12:41:12
Reply

Marsh Posté le 10-05-2005 à 12:58:32    

stjoanis a écrit :

Alana: fais-moi rire.
 
Avec quel HD tu obtiens des taux de 2-6Mo/s ?
Je te conseille d'essayer avec un outil aussi simple que le Total Commander 6 qui donne les taux de transfert.
Sur une partition bien fragmentée je monte à 40Mo/s sur des transferts de disque à disque.
Attention à ne pas prendre deux partitions sur le même disque !!
infos : j'ai des Hitachi 80 et 160Go très banals.
 
Les mecs, une bonne fois pour toute : arrêter de faire les mythos et testez VRAIMENT au lieu de faire les jobards et lire des trucs sur le net de mecs qui ne font que répéter les trucs d'autres qui disent n'importe quoi.
 
L'ignorant affirme, le savant réfléchit, le sage doute.


Il parlait d'un disque dur de portable. Et puis il peut très bien dater de quelques années le portable (déjà qu'à la base c'est pas très rapide). Et puis là n'est pas le débat, mais en tant qu'un peu habitué de ce forum je ne crois pas avoir vu de mémoire Alana balancer des infos sans en être sur.
 
Au niveau de ta dernière phrase, tu te situes dans la première catégorie c'est bien ça ?

Reply

Marsh Posté le 10-05-2005 à 13:18:06    

com21 a écrit :

bah prend un dossier,  éparpille les feuilles dans toute ton habitation.
 
Cherche une infos dans ce dossier.
 
Puis  tu range les feuilles du dossier dans l'ordre. et cherche une infos.
quelle est la méthode la plus rapide ?


 
 
OK c'est évident tout le monde est d'accord mais je repose une autre question:
 
J'ai un DD de 200Go avec 3 fichier texte de 2ko.
J'ai un DD de 200Go quasi plein, je crée les 3 mêmes fichiers et je supprime toutes les autres données.
Sur quel disque la recherche sera la + rapide?
 
(cas de disques 7200tours SATA par ex)

Reply

Marsh Posté le 10-05-2005 à 15:51:23    

sdeville Je sais pas vraiment te répondre , la recherche sera presque instantané
si il y a que c'est trois fichiers sur le disque , mais si le disque et plus rempli
c'est clair que la recherche sera plus lente. Je ne connais pas les temps des recherche.
Et si on a défragmenter, je sais pas si sa va aller plus, mais je croix bien que oui.  
 
Pour le portable , c'est clair que c'est plus lent , mais je croix pas que sa  
influence beaucoup dans le cas d'un réseau local < ou environ = à 100mo/s

Reply

Marsh Posté le 10-05-2005 à 16:49:29    

Toute la suite n'est que pur hypothèse tirée de ma modeste expérience, et d'une sorte de logique informatique... en tous cas la mienne.
 
Pour la recherche ca ne changera rien. Pour la copie non plus car 3ko c'est même pas un cluster ... par contre comme cela a été dit, pour des copie de gros fichier, c'est mieux de copier en contigu qu'en éclaté sur tout le disque. De même, hormis la perf, ca réduit le nombre de mouvements de la tete de lecture, et donc probablement etre moins stressant pour le DD.. maintenant vu le nombre d'heures de fonctionnement donnép our un DD ca doit etre minime...
Par contre la recherche qui est faite a intérêt à etre faite dans un index defragmenté. Sinon, le temps de parcours du fichier de l'index sera allongé... mais là on parle de millisecondes certainements... mais une chose est sure : defragmenter ne peut pas faire de mal.
 
Ciao
Fred


Message édité par frederikk le 10-05-2005 à 16:50:12
Reply

Marsh Posté le 10-05-2005 à 16:51:10    

J'ajouterai que le NTFS est moins sensible à la fragmentation que la FAT, de part son concept de gestion des fichiers et de leur indexation.
 
Ciao
Fred

Reply

Marsh Posté le 07-08-2005 à 11:36:11    

Mpogo2001 a écrit :


Pour le portable , c'est clair que c'est plus lent , mais je croix pas que sa  
influence beaucoup dans le cas d'un réseau local < ou environ = à 100mo/s


 
Bande de lamers.
J'avais déjà compris à qui j'avais affaire mais là c'est une belle démonstration.
100mo/s, c'est quoi ce standard ?!
100Mb/s = 13Mo/s de bande maximum, donc 10Mo/s en pratique.
 
Vous êtes de sacrés bouchés : j'ai fait des tests de disque à disque sans passer par réseau.
j'ai fragmenté comme un malade un disque et j'ai mesuré des copies massives, de l'archivage aussi.
avant / après défrag, comme il se doit.
Ma conclusion c'est que si on gagne 5% en vitesse, c'est bien un max.
 
Mais allez-y, continuez à perdre 10H et des euros à défragementer vos disques.
Si ça peux vous occuper un peu.
 
C'est bien ce que je disais : ça cause, mais ça sait pas grand chose.

Reply

Marsh Posté le 07-08-2005 à 12:05:40    

stjoanis a écrit :

Bande de lamers.
J'avais déjà compris à qui j'avais affaire mais là c'est une belle démonstration.
100mo/s, c'est quoi ce standard ?!
100Mb/s = 13Mo/s de bande maximum, donc 10Mo/s en pratique.
 
Vous êtes de sacrés bouchés : j'ai fait des tests de disque à disque sans passer par réseau.
j'ai fragmenté comme un malade un disque et j'ai mesuré des copies massives, de l'archivage aussi.
avant / après défrag, comme il se doit.
Ma conclusion c'est que si on gagne 5% en vitesse, c'est bien un max.
 
Mais allez-y, continuez à perdre 10H et des euros à défragementer vos disques.
Si ça peux vous occuper un peu.
 
C'est bien ce que je disais : ça cause, mais ça sait pas grand chose.


 
La défragmentation est réellement utile. C'est bien simple, chaque fois que j'installe Windows 2000, je passe un coup de défragmenteur juste après. Résultat: ça boote plus vite (et c'est nettement perceptible).
 
Bien sûr, il y a des gens qui utilisent le défragmenteur de Windows, et d'autres qui défragmentent plusieurs fois par jours: ceux-là ne verront jamais de différence.
 
Je vous conseille l'excellent dirms:
http://www.dirms.com/

Reply

Marsh Posté le 07-08-2005 à 21:05:18    

Mpogo2001 a écrit :

stjoanis c'est toi qui fait bien rire.
Je sais pas si tu sais lire mais on dits dans un transfère de donnée via un réseau local
a moins que tu as un switch ~1gb/s, un hub usb ou encore une hub Firewire (~480 mo/s)
c'est pratiquement impossible de dépasser la barre des 15 mb/s sur un réseau rj45 inférieur ou  
environ égale à 100mb/s ( Dont la plupart des particuliers on comme type de réseau avec cable )
je te donne les moyennes pour un réseau rj45 en 100 puis 10 mo/s
100 : 8 mo/s
10 : 5 mo/s
 
Je sais que certain vont modifier leur switch pour avoir plus de performance, mais je te parle  
la des switch non trafiquer !
 
Pour le local c-à-d 2 ( ou + , si on a des disques de backup ) disques sur la même UC , c'est  
différent , on peu obtenir des performance beaucoup plus accrue de l'ordre de moyenne de 40  
mo/s


 
Un réseau 10 c'est 1.25 Mo/s maxi théorique. Alors ton 5 Mo/s me fait bien rire...

Reply

Marsh Posté le 08-08-2005 à 11:14:43    

www.hdtune.com pour vérifier les débits de disques.
55 Mo/s de moyenne sur un IBM 160Mo, UDMA5 / ATA100
 
www.dumeter.com pour le trafic réseau (ou samurize)
 
www.dvdinfopro.com pour les supports CD/DVD
 
RJ45 100 Mbps -> 12.5M o/s théorique -> 8.5 Mo/s pratique constaté
 
10 Mbps -> 1 Mo/s constaté
 
J'ajouterai qu'apprécier au jugé un chargement ou un transfert ne vaudra jamais des tests chronométrés pour évaluer les apports d'une opération quelconque.

Reply

Marsh Posté le    

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed