Télécharger le contenu d'un répertoire distant (wget) - Divers - Linux et OS Alternatifs
Marsh Posté le 08-05-2003 à 17:24:16
Je ne répondrais pas à ta question, car je n'en connait pas la réponse, mais pour effectuer ce genre d'opération j'utilise lftp :
lftp http://http://www.toto.com/
> mirror ./toto/
et hop, un répertoire toto dans le répertoire courant.
@+
Marsh Posté le 08-05-2003 à 17:28:22
Je viens de regarder le man de wget, essaye peut etre avec -m
-m |
Sinon tu as du aussi voir ca puisque tu l'a essayé :
Recursive Retrieval Options |
Il me semble que le nom fonctionnement de cette commande puisse venir de la configuration du serveur web (listing des répertoires par ex, ou parcours de l'arborescence)
@+
Marsh Posté le 08-05-2003 à 17:31:03
Je viens d'essayer -m en effet et ça ne marche pas.
Oui, je crois qu'il y a une sorte de protection pour éviter ceci.
Pourtant un simple :
wget http://www.toto.com/toto/img9999.jpg
marche sans problème. Peut-etre que ce n'est pas '*' qu'il faut utiliser ?
Marsh Posté le 08-05-2003 à 17:34:45
$ wget -m -np http://www.toto.com/toto/
--18:15:01-- http://www.toto.com/toto/
=> `www.toto.com/toto/index.html'
Resolving www.toto.com... done.
Connecting to www.toto.com.[IP]:80... connected.
HTTP request sent, awaiting response... 404 Not found
18:15:02 ERROR 404: Not found.
FINISHED --18:15:02--
Downloaded: 0 bytes in 0 files
J'ai pas essayer avec toto.com je vous rassure
Marsh Posté le 12-05-2003 à 18:47:16
Si le serveur web n'autorise pas le listage des fichiers dans le répertoire demandé, bin wget ne peut pas deviner le nom des fichiers
Ou alors il y a une protection sur le User-Agent, ou ca détecte les downloads séquentiels.
Marsh Posté le 30-05-2010 à 14:25:10
________________
Marsh Posté le 30-05-2010 à 16:00:35
un bon gros up de 7 ans, fallait le faire
depuis le temps, Z-Axis a dû trouver la solution (à moins qu'il n'ait qu'un modem 33k )
Marsh Posté le 30-05-2010 à 19:56:25
merci de laisser le topic redescendre d'où il vient.
tout le monde à vu qu'il a été uppé de plus de 7ans (pour un copier/coller d'un manpage) pas la peine d'en faire une pendule, on le laisse redescendre tranquillement. Au besoin on peut l'aider (ainsi que lever les résistances).
Marsh Posté le 08-05-2003 à 17:18:01
ça fait 10 minutes que j'épluche le wget --help et je trouve pas cette foutu option
La situation, c'est un site ouaibe avec un sous-rep :
http://www.toto.com/toto/
Qui contient plein (trop pour pouvoir faire à la main) de choses interessante que je souhaite DL :
http://www.toto.com/toto/img0001.jpg
...
http://www.toto.com/toto/img9999.jpg
Donc comment télécharger toutes ces images dans le sous rep ? J'ai essayé tout ça :
wget http://www.toto.com/toto/
wget http://www.toto.com/toto/*
wget http://www.toto.com/toto/*.*
wget -r http://www.toto.com/toto/
Et ça marche pas ... Si vous aviez la bonne option ?
edit : en fait j'ai l'impression qu'à chaque fois, wget cherche un 'index.html' et renvoie une erreur puisqu'il y en a pas...
Message édité par Z-Axis le 08-05-2003 à 17:19:19
---------------
x,y,z