telecharger des sites... - Logiciels - Windows & Software
Marsh Posté le 25-11-2005 à 09:07:41
Httrack le fait sans soucis, suffit de lire le manuel et de le configurer de maniere à pomper en profondeur...(huhuhu) tout le site...
White.
Marsh Posté le 01-12-2005 à 13:07:09
prenons l'exemple du site suivant:
http://www.comlive.net/sujet-33257-0.html
c'est la page racine du topic
http://www.comlive.net/sujet-33257-3781.html
la derniere
comment peux je faire pour parametrer de telecharger toutes les pages de ce topic? vu que c'est pas des sous-dossiers?
Marsh Posté le 01-12-2005 à 14:08:05
normalement un aspi de sites "suit" les liens, à toi de lui donner la page de départ, et la profondeur d'accès (le nombre de liens récursifs que httrack va suivre)
et puis c'est pas un essai qui va te couter bien cher...
Marsh Posté le 01-12-2005 à 18:39:07
trevor, pourrais-tu mieux expliquer? parce que je vois pas bien ou c'est que je dis à spiderzilla ou winhttrack d'aspirer http://www.comlive.net/sujet-33257-*.html
Marsh Posté le 01-12-2005 à 18:43:31
bah tu crées un nouveau projet
tu indiques l'URL dans 'adresse web' puis dans les paramètres de copie du site (définir les options) tu règles la profondeur au niveaut de l'onglet 'limites' et puis testes
bon je suis pas un expert de l'aspiration mais en général il ny a pas gdchose à configurer
Marsh Posté le 01-12-2005 à 23:56:13
bah ouais si tu fais ça ce machin il te telecharge tout le foutu site, pas qu'un topic... enfin
de quoi vite blander son disque et bouffer ça bande passante pour rien...
Marsh Posté le 24-11-2005 à 18:23:45
bonjours tous les geeks.
moi pour telecharger des sites j'utilise les excellents httrack et le merveilleux plugin spiderzilla pour firefox. par contre, j'aimerais bien savoir comment je peux faire pour telecharger de façon recursive des pages, avec tous les sous-dossiers qu'en dépendent, sans télécharger tout le site, par ex, les pages d'un topic de ce forum, ou bien un sous-repertoire d'un autre site, etc. Avez-vous des idées?
merci