Récupérer les pdf d'une page web. [Résolu/Fermé]

Signaler
Messages postés
975
Date d'inscription
dimanche 10 août 2008
Statut
Membre
Dernière intervention
21 mars 2013
-
 ploted -
Bonjour a tous,
Voila je désir téléchargé tout les pdf d'une page web (tout est légal), je souhaiterais trouvé un programme ou plugin afin de faire ça en un bloc au lieux de les récupérer un a un.
Merci,
Cordialement.


10 réponses

Messages postés
975
Date d'inscription
dimanche 10 août 2008
Statut
Membre
Dernière intervention
21 mars 2013
29
Merci de m'avoir répondu si vite,
Alors j'ai récupérer un fichier htlm, mais je ne trouve pas les pdf.
3
Merci

Quelques mots de remerciements seront grandement appréciés. Ajouter un commentaire

CCM 78246 internautes nous ont dit merci ce mois-ci

Messages postés
43481
Date d'inscription
jeudi 28 août 2003
Statut
Modérateur
Dernière intervention
5 décembre 2019
4654
Salut,
wget -A.pdf URL
Bonjour,
la commande wget est bonne il manque juste l'option -r qui donne cela :

wget -r -A.pdf http://tonsiteoutuveuxrecuplespdf.com

et la ça fonctionne parfaitement ;)
Messages postés
43481
Date d'inscription
jeudi 28 août 2003
Statut
Modérateur
Dernière intervention
5 décembre 2019
4654
Effectivement ;-((

Pourtant la page de man et tous les exemples sur le web donnent cette syntaxe (ou -A "*.pdf") mais même comme ça, ça marche pô ;-(((

Désolé.
Messages postés
975
Date d'inscription
dimanche 10 août 2008
Statut
Membre
Dernière intervention
21 mars 2013
29
En fait je peut téléchargé les pds que par un par un.
jipicy
Messages postés
43481
Date d'inscription
jeudi 28 août 2003
Statut
Modérateur
Dernière intervention
5 décembre 2019
4654
Oui mais ce n'est pas le but, et c'est ce qu'est sensée faire l'option "-A.pdf", à savoir tous les pdf et non pas un !

Je ne comprends pas ;-((

Espérons que quelqu'un saura nous en dire plus...
Messages postés
975
Date d'inscription
dimanche 10 août 2008
Statut
Membre
Dernière intervention
21 mars 2013
29
En fait je un programme ou plugin comme "DownloadHelper", qui permet entre autre de récupérer plusieurs fichier multimédia, mais pour les pdf.
Messages postés
975
Date d'inscription
dimanche 10 août 2008
Statut
Membre
Dernière intervention
21 mars 2013
29
UP!
Messages postés
975
Date d'inscription
dimanche 10 août 2008
Statut
Membre
Dernière intervention
21 mars 2013
29
Salut,
Je reviens vers vous dire que trouvé comment faire, j'utilise "webhttrack" pour ubuntu:
Instalation et untilisation: http://doc.ubuntu-fr.org/httrack
jipicy
Messages postés
43481
Date d'inscription
jeudi 28 août 2003
Statut
Modérateur
Dernière intervention
5 décembre 2019
4654
Merci ;-))

Mais bon j'aurai bien aimé une explication sur le pourquoi du comment du non-fonctionnement de l'option -A de wget ;-(((
Messages postés
975
Date d'inscription
dimanche 10 août 2008
Statut
Membre
Dernière intervention
21 mars 2013
29
Ben en fait, il ne m'enregistre que la page web sans le dossier des pièces de cette page. Sur cette page il y a des liens pdf, quand clip dessus il me le fais télécharger.
J'espère que tu me comprend.
Salut,

Si je me contente de "wget http://www.mapage.com/avecdespdf.html -A pdf" je demande uniquement de charger le fichier "avecdespdf.html". Même si je passe l'option accept, qui dans ce cas ne sert qu'a faire joli. Il ne faut pas oublier que wget comme tout les crawler, bot et autre navigateurs ne fait que charger des fichiers un par un.

Dans ce cas je n'ai pas spécifié de suivre de liens, donc wget ne les suivra pas, ce qui est logique. C'est pareil pour un navigateur : c'est pas parce que je demande une page que ça sous entend que je vais suivre tous les liens automatiquement, vous imaginez le bordel que ça serait et ça s'arrêterait quand ?

Il faut spécifier que l'on veut suivre les liens avec l'option de récursivité qui est implicitement paramétré pour une profondeur de 5. Si je ne veux que les fichiers en lien sur la page spécifié je doit indiquer une profondeur de 1. Si j'en reste la, je récupère tout les fichiers. Si je ne veux que les pdf, les jpg, les deux ou encore les fichiers ayant un certain nom, je filtre avec l'option accept (Specify comma-separated lists of file name suffixes or patterns to accept or reject. Note that if any of the wildcard characters, *, ?, [ or ], appear in an element of acclist or rejlist, it will be treated as a pattern, rather than a suffix.).

Donc la commande devient :
wget http://www.mapage.com/avecdespdf.html -r -l 1 -A pdf


Voilou.