Posez votre question Signaler

Récupérer les pdf d'une page web. [Résolu]

crack40 975Messages postés dimanche 10 août 2008Date d'inscription 21 mars 2013Dernière intervention - Dernière réponse le 29 déc. 2014 à 15:38
Bonjour a tous,
Voila je désir téléchargé tout les pdf d'une page web (tout est légal), je souhaiterais trouvé un programme ou plugin afin de faire ça en un bloc au lieux de les récupérer un a un.
Merci,
Cordialement.
Lire la suite 
Réponse
+3
moins plus
Merci de m'avoir répondu si vite,
Alors j'ai récupérer un fichier htlm, mais je ne trouve pas les pdf.
Ajouter un commentaire
Réponse
+2
moins plus
Salut,

Si je me contente de "wget http://www.mapage.com/avecdespdf.html -A pdf" je demande uniquement de charger le fichier "avecdespdf.html". Même si je passe l'option accept, qui dans ce cas ne sert qu'a faire joli. Il ne faut pas oublier que wget comme tout les crawler, bot et autre navigateurs ne fait que charger des fichiers un par un.

Dans ce cas je n'ai pas spécifié de suivre de liens, donc wget ne les suivra pas, ce qui est logique. C'est pareil pour un navigateur : c'est pas parce que je demande une page que ça sous entend que je vais suivre tous les liens automatiquement, vous imaginez le bordel que ça serait et ça s'arrêterait quand ?

Il faut spécifier que l'on veut suivre les liens avec l'option de récursivité qui est implicitement paramétré pour une profondeur de 5. Si je ne veux que les fichiers en lien sur la page spécifié je doit indiquer une profondeur de 1. Si j'en reste la, je récupère tout les fichiers. Si je ne veux que les pdf, les jpg, les deux ou encore les fichiers ayant un certain nom, je filtre avec l'option accept (Specify comma-separated lists of file name suffixes or patterns to accept or reject. Note that if any of the wildcard characters, *, ?, [ or ], appear in an element of acclist or rejlist, it will be treated as a pattern, rather than a suffix.).

Donc la commande devient :
wget http://www.mapage.com/avecdespdf.html -r -l 1 -A pdf


Voilou.
Ajouter un commentaire
Réponse
+1
moins plus
Bonjour,
la commande wget est bonne il manque juste l'option -r qui donne cela :

wget -r -A.pdf http://tonsiteoutuveuxrecuplespdf.com

et la ça fonctionne parfaitement ;)
Ajouter un commentaire
Réponse
+0
moins plus
Salut,
wget -A.pdf URL
Ajouter un commentaire
Réponse
+0
moins plus
Effectivement ;-((

Pourtant la page de man et tous les exemples sur le web donnent cette syntaxe (ou -A "*.pdf") mais même comme ça, ça marche pô ;-(((

Désolé.
Ajouter un commentaire
Réponse
+0
moins plus
En fait je peut téléchargé les pds que par un par un.
jipicy 42923Messages postés jeudi 28 août 2003Date d'inscription ModérateurStatut 7 novembre 2010Dernière intervention - 30 mars 2009 à 20:16
Oui mais ce n'est pas le but, et c'est ce qu'est sensée faire l'option "-A.pdf", à savoir tous les pdf et non pas un !

Je ne comprends pas ;-((

Espérons que quelqu'un saura nous en dire plus...
Répondre
Ajouter un commentaire
Réponse
+0
moins plus
En fait je un programme ou plugin comme "DownloadHelper", qui permet entre autre de récupérer plusieurs fichier multimédia, mais pour les pdf.
Ajouter un commentaire
Réponse
+0
moins plus
UP!
Ajouter un commentaire
Réponse
+0
moins plus
Salut,
Je reviens vers vous dire que trouvé comment faire, j'utilise "webhttrack" pour ubuntu:
Instalation et untilisation: http://doc.ubuntu-fr.org/httrack
jipicy 42923Messages postés jeudi 28 août 2003Date d'inscription ModérateurStatut 7 novembre 2010Dernière intervention - 31 mars 2009 à 16:45
Merci ;-))

Mais bon j'aurai bien aimé une explication sur le pourquoi du comment du non-fonctionnement de l'option -A de wget ;-(((
Répondre
Ajouter un commentaire
Réponse
+0
moins plus
Ben en fait, il ne m'enregistre que la page web sans le dossier des pièces de cette page. Sur cette page il y a des liens pdf, quand clip dessus il me le fais télécharger.
J'espère que tu me comprend.
Ajouter un commentaire
Ce document intitulé «  Récupérer les pdf d'une page web.  » issu de CommentCaMarche (www.commentcamarche.net) est mis à disposition sous les termes de la licence Creative Commons. Vous pouvez copier, modifier des copies de cette page, dans les conditions fixées par la licence, tant que cette note apparaît clairement.

Vous n'êtes pas encore membre ?

inscrivez-vous, c'est gratuit et ça prend moins d'une minute !

Les membres obtiennent plus de réponses que les utilisateurs anonymes.

Le fait d'être membre vous permet d'avoir un suivi détaillé de vos demandes.

Le fait d'être membre vous permet d'avoir des options supplémentaires.