SCRIPT chrome download automatique
Fermé
TOT127
Messages postés
898
Date d'inscription
mercredi 8 avril 2009
Statut
Membre
Dernière intervention
7 août 2018
-
8 févr. 2017 à 23:31
TOT127 Messages postés 898 Date d'inscription mercredi 8 avril 2009 Statut Membre Dernière intervention 7 août 2018 - 10 févr. 2017 à 14:32
TOT127 Messages postés 898 Date d'inscription mercredi 8 avril 2009 Statut Membre Dernière intervention 7 août 2018 - 10 févr. 2017 à 14:32
A voir également:
- SCRIPT chrome download automatique
- Script vidéo youtube - Guide
- Instagram download - Télécharger - Divers Communication
- Message automatique thunderbird - Guide
- Réponse automatique outlook - Guide
- C++ download - Télécharger - Langages
1 réponse
Utilisateur anonyme
Modifié par Rocailleux le 9/02/2017 à 09:08
Modifié par Rocailleux le 9/02/2017 à 09:08
Oui ça peut se faire
Déja c'est un peu barbare, mais dans l'url tu as un paramètre "rpp=" c'est le nombre de résultats à afficher par page, si tu le mets à 2072 tu pourra avoir tous les liens qui mènent au téléchargement en une seule fois :
Une fois que tu as tous ces liens il suffit de télécharger le contenu de la page, récupérer le lien http://blabla/truc/chose.pdf et le télécharger.
Ça peut se faire assez rapidement en python (libsoup, urllib) ou en bash (curl, grep, wget)
Déja c'est un peu barbare, mais dans l'url tu as un paramètre "rpp=" c'est le nombre de résultats à afficher par page, si tu le mets à 2072 tu pourra avoir tous les liens qui mènent au téléchargement en une seule fois :
var str = document.body.innerHTML ; var d = str.match(/\/bib\/jspui\/handle\/[0-9]{4}\/[0-9]{4}/g);
Une fois que tu as tous ces liens il suffit de télécharger le contenu de la page, récupérer le lien http://blabla/truc/chose.pdf et le télécharger.
Ça peut se faire assez rapidement en python (libsoup, urllib) ou en bash (curl, grep, wget)
9 févr. 2017 à 09:33
Content de savoir que ça veut se faire!
Par contre je crois que c'est totalement en dehors de ma compétence :/... mais je peux essayer d'apprendre. Pour too je crois que je peux le débrouiller, mais je ne con aid ni bash ni python
9 févr. 2017 à 10:08
Modifié par TOT127 le 9/02/2017 à 10:38
9 févr. 2017 à 20:06
Leur site marchait pas, il y a 3 mois je leur ai dit, ils m'ont dit non non ça marche, et là maintenant, ils m'ont écrit pour me dire que j'avais raison et que leur site s'affichait pas dans les navigateurs en français et qu'ils allaient y travailler. C'est fou haha
10 févr. 2017 à 13:29
Sinon, une fois que les liens sont récupérés (voir code javascript ci dessus), sous mac tu peux faire un code bash qui va parcourir chaque lien (voir la structure for truc in trucutruc do done https://www.cyberciti.biz/faq/bash-for-loop/ ) télécharger le contenu (https://doc.ubuntu-fr.org/wget repérer les liens .pdf (https://www.digitalocean.com/community/tutorials/using-grep-regular-expressions-to-search-for-text-patterns-in-linux ) et les télécharger ( wget à nouveau)