Htaccess SOS !

Fermé
bg62 Messages postés 23598 Date d'inscription samedi 22 octobre 2005 Statut Modérateur Dernière intervention 11 mai 2024 - 14 avril 2006 à 16:34
mamiemando Messages postés 33113 Date d'inscription jeudi 12 mai 2005 Statut Modérateur Dernière intervention 15 mai 2024 - 19 janv. 2007 à 18:47
y en a plus que marre ! je crée, je me casse la tête pour mettre en ligne, mais ça part d'un bon principe: "partager" !!
seulement il y en a qui se servent d'aspirateur et qui pompent tout sans même regarder pour en faire je ne sais quoi ?
peut-on mettre un fichier .htacess spécial ne concernant QUE les aspirateur de sites (pas les autresrobots) ???
merci à l'avance
@+
b g

9 réponses

mamiemando Messages postés 33113 Date d'inscription jeudi 12 mai 2005 Statut Modérateur Dernière intervention 15 mai 2024 7 753
14 avril 2006 à 19:19
Je te conseille l'excellent site suivant :
http://www.infres.enst.fr/~danzart/frames/htaccess.html

Il explique en particulier :
- comment ça marche
- comment ça se configure au niveau du serveur
- comment creer des groupes et des utilisateurs.

Note que la protection par htaccess suppose que tu puisses configurer ton serveur apache ou que celui-ci soit configuré de sorte à les prendre en compte.

Bonne chance, et bonne lecture ;)
0
bg62 Messages postés 23598 Date d'inscription samedi 22 octobre 2005 Statut Modérateur Dernière intervention 11 mai 2024 2 364
15 avril 2006 à 08:18
OK MERCI vais aller voir dès que je peux
@mitiés
b g
0
bg62 Messages postés 23598 Date d'inscription samedi 22 octobre 2005 Statut Modérateur Dernière intervention 11 mai 2024 2 364
22 avril 2006 à 17:49
j'ai regardé mais pour ce que je cherche en particulier, rien trouvé !
je veux juste faire un fichier qui interdisse les aspirateurs et eux seulement

Voilà ce que j'ai trouvé pour bloquer les aspirateurs dans mon fichier:

CODERewriteCond %{HTTP_USER_AGENT} .*DirectUpdate* [OR]
RewriteCond %{HTTP_USER_AGENT} .*eCatch* [OR]
RewriteCond %{HTTP_USER_AGENT} .*EmailCollector* [OR]
RewriteCond %{HTTP_USER_AGENT} .*flashget* [NC,OR]
RewriteCond %{HTTP_USER_AGENT} .*frontpage* [NC,OR]
RewriteCond %{HTTP_USER_AGENT} .*Haste* [OR]
RewriteCond %{HTTP_USER_AGENT} .*HTTPConnect* [OR]
RewriteCond %{HTTP_USER_AGENT} .*HTTrack* [OR]
RewriteCond %{HTTP_USER_AGENT} .*Indy\ Library* [OR]
RewriteCond %{HTTP_USER_AGENT} .*lwp-trivial* [OR]
RewriteCond %{HTTP_USER_AGENT} .*Teleport\ Pro* [OR]
RewriteCond %{HTTP_USER_AGENT} .*vobsub* [NC,OR]
RewriteCond %{HTTP_USER_AGENT} .*WebCapture* [OR]
RewriteCond %{HTTP_USER_AGENT} .*WebCopier* [OR]
RewriteCond %{HTTP_USER_AGENT} .*WebDAV* [OR]
RewriteCond %{HTTP_USER_AGENT} .*WEBsaver* [OR]
RewriteCond %{HTTP_USER_AGENT} .*WebStripper* [OR]
RewriteCond %{HTTP_USER_AGENT} .*WebZIP* [OR]
#RewriteCond %{HTTP_USER_AGENT} .*Wget* [OR]
RewriteCond %{HTTP_USER_AGENT} .*Wysigot* [OR]
RewriteCond %{HTTP_USER_AGENT} .*Zeus.*Webster* [OR]
RewriteCond %{HTTP_USER_AGENT} .*Zeus*
RewriteRule ^.*$ http://www.autre_site.com[/url] [L,R]


les commentaires qui y étaient ajoutés:
Détecter les aspirateurs de site
Une source importante de consommation CPU peut provenir des aspirateurs de sites.
Il n'existe pas de solution miracle pour interdire les accès d'aspirateur. Il ne faut pas non plus être trop strict pour éviter de bloquer l'accès au robot d'indexation des moteurs de recherche.
La solution la plus basique est de créer un fichier .htaccess à la racine du site à protéger qui va interdire les accès à tous les robots ayant un user-agent connu comme étant celui d'un aspirateur. Ce n'est évidemment pas complet comme solution, mais une bonne partie des aspirateurs seront refoulés malgré tout !
RewriteEngine ON RewriteCond %{HTTP_USER_AGENT} .*Advanced\ Email\ Extractor* [OR]
mais ... mis sur la racine du site cela bloque TOUT ... même moi parfois donc erreur de synthaxe ou d'emplacement, là je ne sais pas !
@mitiés
b g
0
mamiemando Messages postés 33113 Date d'inscription jeudi 12 mai 2005 Statut Modérateur Dernière intervention 15 mai 2024 7 753
22 avril 2006 à 22:49
Bon ben j'ai appris quelque chose, pour moi les htaccess ça servait juste à restreindre certaines zones du site... Donc là, c'est en dehors de mes compétences ! A part espérer qu'une âme inspirée passe sur ce post ou chercher sur google, je ne sais pas trop quoi te dire...

Bonne chance
0
bg62 Messages postés 23598 Date d'inscription samedi 22 octobre 2005 Statut Modérateur Dernière intervention 11 mai 2024 2 364
26 avril 2006 à 16:57
merci quand même
@+
b g
htpp://www.unesourisetmoi.info
0

Vous n’avez pas trouvé la réponse que vous recherchez ?

Posez votre question
Est ce que ça marche ?

Greg
0
bg62 Messages postés 23598 Date d'inscription samedi 22 octobre 2005 Statut Modérateur Dernière intervention 11 mai 2024 2 364
6 déc. 2006 à 12:12
??? j'aimerais bien, mais cette solution n'est pas la meilleure et pose certains problèmes !
j'ai trouvé d'autres scripts mais ... compliqués et il faut que je vois
@mitiés
b g
0
Pour interdire les aspirateurs de site (spiderzilla et autres...)
je conseille le site suivant,
où tout est bien expliqué, pour les débutants :
http://www.toulouse-renaissance.net/c_outils/c_interdire_aspirateurs.htm

Amicalement,
Thifoolish.
0
bg62 Messages postés 23598 Date d'inscription samedi 22 octobre 2005 Statut Modérateur Dernière intervention 11 mai 2024 2 364 > thifoolish
12 janv. 2007 à 10:50
Merci pour ton lien, mais quand on suit leurs indications (premier exemple que j'avais donné) et que l'on veut leur soumettre ils te répondent que cela ne peut pas fonctionner ....
alors là .....
si tu as une vraie solution je suis preneur !
@mitiés
b g
0
thifoolish > bg62 Messages postés 23598 Date d'inscription samedi 22 octobre 2005 Statut Modérateur Dernière intervention 11 mai 2024
14 janv. 2007 à 15:37
Chez qui es-tu hébergé ???
Il y a peut être des considérations spécifiques à prendre...
Quelle est la version du serveur ? Apache ? Autres ?

Ensuite le début de ton code htaccess posté est mauvais...
Envoie moi tout le fichier avec les précisions demandées par courriel,
Je te dirai où est le problème et comment le résoudre.

Amicalement,
Thifoolish.
0
bg62 Messages postés 23598 Date d'inscription samedi 22 octobre 2005 Statut Modérateur Dernière intervention 11 mai 2024 2 364 > thifoolish
15 janv. 2007 à 10:35
Bonjour
pour l'hébergement c'est 1and1
quand au code c'est ce qui est dans ce post, je me suis ar^été dès que j'ai vu que cela 'coinçait' !!! je ne suis pas du niveau pour y arriver ! là c'est sur !
si tu peux m'aider, on peut partir de cette base (elle est mauvaise je sais ...)
car en plus j'ai un second site du même genre qui sera en ligne dans qq mois et il sont faits l'un comme l'autre pour visiter et se servir, voire prendre contact pour des demandes particulères, alors aspirer, non seulement cela pose problème sur les bandes passantes des serveurs, mais dans mon cas je trouve cela idiot et surtout inutile car ce n'est pas le but du site
j'espère que tu pourras m'aider à résoufre enfin ce problème
@mitiés
b g
0
bg62 Messages postés 23598 Date d'inscription samedi 22 octobre 2005 Statut Modérateur Dernière intervention 11 mai 2024 2 364
17 janv. 2007 à 16:10
Bonjour ...
et si en plus l'on a déjà un fichier de ce genre à la racine du site, peut-on en avoir un second ??? (quel intitulé ?)
ou peut-on mettre les autres codes dedans sans perturber sa première fonction ???
@mitiés
b g
0
thifoolish Messages postés 79 Date d'inscription jeudi 11 janvier 2007 Statut Membre Dernière intervention 11 juillet 2008 18
19 janv. 2007 à 16:22
En fait, la protection est verticale.
Si tu mets une protection en place dans un dossier, alors tous les fichiers et tous les sous-dossiers seront protégés. Ainsi, tu peux affiner ta protection au fur et à mesure que tu affines l'arborescence de ton site web.

racine du serveur
->dossierconfig
-->.htaccess  # htaccess contenant deny for all
-->.htpasswd # fichier de mots de passe
->dossier1      # nommé (d1) dans les lignes suivantes
-->.htaccess
# par exemple, interdisant les aspirateurs et les liens externes...
-->d1-fichier1
-->d1-f2
-->d1-f3
-->d1-ss-dossier1
--->.htaccess # définition d'une zone admin, par exemple...
--->fichier1
--->fichier2
--->fichier3

etc...
C'était une explication visuelle de la bonne gestion des protections sur un serveur apache avec les fichiers htaccess. Après il y a d'autres manières de faire, bien plus sécurisée que celle-ci.
Mais cette manière-là, simple et fonctionnelle, marche.
0
bg62 Messages postés 23598 Date d'inscription samedi 22 octobre 2005 Statut Modérateur Dernière intervention 11 mai 2024 2 364 > thifoolish Messages postés 79 Date d'inscription jeudi 11 janvier 2007 Statut Membre Dernière intervention 11 juillet 2008
19 janv. 2007 à 17:01
merci c'est déjà un peu plus clair ...
mais là ou je coince de vouveau c'est:
# par exemple, interdisant les aspirateurs et les liens externes...
on y mettrai quoi ???? car j'y perds mon latin, enfin c'est vite dit !
@mitiés
b g
0
bg62 Messages postés 23598 Date d'inscription samedi 22 octobre 2005 Statut Modérateur Dernière intervention 11 mai 2024 2 364
18 janv. 2007 à 15:23
plus personne ?
0
mamiemando Messages postés 33113 Date d'inscription jeudi 12 mai 2005 Statut Modérateur Dernière intervention 15 mai 2024 7 753
18 janv. 2007 à 20:01
Tu peux avoir un htaccess par répertoire, je ne sais pas si ça répond à ta question.

Bonne chance
0
bg62 Messages postés 23598 Date d'inscription samedi 22 octobre 2005 Statut Modérateur Dernière intervention 11 mai 2024 2 364
19 janv. 2007 à 12:19
ben ... oui et non ! car mon problème est SURTOUT ce qu'il y a à mettre dedans ...
@mitiés
b g
0
mamiemando Messages postés 33113 Date d'inscription jeudi 12 mai 2005 Statut Modérateur Dernière intervention 15 mai 2024 7 753
19 janv. 2007 à 18:47
Ah ce moment relis bien :
http://www.infres.enst.fr/~danzart/frames/htaccess.html

C'est expliqué dedans !

Bonne chance
0