A voir également:
- Hostname AMAZONAWS comme visiteur de mon site internet.
- Site de telechargement - Guide
- Site de vente entre particulier - Guide
- Site inaccessible - Guide
- Gps sans internet - Guide
- Comment verifier un site internet - Guide
1 réponse
avion-f16
Messages postés
19244
Date d'inscription
dimanche 17 février 2008
Statut
Contributeur
Dernière intervention
17 avril 2024
4 496
Modifié le 11 août 2019 à 04:00
Modifié le 11 août 2019 à 04:00
Bonjour,
Il s'agit probablement de simples applications (robots d'indexation ou autre) déployées sur l'infrastructure Cloud de Amazon (AWS = Amazon Web Service).
Je ne sais pas ce que tu as pu lire sur ce service, mais tu as peut-être mal interprété... Amazon est un des leaders à côté de Google (sa "Cloud Platform") ou Microsoft Azure. Ces services fournissent une infrastructure Cloud pour les entreprises, c'est un service IaaS, voire PaaS. Pour rester simple, c'est un peu comme un fournisseur de serveurs, mais version Cloud. On parle ici du vrai Cloud, pas du pseudo "cloud" qu'on écrit à tort sur tout et n'importe quoi pour attirer le grand public.
Ne perds pas ton énergie à chercher comment bloquer efficacement ces visiteurs non-humains, cela ne fera que complexifier ton site, et tu n'y parviendras jamais de manière totalement efficace. Tu ne sais même pas le but de ces visites, cela est peut-être lié à un service légitime. Et ajouter des règles de filtrage n'empêche quand même pas la sollicitation de ton serveur ou de la connexion, le paquet IP arrivera jusqu'à ton serveur avant d'être refusé. En ajoutant des règles de filtrage, toutes les requêtes légitimes passent par une règle de filtrage supplémentaire et seront légèrement ralentie. Ensuite, même si tu bloquais toutes les IP appartenant à AWS, il en reste encore tellement d'autres.
Des fois, je conseille même de désactiver l'enregistrement des erreurs 404. À quoi bon les enregistrer ? Elles n'apportent aucune information utile, alourdissent les registres, et au final, elles font suite à des requêtes qui sont quand même reçues et traitées par le serveur.
Il s'agit probablement de simples applications (robots d'indexation ou autre) déployées sur l'infrastructure Cloud de Amazon (AWS = Amazon Web Service).
Je ne sais pas ce que tu as pu lire sur ce service, mais tu as peut-être mal interprété... Amazon est un des leaders à côté de Google (sa "Cloud Platform") ou Microsoft Azure. Ces services fournissent une infrastructure Cloud pour les entreprises, c'est un service IaaS, voire PaaS. Pour rester simple, c'est un peu comme un fournisseur de serveurs, mais version Cloud. On parle ici du vrai Cloud, pas du pseudo "cloud" qu'on écrit à tort sur tout et n'importe quoi pour attirer le grand public.
Ne perds pas ton énergie à chercher comment bloquer efficacement ces visiteurs non-humains, cela ne fera que complexifier ton site, et tu n'y parviendras jamais de manière totalement efficace. Tu ne sais même pas le but de ces visites, cela est peut-être lié à un service légitime. Et ajouter des règles de filtrage n'empêche quand même pas la sollicitation de ton serveur ou de la connexion, le paquet IP arrivera jusqu'à ton serveur avant d'être refusé. En ajoutant des règles de filtrage, toutes les requêtes légitimes passent par une règle de filtrage supplémentaire et seront légèrement ralentie. Ensuite, même si tu bloquais toutes les IP appartenant à AWS, il en reste encore tellement d'autres.
Des fois, je conseille même de désactiver l'enregistrement des erreurs 404. À quoi bon les enregistrer ? Elles n'apportent aucune information utile, alourdissent les registres, et au final, elles font suite à des requêtes qui sont quand même reçues et traitées par le serveur.
11 août 2019 à 15:51
Je surveille quand même, car une 20'aine de connexion/jour, ça fait beaucoup pour un robot... quoique l'IP est tjrs différente (pays).
Cdt.