OnCrawl Advanced pour optimiser le référencement naturel de son site

Delphine Lalande - jeudi 19 janvier 2017 - 11:09

OnCrawl Advanced pour optimiser le référencement naturel de son site

Quand on est un pureplayer, on ne sait pas toujours exactement la façon dont Google “interprète” et classe son site dans les résultats de recherche. OnCrawl Advanced est un outil qui permet de détecter les “failles” de conception d’un site web (pages cassées, mauvaises redirections…) et donc d’optimiser son SEO. Pierre Gincheleau, Traffic Manager chez Bricozor.com, nous explique les fonctionnalités de l’outil et comment l’utiliser pour améliorer le classement de son site sur Google.


Comment ça marche – Quels étaient les besoins de votre site quand vous avez fait appel à OnCrawl Advanced ?
Pierre Gincheleau - Nous souhaitions avoir une vision claire et précise de la façon dont Google crawlait et « interprétait » notre site. En effet, nous utilisions déjà un crawler pour détecter les optimisations SEO à mettre en place, mais au vu de la complexité technique de notre site et de la volumétrie de page, nous souhaitions aller plus loin et l’analyse de logs s’est rapidement imposée.

CCM – Pourquoi avoir choisi cet outil de référencement naturel ? Comment l’avez-vous connu ?
PG - Le simple crawl de notre site ne suffisait plus, nous souhaitions analyser les logs pour remonter les problèmes de conception, les pages sous-crawlées/sur-crawlées. Nous nous sommes vite rendus compte que nous avions besoin de data SEO fiables pour prioriser les optimisations SEO en interne.

Le choix d’Oncrawl a été plutôt rapide. Nous connaissions l’outil puisque nous avions déjà testé la première version du crawler. Nous avions également eu l’occasion de rencontrer l’équipe d’Oncrawl lors de l’événement Que Du Web et de suivre les différents webinars de François Goube. Les nouveautés apportées au crawler ainsi que le travail effectué sur l’interface nous ont convaincu.

CCM – En quoi consiste l’analyseur de logs d’OnCrawl ?
PG - Tout d’abord, Oncrawl est un outil SEO plutôt technique orienté sur les optimisations On-page. Tous les éléments importants pour le référencement naturel y sont passés à la loupe (erreurs 404, redirections internes, balise title, Hn, duplication, maillage interne, etc.). A cela, vient s’ajouter l’analyse des logs qui permet de croiser les données du crawler (la structure de notre site) avec le crawl réel de Googlebot, le robot de Google. Les différences peuvent être très importantes et capitales pour le bon référencement d’un site web !

CCM – Un petit mot sur le crawl ? Qu’est-ce ?
PG - Il y a 3 étapes dans le référencement d’une page : le crawl, l’indexation et la phase de ranking. Le crawl est donc la première étape du robot, elle consiste en quelque sorte à découvrir le site. Un outil de crawl va donc simuler cette étape en naviguant de lien en lien à la découverte de toutes les pages d'un site web.

CCM – Est-ce qu’il s’implémente facilement sur le site ?
PG - L’installation d’Oncrawl a été simple et très rapide. Il n’y a rien à mettre en place sur le site, il suffit de collecter l’ensemble de ses logs serveur et de les déposer via FTP sur les serveurs d’Oncrawl. L’outil se charge ensuite d’extraire les logs de Google et de traiter la data.

CCM – Concrètement, que vous a permis de faire ou de collecter cet outil ?
PG - En plus des données SEO classiques à optimiser, l’outil nous a permis de détecter des problèmes dont nous n’avions pas connaissance. Nous avions par exemple de nombreuses pages orphelines à réintégrer dans notre structure ou à rediriger définitivement.
Oncrawl nous a également permis d’orienter les optimisations sur le « crédit crawl » de Google. Nous avons bloqué ou limité le crawl de certaines pages peu utiles et nous avons orienté les bots vers les pages avec le plus fort potentiel de trafic.
Enfin, depuis l’implémentation d’Oncrawl, nous disposons d’un outil d’aide à la décision fiable et nous bénéficions d’une plus grande réactivité dans la correction d’éventuels problèmes techniques grâce aux données de logs de la veille.

CCM – Est-ce que l’outil est accessible à tous ou faut-il avoir certaines notions de SEO ?
PG - L’outil est simple à utiliser mais il faut une bonne connaissance du référencement et du site pour pouvoir retranscrire l’ensemble de la data en optimisations SEO efficaces.

CCM – Quels sont les avantages de la solutions ?
PG - L’interface et l’ergonomie de l’outil sont vraiment soignées. Les graphiques ainsi que le système de filtre permettent d’avoir une vision simple et rapide de la situation. On sent que l’outil a été développé par des SEO et qu’ils comprennent bien les problématiques actuelles des référenceurs. Dernier avantage et non des moindres, le service client est réactif.

CCM – Qu’est-ce que vous aimeriez voir ajouté à cet outil pour faciliter son usage ?
PG - Pour le moment, l’outil nous convient tout à fait et nous n’avons pas rencontré de difficultés dans son utilisation.

CCM – A quels types d’entreprise est-il plutôt dédié ?
PG - L’étude du crawl n’est pas limitée à un type de site ou à un type d’entreprise. Toutefois, même si elle peut être appliquée à des petits projets, l’analyse de logs est plutôt utile pour les sites d’envergure avec plusieurs milliers de pages.

Repères

OnCrawl

  • Outil dédié à l'optimisation du référencement naturel de sites Web sur les moteurs de recherche, dotée de fonctionnalités sémantiques.
  • Créé en mars 2015 par Cogniteev, éditeur de solutions Big Data.
  • Cogniteev a été co-fondé par François Goube et Tanguy Moal et compte aujourd'hui 11 salariés.
  • OnCrawl.com

Bricozor.com

  • Pureplayer e-commerce spécialisé dans le bricolage et la vente en ligne de quincaillerie et de matériel de bricolage pour les particuliers, présent sur le web depuis 2010.
  • Equipe de 20 personnes basée en Normandie, près de Caen
  • 40 000 références
  • Bricozor.com

Ajouter un commentaire

Commentaires

Donnez votre avis