Chacun des évènements qui se sont produits sur votre site est stocké sur un serveur. Alors, c’est un concept qui peut sembler étrange, mais oui, votre site a donc un journal intime. Le nombre de vos visites, leurs dates et leurs heures, les coordonnées informatiques de vos visiteurs… tous ces mouvements seront renseignés dans un fichier unique auquel vous pourrez avoir accès. L’analyse des données provenant de ce fichier vous permettra d’être en mesure d’améliorer votre SEO.
Les premières notions à connaitre sur l’analyse de logs
Dans sa définition la plus basique, le terme « log » s’apparente à la séquence de connexion au cours de laquelle un appareil a été sur votre site web. C’est encore assez flou pour vous ? Alors voici une définition plus technique et plus approfondie :
Lorsqu’un visiteur atterrit sur votre site web, un programme informatique se charge d’enregistrer ce passage dans un fichier qui se trouve sur le serveur appelé « log file ». Le programme prend note de tous les détails, depuis l’heure de la connexion du visiteur jusqu’à celle où il a quitté votre site. Ainsi, chaque mouvement enregistré sur votre site va correspondre à une petite ligne de programme pour définir la nature de chaque action.
L’analyse de logs et GoogleBot
Google a mis en place un robot informatique pour analyser chaque site web mis en ligne. Ainsi, GoogleBot effectue une exploration affinée du contenu de votre site. Lorsque vous créez une nouvelle page, par exemple, le robot de Google va tout de suite la détecter, et procèdera à son indexation. Il en fera de même pour toutes les mises à jour que vous effectuez sur vos anciennes pages.
Google dispose d’un réseau d’ordinateurs très vaste. Ce qui lui permet de visiter un très grand nombre de pages web en un minimum de temps. Pour ce faire, GoogleBot fonctionne sur la base d’un algorithme spécifique qui l’aide à déterminer la page sur laquelle il doit aller. Le programme informatique lui indique également combien de fois le robot de Google doit revenir sur votre site ainsi que le nombre de pages qu’il doit y extraire.
L’analyse de logs et ses indicateurs
L’analyse de logs indique le niveau de crawl qui a été effectué sur votre site web. Afin de vous assurer que toutes les URL aient été bien collectées par GoogleBot, vous devez avant tout avoir une idée du taux de crawl global en fonction des niveaux de profondeur. Plus une page est profonde, moins elle remontera dans les SERPS. Il y aura donc moins de trafic et le robot de Google aura davantage de difficulté à effectuer le crawl.
Mais ça ne s’arrête pas là, car vous devez également faire un sondage de l’activité de vos pages. La notion de page active repose sur les visites qu’elle génère au cours d’une période bien définie. Donc, après le taux de crawl global, vous allez chercher à connaitre le taux de crawl des pages actives. Et comme précédemment, il faudra effectuer l’analyse par niveau de profondeur des pages.
Parallèlement, vous devez avoir une notion des codes qui s’apparentent aux retours des requêtes. Vous devez vous assurer de la prédominance des codes 200, et devez être capable de réparer les erreurs 404. En outre, lorsqu’une page a subi un changement temporaire d’adresse, celle-ci sera affiliée au code 302. Il est donc très important que vous identifiiez toutes les pages affectées par ce changement, et les faire passer aussitôt en code 301.
L’analyse des logs et ses objectifs SEO
Dans le domaine du SEO, l’analyse de logs sert à comprendre le comportement de Google face à votre site. Cela vous permettra de savoir sur quelles pages Google a crawlé et sur lesquelles GoogleBot n’est pas passé. Vous aurez également un aperçu de la fréquence de l’exploration de votre site, ainsi que l’influence que ce passage aura sur les visites.
Effectuer une analyse des logs équivaut à effectuer une analyse sur la base de votre référencement. Ce qui veut dire que vous allez évaluer la façon dont le robot de Google procède à l’exploration de votre site web, en navigant d’une page à une autre. Mais avant tout cela, vous pourrez savoir comment GoogleBot a pu accéder à votre site, et combien de temps il a passé dessus. Vous connaitrez également combien de fois il est passé sur votre site, et à quelle fréquence.
Déroulement du crawl SEO
En premier lieu, il est important de souligner que le crawl de GoogleBot diffère au crawl SEO. En effet, si le premier fait référence au processus d’extraction du robot de Google, le second se réfère à l’action de suivi de toutes les pages liées sur le site. L’outil de crawl SEO sera ainsi appelé « crawler ».
Le crawler explore les pages de votre site web de manière tout à fait exhaustive. L’accès aux pages se fait par le biais des liens qu’il trouve au sein du site lui-même. Toutefois, c’est la combinaison de ces formes de crawl qui va vous permettre d’améliorer votre référencement naturel.
Interpréter le résultat des analyses de crawl n’est pas chose donnée à tout le monde. Ce sont des informations très techniques que vous devez savoir lire correctement pour ne pas les traduire de façon erronée. Vous aurez, en effet, à combiner les données de crawl avec d’autres données analytiques. Et comme vous avez vous-même effectué vos propres analyses, vous allez par la suite confronter vos résultats aux données précédemment collectées.
Si vous voulez aboutir à une analyse pertinente, vous devez disposer d’une excellente maitrise d’Excel, car vous aurez grand besoin d’effectuer des tableaux croisés dynamiques et recourir aux macros. Vous pouvez également vous servir d’un logiciel libre tel que Linux si vous vous débrouillez bien avec ses différentes commandes, comme awk et grep. Cela vous sera d’une grande utilité pour manipuler les fichiers des logs.
En outre, afin d’obtenir un résultat d’analyse bien précis, il est indispensable de procéder à la catégorisation de votre site. Cela consiste entre autres à segmenter le contenu de votre site et à classer les pages par groupe. Ce procédé fait partie d’un processus d’audit technique qui vise à améliorer votre référencement en passant par l’optimisation uniforme de chacune de vos pages web.