Référencement Naturel / SEO

Peut-on apprendre l’analyse de logs en assistant au SEO campus ?

« Pour un site à forte volumétrie, l’analyse de logs est un des rares outils qui donne des indicateurs SEO pour identifier les actions à mener. »


Non, on ne peut pas apprendre l’analyse de logs en 55 minutes. Par contre, on peut savoir ce qu’est une analyse de logs, quels sont les intérêts et les enjeux d’une analyse de logs. Pour tout ce qui relève de la réalisation, il faudra faire une formation ou faire appel à une agence comme iProspect. Les conférences des événements comme le SEO Campus permettent de sensibiliser, d’ouvrir de nouvelles perspectives, d’échanger… et donc d’apprendre, d’avoir des notions.

Du coup, que fallait-il retenir de l’analyse de logs au dernier SEOcamp Paris ?


L’analyse de logs est-elle réservée aux gros sites ?

L’analyse de logs est considérée comme une artillerie lourde… ou bien de la chirurgie de précision. En SEO, l’analyse de logs permet d’étudier le comportement de Googlebot. Elle est très utile pour les sites à forte volumétries de pages. Lorsque vous avez plus de 100 000 pages (sites d’annonces, gros sites e-commerce, etc.), c’est un des rares outils qui donne des indicateurs SEO, qui permet d’identifier des chantiers et de voir quelles sont les actions à mettre en place. Pour un site à forte volumétrie, il est indispensable d’utiliser les logs… en monitoring et en analyse.

Pour les sites de taille moyenne, l’analyse de logs peut également être utile. À l’approche d’une migration, de changements d’urls, nous vous recommandons d’étudier les logs pour surveiller le comportement de Googlebot : a-t-il crawlé les nouvelles pages ? rencontre-t-il des erreurs ?

Pour les plus petits sites, le monitoring n’est pas le plus approprié mais des analyses ponctuelles peuvent être utiles.


Comment analyser les logs ?

Autrefois, seule l’agence Aposition (désormais iProspect) faisait de l’analyse de logs… ou presque. Aujourd’hui, plusieurs outils sont apparus sur le marché, souvent créés par des anciens d’Aposition. Il existe donc des solutions en Saas, ou logiciels, orientées SEO comme Botify, OnCrawl,…

D’autres outils permettent d’analyser les logs, comme splunk, stack ELK (elasticSearch + Logstash + kibana), etc. Ils sont surtout pratiques pour le monitoring. Avec un peu de configuration, on peut leur donnée la vision SEO qu’ils n’ont pas par défaut.

Enfin, on peut également tout faire manuellement, en traitant ses fichiers de logs à base de lignes de commandes.

Les outils sont pratiques pour lire les logs mais ne suffisent pas pour faire une analyse. Il faut savoir quoi chercher et savoir interpréter les résultats pour pouvoir tirer des conclusions…et surtout savoir quoi faire derrière. On ne fait pas une analyse par plaisir, le but est vraiment de trouver des actions à mettre en place pour améliorer son référencement naturel.


Que regarder dans les logs ?

Au préalable, il faut regarder si les fichiers de logs ont bien une information complète. Si vous utilisez Varnish, vos logs serveurs ne vous serviront pas à grand-chose (ou alors, Varnish est très mal configuré).

Les logs doivent aussi avoir des informations indispensables :

  •  la date de la requête
  •  l’URL complète avec les paramètres de la requête
  •  le status code  (code HTTP) de la réponse (200, 301, 404, etc...),
  •  le UserAgent,
  •  l’adresse IP du client
  •  le Referer,
  •  le virtual host enfin (domain)

Après avoir des bons fichiers de logs, il est nécessaire de travailler la catégorisation des urls. Plusieurs catégorisations sont possibles et je vous conseille de les croiser. Vous pouvez faire une catégorisation technique, pour identifier des types de pages, une catégorisation marketing, pour identifier des rubriques, des univers… Cela permettra de voir quelles sont les pages qui sont les plus crawlées, etc.


Croiser les informations : logs + crawl, logs + analytics, etc.

En croisant les informations, l’analyse de logs est d’autant plus riche. Croiser un crawl et l’analyse de logs permet de donner du relief.

Googlebot connaît-il bien votre site ? Crawle-t-il tout le site ? Crawle-t-il beaucoup de pages orphelines ? Crawle-t-il beaucoup de pages inutiles ? Y a-t-il beaucoup de visites sur les pages crawlées ? quel est le taux de pages actives ? Quel est le taux de pages actives par niveau de profondeur ?

Si une rubrique est fortement crawlée mais n’a pas beaucoup de visites, que faire ? Doit-elle vraiment faire des visites ? Si oui, les balises SEO sont-elles travaillées ? Il ne faut jamais oublier les basiques. La page reçoit-elle beaucoup de liens internes ? de liens externes ?

Il y aura plusieurs pistes à explorer, et selon les réponses, plusieurs actions à mener.


Pour conclure sur l’analyse de logs et les conférences

Si l’analyse de logs et les outils vous donneront beaucoup d’information, il faudra encore du temps pour pouvoir l’interpréter et en tirer de bons enseignements. Évidemment, on ne peut pas voir tous ces aspects lors d’une conférence… mais si en sortant de la conférence, vous vous dites : « ah tiens, je ne connaissais pas l’analyse de logs mais ça a l’air top, je vais me renseigner sur ce sujet », alors j’aurais l’impression d’avoir été utile, et la conférence aura servi à quelques personnes.

Vous pouvez retrouver les slides du seocamp ici :