Que nous apprend la nouvelle Google Search Console ?

De plus en plus de propriétaires de sites ont accès à la nouvelle Google Search Console, ce qui leur permet de voir si les données de leur site ont été transférées dans le nouvel outil. Un mail est envoyé lorsque le site est prêt, ou il suffit de se rendre sur ce lien :

https://search.google.com/search-console/index et regarder si ce dernier s’affiche dans la liste des propriétés.

 

A date, 2 plateformes de Search Console cohabitent. En effet, la nouvelle Search Console étant en bêta, tous les rapports ne sont pas encore disponibles et resteront donc accessibles sur l’ancienne Search console. Il existe des liens reliant les deux Search Consoles.

Une nouvelle structure, de nouveaux rapports

La nouvelle Google Search Console n’est pas uniquement un changement de design, c’est une refonte majeure car la technologie évolue. Cela devra permettre d’harmoniser les données, aussi bien l’affichage que dans le délai de latence. La nouvelle Search Console devient un nouvel outil de communication, voir même de pédagogie. La communication se fait toujours dans un sens, Google informe les webmasters de l’état de santé du site, tout en leur fournissant des informations supplémentaires.

La Search Console délivrera pour le moment 3 nouveaux rapports :

  • Rapport sur la performance (analyse de la recherche)
  • Couverture de l’index (rapport d’erreur)
  • AMP (Accelerated Mobile Pages)

 

Le rapport performance

La grande nouveauté du rapport sur la performance est d’avoir maintenant 15 mois de données (contre 90 jours dans l’ancienne version).

 

 

Malheureusement, à l’heure actuelle, ce rapport est moins détaillé que sur l’ancienne version. Certains filtres ne sont pas encore présents, comme par exemple la comparaison entre les résultats enrichis. Au final, si la nouvelle Search Console a beaucoup plus d’historique, elle n’intègre pas encore toutes les fonctionnalités présentes sur l’ancienne.

 

Couverture de l’index (Index Coverage)

Cette nouvelle section a une réelle valeur ajoutée par rapport à l’ancienne Search Console. À noter que l’historique sur cette section n’est que de 90 jours (VS 15 mois dans les autres).

Le processus pour corriger une erreur est plus fluide :

  • Les erreurs sont plus détaillées : pour les erreurs AMP, on peut directement voir le code source ; pour les erreurs d’exploration, les raisons sont plus explicites.
  • Il est possible de partager un rapport d’erreur à quelqu’un qui n’a pas accès à Search Console
  • Googlebot devrait prendre en compte plus facilement les corrections.

Il est possible d’avoir des informations sur toutes les pages connues par Google, ou bien de filtrer sur certains sitemaps. A chaque visite, Google indique le nombre d’erreurs, les pages avec avertissements, les pages valides et les pages exclues.

 

Pour les sitemaps, il est donc beaucoup plus facile de voir quelles sont les pages qui ont été soumises mais qui ne sont pas indexées. Les informations ne sont pas exhaustives, nous sommes toujours limitées à 1000 lignes par export…, contrairement à 500 lignes dans l’ancienne version.

 

Concernant les motifs (pourquoi les pages sont-elles exclues de l’index ?), Google donne plus d’explications. Ce qui permet d’avoir quelques rappels sur le fonctionnement de ce dernier.

Quelques rappels sur le fonctionnement de Google


1/ La balise canonical n’est pas une directive, Google peut choisir celle qu’il veut

La nuance est importante car Google n’est pas obligé de suivre les informations contenues dans la balise canonical.

Dans le rapport de couverture d’index, parmi les URL exclues, il peut y avoir le motif « Google n’a pas choisi la même page canonique que l’utilisateur » ou bien « l’URL envoyée n’a pas été sélectionnée comme URL canonique ». L’URL contient donc une balise canonical pointée vers elle-même mais Google peut juger qu’une page « doublon » est meilleure. Google indexera donc le doublon malgré la balise canonical.

Pour connaitre la page canonique choisie par Google, il est conseillé d’utiliser la commande « info : ».

Il est donc important de bien travailler le maillage interne pour déclarer l’URL la plus puissante comme balise canonical. La balise canonical doit être cohérente avec l’architecture du site.

2/ Le robots.txt n’empêche pas l’indexation

Le robots.txt empêche le crawl mais pas l’indexation. Une page peut être indexée même si Googlebot n’est pas autorisé à l’explorer. Un avertissement est à présent prévue dans la nouvelle Search Console : « indexée malgré le blocage par le fichier robots.txt ».

Pour désindexer une page, il est nécessaire de le faire explicitement par une balise meta robots noindex, ou bien un en-tête http noindex.

3/ La nouvelle Search Console ne résoudra pas les mystères de l’indexation

Parfois, certaines pages ne sont pas indexées (c’est de plus en plus rare, Google est quand même très curieux et gourmand, la preuve, il indexe même des pages bloquées par le robots.txt) et il est difficile de comprendre les raisons de l’indexation. Après avoir fait les vérifications nécessaires (noindex, canonical, pas de pro

blème d’exploration, de rendu, etc.), il est nécessaire de comprendre les raisons pour lesquelles cette dernière n’a pas été indexée.

Il existe des motifs : « explorée, actuellement non indexée », avec une aide assez laconique : « a page a été explorée par Google, mais pas indexée. Elle sera peut-être indexée à l'avenir ; il n'est pas nécessaire de renvoyer cette URL pour l'exploration. ».

Vous voilà bien avancé…mais au moins, vous savez qu’il ne faut pas s’acharner. On note donc une réaction de Google mais pas de solution concrète.

En conclusion

A l’heure actuelle, la nouvelle Search Console n’est pas encore totalement opérationnelle : ce n’est qu’une version bêta (ouverte à beaucoup d’utilisateurs). Si elle est plus pratique pour comprendre les erreurs, il manque des informations concernant l’analyse de la recherche.

Beaucoup de rapports ne sont pas encore présents : liens vers votre site, actions manuelles, ciblage international, ergonomie mobile, état de l’indexation, statistiques de l’exploration, paramètres d’url, etc.

Au final, la nouvelle Search Console est prometteuse. On espère juste que Google ne profitera pas de ce changement pour supprimer certaines informations. Vivement qu’un maximum de données soit transféré. 

 PS : Google vient de mettre en ligne une page où elle interroge les webmasters sur les besoins de la nouvelle Search Console tels que les rapports manquants.