Vincent Courson, le plus frenchy des Googlers, a annoncé sur son compte Twitter que l'inspection d'URL de la nouvelle Google Search Console se dote de nouvelles fonctionnalités et données. Ainsi, les webmasters vont pouvoir retrouver de nouvelles informations utiles pour mieux analyser le référencement de leurs sites web.
Désormais, la fonctionnalité de l'inspection d'URL permet d'afficher d'autres informations utiles en cas de test en ligne, comme :
- la réponse HTTP ;
- les ressources de la page ;
- les logs JS ;
- une capture d'écran (screenshot) du rendu par Googlebot.
Notez bien qu'il faut cliquer sur le bouton "Tester l'URL en ligne" pour obtenir ce nouveau volet d'informations, qui s'affiche à droite de l'écran. Trois onglets sont disponibles dont deux dédiés aux nouvelles données fournies.
Attention aux résultats "troublants"
Je vous mets en garde de suite sur les résultats qui pourraient être affichés, comme je le décris jusqu'à la fin de cet article. Soit GoogleBot est vraiment incapable de bien lire une page (ce serait le comble), soit l'outil ne rend pas des résultats réalistes et acceptables, soit l'outil a raison et je vous déconseille fortement de suivre les recommandations du W3C et de Google sur certains sujets techniques (ce qui serait le comble là encore). Mais dans tous les cas, vous risquez d'être déçus par les résultats.
Le comble est qu'aucun autre outil, que ce soit directement dans Google Chrome ou même dans la Search Console, n'affiche les mêmes erreurs à un autre endroit. Par exemple, les ressources dites "bloquées" devraient aussi être visibles ailleurs, mais ce n'est pas le cas. Une forme de paradoxe peut résulter des tests effectués, soyez-en conscients...
Le premier cas, testé avec ce blog créé avec WordPress, m'a semblé extrêmement troublant pour être honnête. La capture d'écran n'affiche aucun rendu CSS (alors que mes ressources CSS ne sont pas bloquées du tout, etc.) et me notifie plusieurs fois la même erreur jQuery (Javascript) qu'aucun navigateur ne me note dans les outils de développement. Certes, la version de Chrome utilisée par GoogleBot est ancienne, mais je ne comprends pas du tout les erreurs affichées sur l'URL testée, c'est c'est bien là le problème de l'outil...
Comme je ne m'arrête pas à un seul test, j'ai également fait la même expérience avec le site de mon activité, Internet-Formation. Celui-ci est entièrement fait main à partir d'HTML, CSS, Javascript et PHP. Normalement, tout devrait donc aller pour le mieux, avec un site sans erreur de code majeure, etc. Et bien non, la capture d'écran n'est pas entièrement fidèle, mais au moins un peu de CSS a été chargé cette fois-ci. Côté erreurs, les polices WOFF ne sont pas chargées, ce qui est un comble quand on sait qu'un navigateur a plusieurs choix de format de polices et qu'il peut prendre le plus adapté pour lui (j'en propose 5 types dont 3 lisibles par Chrome...). Pire, deux images en background via CSS ne sont pas chargées non plus. Les deux captures suivantes montrent les résultats de ce second test peu probant...
Pour l'anecdote, ce second site testé est normalement l'idéal pour Google, puisque le CSS est intégré en direct dans le code HTML (dans des balises <style>), ce qui booste la vitesse de chargement. Toutes les ressources sont stockées en interne, l'ordre des scripts Javascript est respecté, et ils sont chargés en Ajax, etc. En théorie, rien ne peut permettre le genre d'erreurs affichées, même avec une version de Chrome dépassée et utilisée par GoogleBot. Le seul "hic" que je pourrais comprendre serait celui du lazy loading, à savoir les images qui se chargent au fur et à mesure du défilement de la page. C'est sûrement cette raison qui explique le non-chargement des ressources media. Mais le comble, c'est que toute la mise en place du lazy loading s'est appuyée sur la documentation de Google. En d'autres termes, plus vous allez tout faire pour optimiser votre site web, plus GoogleBot va vous trouver des erreurs qui n'existent pas vraiment.
Mon inquiétude est que les plus néophytes et les non-développeurs prennent au pied de la lettre les erreurs affichées par l'inspection d'URL de la Google Search Console, sans forcément trier le vrai du faux dans tout cela. Attendons aussi de savoir quelle version de Chrome est désormais utilisée dans GoogleBot, car cela pourrait avoir une incidence sur le traitement des données, etc. En bref, restons très prudent avec les données affichées, car aucun des sites que j'ai testés (je n'en ai pas testé que deux) n'a fourni de bons résultats, même mon banal CV en ligne, donc je reste assez dubitatif sur ces nouvelles données. Rassurons-nous, nous avons au moins des codes 200, nos pages sont donc visibles et fonctionnelles... :-)