J'ai rapporté plusieurs "Did you know?" postés par Gary Illyes sur Twitte mi-février 2017. Sachez que le porte-parole de Google a compris que cela plaisait alors il s'est amusé à distiller encore d'autres conseils ou astuces SEO pour notre plus grand plaisir. Voici donc ses trois derniers conseils en la matière rien que pour vous. :D
Gary Illyes est tout d'abord revenu sur l'interprétation des pages par Google, et cela est intéressant, notamment dans la discussion qui s'est engagée sur Twitter. Le googler affirme que le moteur affiche le rendu des pages et lit le contenu mais ne clique sur aucun élément dans les pages. Donc si un clique affiche une pop-up dont le contenu est récupéré de manière indépendante (hors du code source), Google ne peut ni le voir, ni l'interpréter...
DYK we render most pages we crawl, but we don't "click" on page elements? pic.twitter.com/3Z7tRou2jE
— Gary Illyes ᕕ( ᐛ )ᕗ (@methode) 15 février 2017
Gary Illyes a notamment évoqué les boutons sur des images qui ne peuvent être suivis par le moteur. Mais ce qui est intéressant provient d'une question sur les "Lire la suite...", les accordions, etc. Le porte-parole a indiqué que Google lit bien le contenu masqué initialement par ces systèmes (puisqu'il est dans le code source), mais qu'il faut être prudent en cas de chargement en Ajax des contenus cachés. Cela est étonnant puisque Google avait admis lire l'Ajax, mais Gary Illyes a juste nuancé cela en sous-entendant que Google peut ne pas lire des contenus chargés via Ajax.
Son second DYK sur Twitter est déjà plus connu puisqu'il confirme que si une erreur serveur survient le site et que GoogleBot ne peut pas lire le fichier robots.txt, tout le processus de crawl est stoppé. John Mueller était déjà allé en ce sens auparavant et Gary Illyes semble donc confirmé ses propos. En d'autres termes, une erreur serveur bloque l'indexation jusqu'à nouvel ordre (car même si GoogleBot lisait le robots.txt et que les pages étaient inaccessibles, cela ne servirait pas à grand chose... ^^).
DYK that if Googlebot can't access the robots.txt file due to a server error, it'll stop crawling the site altogether? pic.twitter.com/ExhB2Mu5rg
— Gary Illyes ᕕ( ᐛ )ᕗ (@methode) 16 février 2017
Enfin, le fan de code que je suis est plutôt content de lire le dernier tweet du googler. En effet, Gary Illyes a indiqué que les erreurs de code HTML peuvent être plus importantes qu'on ne le pense pour l'interprétation faite par GoogleBot. Si elles n'ont aucun rôle direct pour le positionnement, les erreurs HTML peuvent influencer très nettement l'interprétation et l'affichage de la page par Google. Par conséquent, une balise HTML mal fermée ou un attribut important erroné peuvent faire planter la lecture du site par le robot, là où le navigateur arrive parfois à "corriger" l'erreur grâce à son propre moteur d'interprétation.
DYK Googlebot doesn't care about a little broken HTML? You do want to have as few validation errors as possible though, just to be safe pic.twitter.com/Ow9wd3jS5V
— Gary Illyes ᕕ( ᐛ )ᕗ (@methode) 16 février 2017
En d'autres termes, limitez au maximum le nombre d'erreurs HTML (surtout celles qui touchent à la structure du site) afin que votre site soit bien lu et interprété par le moteur. C'est évident, mais quand on voit des sites qui ont des centaines d'erreurs, on se dit que ça peut être néfaste (Cdiscount a plus d'un millier d'erreurs et est plutôt bien référencé, cela vous rassure quand même ? ^^).