Il faut éviter les caractères spéciaux dans les URL pour Google

Mathieu Chartier SEO 0 commentaire

John Mueller a évoqué sur le forum pour webmasters que les URL contenant des caractères spéciaux spécifiques peuvent poser des problèmes à GoogleBot lors du crawl et de l'indexation. Si ces signes particuliers sont moins dérangeants lorsque les URL sont transmises via un fichier Sitemap XML, ils peuvent être problématiques lors d'un crawl naturel.

Voici une partie de sa déclaration (traduite) :

Je recommande généralement d'éviter les caractères spéciaux comme les virgules, points-virgules, deux points, espaces, guillemets (...) dans les URL, pour garder uniquement les choses simples. Les URL comme celles-ci sont souvent plus difficiles à lier automatiquement (dans des messages de forums ou ailleurs) et plus difficile pour nous à reconnaître correctement lorsque nous analysons le contenu du texte pour essayer de trouver de nouvelles URL. Quand elles sont liées normalement ou soumises par le biais d'un plan du site, cela fonctionne comme prévu. Cependant, quand nous essayons de reconnaître une URL dans un crawl d'une ressource HTML ou d'une page de texte, alors nous allons probablement "deviner" qu'elles sont fausses...

En toute objectivité, il est assez rare que nous concevions des URL avec des caractères spéciaux, même si cela se trouve encore quelque fois. Les espaces sont un problème courant, les guillemets éventuellement, mais les points-virgules, je n'ai pas dû en croiser souvent dans ma vie dans des adresses web. Nous pouvions déjà nous douter que ce type de caractères spéciaux est "bloquant" pour le crawl, John Mueller n'a fait que le confirmer et surtout préciser que le fichier Sitemap XML est plus adapté pour ce type de ressources au chemin alambiqué...