La Google Search Console se dote officiellement d'un nouvel outil de suppression temporaire d'URL et de gestion de la recherche sûre (safe search) depuis le 28 janvier 2020. Une sorte de fonctionnalité équivalente existait dans l'ancienne mouture des outils pour webmasters, il est donc assez cohérent d'en revoir une version revue et corrigée pour aider les gestionnaires de sites et référenceurs à mieux gérer leur indexation.
Le nouvel outil, intitulé "Supressions", se compose de trois onglets distincts :
- Suppressions temporaires : il s'agit ici d'indiquer des URL que vous souhaitez écarter des pages de résultats (SERP) pendant un certain temps. Vous avez aussi la possibilité de demander la suppression d'une page mise en cache (dans le second onglet de la fenêtre de l'option). Le blocage ne dure qu'environ 6 mois (contre 90 jours auparavant dans l'ancienne version de l'outil). La fonctionnalité n'empêche pas GoogleBot de continuer de crawler la page, mais seulement de la proposer dans les résultats de recherche. Si vous souhaitez supprimer définitivement une page, il faudra passer par d'autres méthodes, comme indiqué plus bas dans cet article...
- Contenu obsolète : il s'agit ici de demander la suppression d'un résultat ou d'un snippet pour un contenu obsolète qui ne vous appartient pas, à partir du moment où la page n'est plus disponible, ou si l'extrait affiché ne correspond en rien au contenu de la page. On peut presque considérer cette fonction comme un outil de délation dans certains cas, mais il ne fait aucun doute que Google surveillera de près les demandes farfelues...
- Filtrage SafeSearch : la fonctionnalité permet d'indiquer à Google des URL de pages réservés aux adultes qui s'affichent malgré un filtrage SafeSearch activé. L'objectif est clairement de nettoyer la recherche sûre pour éviter aux utilisateurs (enfants en théorie) de tomber sur des pages inappropriées.
Voici comment cela est représenté en image, en commençant par la demande de suppression temporaire d'URL. Vous avez la possibilité de demander la suppression d'une URL précise, ou toute une famille d'URL commençant par une forme d'URL particulière (la Search Console appelle ça le "préfixe").
Comme je n'utilise et ne signale jamais d'URL dans les SERP, le second onglet sera vide dans la capture. Toutefois, vous pourrez voir à quoi ressemble la page qui concerne les suppressions d'URL obsolètes, c'est-à-dire les demandes concernant des pages qui ne nous appartiennent pas. Ici, il n'y a pas de bouton de demande, mais seulement un listing des URL pour lesquelles vous avez effectuées une demande via l'outil spécifique.
Enfin, l'outil de filtrage SafeSearch fonctionne globalement comme l'outil précédant, en reprenant les contenus qui ont été notifiés comme des contenus pour adultes. J'ai repris ici la capture fournie par Google car ma Search Console afficherait peu ou prou le même rendu que la capture précédente, ce qui aurait eu peu d'intérêt... ^^
Ce nouvel outil manquait dans la nouvelle version de la Google Search Console, il est donc plutôt appréciable de le retrouver avec quelques fonctionnalités supplémentaires.
Supprimer définitivement une page des SERP
Si vous souhaitez supprimer une page de manière permanente, la documentation de Google précise comment procéder. Cela est bien différent d'une simple de demande de suppression temporaire dans les SERP.
Voici les possibilités à explorer pour supprimer définitivement une page :
- Mettre en place des méthodes suppressions classiques :
- Supprimez ou mettez à jour le contenu de votre site (images, pages, répertoires) et assurez-vous que votre serveur Web affiche un code d'état HTTP 404 (page introuvable) ou 410 (page déplacée).
- Limitez l'accès au page via la saisie obligatoire d'un mot de passe ou via un formulaire bloquant.
- Utilisez la balise meta "robots" avec la valeur "noindex". Rappelons que cette méthode n'a rien de sûre puisque GoogleBot explore tout de même la page, et peut donc décider de l'indexer malgré tout... La documentation précise qu'il ne faut pas utiliser le fichier robots.txt dans ce cas, ce qui me semble très étrange pour être honnête puisque c'est un peu le but du fichier robots.txt à la base... :-)
- Dans le cas où vous auriez bloqué la page avant d'utiliser une méthode de suppression définitive, l'idéal est de la débloquer, puis de la bloquer à nouveau. Cela permet à GoogleBot de réexplorer la page puis de la supprimer de son index.