Google parle de RankBrain, Panda, Penguin (…) au SMX Advanced 2016

Mathieu Chartier Référencement 5 commentaires

Pénalités et sanctions manuelles et algorithmiques de Google

J'annonçais hier que Gary Illyes enterrait pour de bon l'AuthorShip dans tous les cas de figures. Il semblerait que Google et son porte-parole ne se soient pas arrêtés que sur ces déclarations, nous allons donc faire un rapide tour des sujets abordés comme RankBrain, Panda, Penguin, etc.

Google Panda et Google Penguin : que sont-ils devenus ?

Nous savons que depuis des mois, Google Panda est intégré directement dans l'algorithme de pertinence, à l'instar des Search Quality Update ou de Google "Phantom". Toutefois, contrairement à l'animal en voie de disparition, Panda est en fait toujours bien en vie et a un fonctionnement qui lui est propre. Le porte-parole a indiqué que la mise à jour de l'algorithme est certes continue, mais elle prend des mois à se déployer partout dans le monde. Cette extrême lenteur s'explique certainement par les traitements lourds que le moteur de calcul impose, désormais destiné à l'ensemble du parc web connu par Google. Google Panda n'est donc pas en temps réel, et s'il attribue toujours une note, elle met des mois à être remontée vers l'index final. Autant dire que si nous ratons nos contenus aujourd'hui, nous n'en verrons les conséquences que dans quelques semaines voire quelques mois. :D

Concernant le tant attendu Google Penguin 4.0, Gary Illyes n'a pas voulu se prononcer sur une période de sortie, reconnaissant s'être suffisamment planté sur le sujet auparavant. Il a bien confirmé que l'algorithme deviendrait continu et (théoriquement) en temps réel, mais pour le moment, il faudra encore patienter pour que les pénalités des dernières victimes soient levées. Rappelons que la dernière MàJ de Google Penguin date de fin 2014 (octobre avec une mini update en novembre).

Accelerated Mobile Pages (AMP) et index mobile

Gary Illyes a indiqué que l'AMP va prendre une part encore plus importante dans l'avenir de Google et que les webmasters devraient se préparer au changement dès à présent. Certes, nous savons que Google fonctionne toujours ainsi et revient parfois en arrière, mais pour le coup, les récentes mises à jour, l'envol du mobile et le futur de l'algorithme mobile peuvent prouver que l'AMP HTML risque de prendre du poids dans l'algorithme de Google. Toutefois, l'histoire montre qu'à chaque fois que Google a voulu sortir un critère technique, les webmasters n'ont pas suivi, soit par manque de compétences, soit par manque d'envie (ou les deux...) ; et le bilan s'est souvent soldé par un échec pour Google (le PageSpeed est peu appliqué, AMP aussi, les extraits enrichis moyennement ou à très bas niveau, l'HTTPS...).

Google travaille toujours sur un index mobile indépendant des résultats de recherche pour ordinateurs (et tablettes ?). L'idée a fait son chemin et des algorithmes et robots sont en cours de développement. Aucune information sur une date de sortie malgré tout...

RankBrain et l'intelligence artificielle

RankBrain est l'algorithme d'intelligence artificielle le plus discuté chez Google depuis quelques mois, et il semblerait que le sujet soit toujours mal compris ou tout du moins mal expliqué par les divers googlers. Gary Illyes a évoqué RankBrain, confirmant qu'il s'agissait bien d'un critère de classement, mais il s'est un peu contredit ensuite (ou emmêlé les pinceaux). En effet, il a indiqué qu'il n'existait pas de note ou de score pour le RankBrain, et que les référenceurs ne peuvent pas optimiser des contenus et du code pour RankBrain.

Il faut dire que la communication autour de RankBrain est confuse. Parfois, on nous en parle comme d'un critère de classement à part entière, et dans d'autres circonstances, l'algorithme est présenté comme un système de meilleure reconnaissance des requêtes et des contenus (à l'image d'Hummingbird). Difficile de savoir qui dit vrai, qui dit faux, et qui se fout bien de nous (bon ça, on devrait vite trouver... ^^).

Pour aller plus loin sur RankBrain, sachez que Jeff Dean (ingénieur chez Google) a indiqué que depuis son lancement officiel en avril 2015, l'algorithme est passé d'un usage pour 15% des requêtes à un usage global. Selon lui, toutes les requêtes actuelles sont traitées par RankBrain. L'ingénieur sénior a indiqué que l'algorithme n'affectait pas le classement de toutes les requêtes, mais d'une grande partie d'entre elle. Il a même confirmé que RankBrain constitue bel et bien le 3e critère le plus important.

Si nous lisons entre les lignes, disons qu'il faudrait sortir du carcan des critères on-page et off-page, mais rajouter également une troisième famille "on-bot" ou "on-Google". En effet, des critères comme le <title> ou le <strong> dans une page sont du "on-page", le netlinking est du "off-page" et RankBrain est ni l'un ni l'autre. C'est pourquoi Gary Illyes indique que les webmasters ne peuvent pas l'influencer. RankBrain agit directement sur la compréhension des requêtes, et non sur les pages en elles-mêmes. Il a donc un poids fort dans le classement, mais ne peut pas vraiment être compris et "truqué" par les référenceurs, il faudrait savoir ce qu'il valorise et avoir une influence sur les requêtes pour le contrôler, donc autant dire que cela va être difficile...

Petite parenthèse sur l'HTTPS

Gary Illyes a sorti des chiffres de Google et a indiqué que 34% de l'index actuel de Google est rempli de pages en HTTPS. Le taux de migration vers le protocole sécurisé s'est accru ces derniers mois (le projet Let's encrypt ne doit pas être innocent...). Le porte-parole a donc encore insisté pour que les webmasters passent le pas. En toute honnêteté, c'est le critère technique le plus simple à mettre en oeuvre, j'ai migré deux sites web en HTTPS en... 2 heures (et je prends large). Je ne suis pas un génie du tout, alors vos webmasters ou vous-même devriez y arriver également.

5 commentaires

  • Pierre dit :

    Bonjour Mathieu,

    Pour le HTTPS, je pense que la réticence n'est pas liée à la difficulté technique de ce processus de migration mais plutôt aux risques encourus au niveau SEO. En lisant ici et là sur le web des retours d'expérience, on s’aperçoit que passer en HTTPS peut perturber ses perfs SEO pendant quelques mois. Qu'en penses tu d'ailleurs ?

    Après

    • Bonjour Pierre,
      Je pousse un peu le bouchon en effet mais souvent, les SEO disent que c'est difficile de migrer vers HTTPS, etc. Dans les faits, c'est relativement simple. Après, avec une bonne redirection 301 dans un fichier .htaccess, ou via un système HSTS, les redirections sont directes. Google le prend en compte lors du crawl et normalement, il n'y a pas de raison pour que cela perturbe les performances SEO pendant très longtemps. En termes de rapidité de chargement, ça ne change quasiment rien pour une grande majorité de sites (contrairement à ce qui se dit ci et là), et pour le reste, les redirections 301 vont leur effet immédiat dès que Google a compris la migration. Eventuellement pendant 1 mois ça peut être "un peu moins bon", mais pour ma part, j'ai migré trois sites récemment et je n'ai constaté strictement aucun changement.

  • Marc dit :

    Bonjour Mathieu,
    Beaucoup de remarques pertinentes sur le caractère moutonnier des SEO français. Tant qu'on ne leur livre pas clé en main un site HTTPS, ils préféreront aller clamer sur tous les toits que ça ne sert à rien, que c'est risqué, etc
    La plupart des acteurs du référencement présents sur les réseaux sociaux ne font que suivre tel ou tel référenceur influent; ils passent plus de temps à défendre ou attaquer tel ou telle autre qu'à faire de la R&D qu'ils cherchent avidement sur le web. Ou alors ils cherchent à être bien vu de tout le monde pour vendre leur produit, leur service ou leur formation.

    • Bonjour Marc,
      Nous sommes tous un peu des moutons en effet, et même si j'ai sous-entendu ce reproche, je vois que tu l'as bien perçu. Souvent, ce qui me dérange en SEO, c'est que ça parle beaucoup, mais ça ne fait pas grand chose. J'ai horreur du "Y'a qu'à, faut qu'on" quand les personnes n'ont ni les capacités ni la volonté d'appliquer ce qu'elles recommandent. Comme la technique web n'est pas forcément simple à acquérir, tous les critères techniques passent à la trappe. En revanche, pour faire du netlinking parfois dégueulasse, là y'a du monde. Parfois, j'aimerais que Google insiste davantage sur les critères techniques rien que pour forcer la communauté à se reprendre en main, à se former, à devenir encore meilleure en somme.
      Tous les référenceurs ont des qualités souvent sous-exploitées, alors il ne reste qu'à les mettre en oeuvre pour aller plus loin dans le détail plutôt que d'éviter de râler ou de dire que certains critères ont peu de poids (qui peut le plus peut le moins...).

  • Phil dit :

    Je découvre votre blog.

    Merci pour vos articles de fond, là ou beaucoup paraphrasent à l'infini les communiqués officiels de Google.

    Je bookmark :)

  • Déposer un commentaire

    L'adresse de messagerie ne sera pas publiée.* Champs obligatoires