GoogleBot va pouvoir crawler les sites web en HTTP/2 prochainement
Google et son robot GoogleBot ne savent crawler que les pages web utilisant le protocole HTTP. John Mueller a indiqué dans son hangout hebdomadaire du 6 novembre 2015 que Google travaillait actuellement à développer une version de GoogleBot capable de visiter et indexer les pages web en HTTP/2 (ou HTTP 2.0).
Actuellement, Google ne peut donc pas répondre aux utilisateurs du protocole HTTP/2, et même s'ils sont encore peu nombreux puisque cette version n'est pas démocratisée, cela devrait arriver plus rapidement que prévu. Voici ce qu'a répondu John Mueller à ce sujet :
Actuellement, GoogleBot ne supporte pas le crawl des ressources uniquement en HTTP/2. Donc, si vous ne pouvez accéder à votre site que via HTTP/2, qui est la prochaine version du protocole HTTP, alors nous ne serions pas capable de la crawler correctement. Nous travaillons sur cela, je pense que ce sera prêt d'ici la fin de cette année, ou peut-être l'année prochaine, il faudra un certain temps pour se faire.
Un des grands avantages de HTTP/2 est que vous pouvez regrouper les requêtes, donc si vous recherchez une page, il y a un lot d'images embarquées, de CSS, de fichiers JavaScript, et ces choses, en théorie, vous pouvez faire une seule requête pour tous les fichiers...
Pour l'anecdote, Google a annoncé le 9 février 2015 que le support de SPDY, le protocole de Google très utilisé dans l'HTTP/2, allait être abandonné début 2016 sur Chrome au profit du nouveau protocole justement. C'est donc assez logique que GoogleBot se penche dès à présent sur le cas des ressources web favorisant le futur protocole HTTP/2. En tout cas, ce sera une belle évolution du crawl et du web en général, en attendant les prochaines bien entendu. :D
Pour l'heure, plusieurs navigateurs se sont déjà penchés sur le support de l'HTTP/2, dont Google Chrome d'ailleurs. Les grands classiques comme Safari, Opera, Microsoft Edge et même le dernier IE 11 sont compatibles, en attendant les suivants...