Le RGPD (règlement général pour la protection des données) est dans toutes les bouches depuis des semaines, et ses conséquences peuvent être nombreuses pour les éditeurs de sites web. De nombreux articles pullulent pour expliquer comment modifier son site et le rendre RGPD friendly, mais peu ont évoqué l'intérêt et les gains en matière de bande passante. Nous allons citer le cas du site USA Today étudié par Marcel Freinbichler qui s'est amusé à comparer la version américaine du site avec la version européenne créée pour le RGPD, et la différence est nette...
Petit rappel sur le RGPD
Une foultitude d'articles évoquent des tonnes et des tonnes d'actions à mener pour se mettre en conformité avec la loi. Dans les faits, le RGPD n'est que la continuité de la loi Informatique et liberté publiée en 1978, à quelques détails près (je parle uniquement de la France ici, là où le RGPD étend cela à l'Europe). En d'autres termes, comme personne ne respectait la loi et que les sanctions ne tombaient jamais, cela ne forçait pas grand monde à se mettre en conformité. Avec le RGPD, une forme de peur s'est installée et vient rappeler les règles de bonne conduite à tenir sur un site web d'éditeur. Par exemple, il n'a jamais été autorisé de récupérer des données personnelles sans le consentement de la personne, et encore moins de spammer les utilisateurs avec des emailings non désirés. Le RGPD ne fait qu'appliquer plus durement ce qui aurait dû être fait depuis des années...
Techniquement, la mise en application du RGPD peut être terrible pour les éditeurs de sites web. En effet, la théorie voudrait qu'un bandeau d'avertissement sur les cookies bloquent les scripts en attendant une validation potentielle de l'utilisateur. Problématique si l'usager ne valide rien car les scripts ne seraient pas lancés et bloqueraient de fait des publicités potentielles (en cas de remarketing notamment) ou les scripts d'Analytics et consorts. Ainsi, les éditeurs vont voir une chute drastique de leur nombre de visiteurs mais aussi de leurs revenus si la loi est appliquée au pied de la lettre, cela risque de faire mal...
Marcel Freinbichler s'est donc amusé à comparer USA Today dans sa version d'origine et sa version RGPD friendly, et la différence est affreusement nette. On ne parle plus de détails dans de tels cas, et de nombreux sites majeurs seraient sûrement dans le même cas. L'exemple est tellement probant que John Mueller de Google a partagé la publication sur son compte Google+. Lisez bien ce qui suit, USA Today est passé de 5.2 Mo de poids (dont 124 fichiers JS) à 500 Ko (sans JS effectif), soit une division par 10 de son poids. Vous imaginez bien que les performances ont logiquement suivi, avec plus de 45 secondes de chargement au préalable contre 3 secondes dans la version RGPD. Le RGPD a permis de passer de plus de 500 ressources chargées à 34 requêtes seulement, c'est incroyable. Voici une capture de la version RGPD d'USA Today, sans fioriture...
L'auteur de l'analyse a utilisé LightHouse dans Google Chrome en 3G (ce que préconise Google) pour comparer les résultats. Pour éviter les mauvaises langues aussi, il a testé le site original avec Ublock Origin, le bloqueur de publicités le plus connu avec Adblock. Et bien sachez que dans le cas d'Ublock, encore 37 fichiers Javascript sont chargés, pour un temps de mise en route de 27 secondes, bien loin donc des 3 secondes permises par la version RGPD avant validation du bandeau. C'est donc tout là l'enjeu, nous souhaitons retirer le bandeau mais quand on valide ce dernier, le site met alors environ 32 secondes à se charger (dont 61 fichiers JS lourds). Marceil Freinbichler conseille alors aux plus connaisseurs de masquer le bandeau avec le CSS (un petit "display:none" ferait l'affaire) tant la différence de performance est énorme.
En définitive, cette analyse est triste à plusieurs égards :
- Elle démontre que les éditeurs de sites web abusent réellement de scripts pour capter des données, insérer des publicités à outrance ou tout simplement par méconnaissance des conséquences sur les performances de leurs sites (j'ai encore une pensée pour les loaders de sites en JS qui polluent le Web et la planète).
- Elle prouve que si le RGPD est appliqué dans les règles de l'art, cela va faire très mal aux éditeurs de sites qui vivent de la publicité ou qui ont une nécessité de résultats (prouvés par les statistiques récupérées). Je pense très sincèrement que l'application ne va pas durer bien longtemps tant les entreprises ont besoin de tout cela...
- Elle permet de comprendre l'impact Ô combien néfaste du Javascript quand il est utilisé à outrance en toute méconnaissance. Le trop-plein de scripts polluent, au sens strict du terme. Que ce soit nos usages courants (pollution visuelle, temps passé...), notre consommation de bande passante et électrique ou encore notre sécurité (vol de données, emails indésirables après revente de fichiers clients, etc.), tout y passe. Et cela a bien entendu des conséquences sur notre planète car chaque octet consommé coûte pour la nature (je vous invite à lire des études sur les émissions de CO² ou les consommations énergétiques d'Internet, ça fait peur...).
Je suis un fervent défenseur du Page Speed si cher à Google, mais ce n'est pas pour rien. Si tous les sites Web réduisent le poids de leurs pages au mieux (sans tomber dans l'excès au point d'avoir des sites non conviviaux), on pourrait vraiment améliorer l'expérience utilisateur. Et l'UX Design commence aussi par ça, au-delà même des problématiques du RGPD qui occupent pourtant tous les esprits. Je remercie vraiment Marcel Freinbichler pour son analyse, c'était très instructif, bravo à lui. Et pour ceux qui douteraient encore des résultats de son analyse, voici deux captures avant/après pour le site USA Today qui montrent bien la différence de performances entre les deux versions.