Google a fêté les 25 ans du fichier robots.txt utilisé pour éviter l'indexation ou désindexer certaines pages web. En passe de devenir un standard au sens propre du terme, la firme a même mis en place un parser de robots.txt en open source. Le 2 juillet 2019, Google a continué son histoire autour du protocole de limitation de crawl en évoquant les directives (non officielles) qui ne seront bientôt plus du tout prises en compte par GoogleBot lors de la lecture d'un fichier robots.txt. Il y a du changement dans l'air... [...]
Le langage CSS (Cascading style sheets) permet de gérer la mise en forme des pages web intégrées en HTML, souvent accompagné par son acolyte Javascript pour certaines animations complexes. Facile à prendre en main avec sa syntaxe très abordable et sa liste de propriétés relativement limitée, CSS offre un confort de programmation qui lui offre l'appréciation de bon nombre de débutants ou de profanes. Mais CSS arrive à l'âge de la maturité, et tout pourrait changer... [...]