Affiner/retirer les disallow de robots.txt qui empêchent les sites SPIP de se référencer
Bonjour, Google a apparemment mis à jour son algo et a besoin des CSS et JS pour juger la compatibilité des sites avec les mobiles Ainsi les ressources bloquées (disallow) par le fichier robots.txt fourni avec SPIP sont négatives pour le SEO et provoquent des erreurs dans la console Google (Google Webmaster Tools)
J'ai regardé sur un site SPIP et ai déjà identifié les problèmes suivants, ressources bloquées par SPIP, dont Google a pourtant besoin : /plugins/auto/typoenluminee/v3.5.8/css/enluminurestypo.css /prive/javascript/jquery.form.js /local/cache-gd2/ /local/cache-vignettes/ /squelettes-dist/css/spip.css /squelettes/js/jquery-ui.js
Autres /plugins/ Autres /prives/ Autres tout
http://searchengineland.com/google-webmaster-guidelines-updated-warn-blocking-css-javascript-files-206714 https://moz.com/blog/why-all-seos-should-unblock-js-css