WRInaute occasionnel
Bonjour,
Je viens de remarquer une différence de taille, entre l'ancienne et la nouvelle version de search console.
Dans l'ancienne, les environ 670 URL en erreur 404, sont considérées comme une erreur d'exploration : http://www.screencast.com/t/VEwerUuSRvg
Dans la nouvelle, je n'ai plus que 2 URL en 404, en revanche mes presque 380 URL en noindex, sont considérées comme une erreur d'exploration, alors qu'elles ne le sont pas dans l'ancienne version :
Du coup, je me demande si la masse de pages en noindex ne serait pas devenue une erreur prioritaire, plus que la masse de pages en 404 ?
Ça expliquerait peut-être ma soudaine chute de trafic depuis la grosse mise à jour récente du 26–25 septembre. J'ai bien envie de faire passer mes pages déjà en noindex, dans une catégorie archives puis d'en bloquer l'accès depuis le fichier robots.txt. Puis de rajouter les nouvelles pages désindexaient au fur et à mesure.
Qu'en pense la communauté ?
Je viens de remarquer une différence de taille, entre l'ancienne et la nouvelle version de search console.
Dans l'ancienne, les environ 670 URL en erreur 404, sont considérées comme une erreur d'exploration : http://www.screencast.com/t/VEwerUuSRvg
Dans la nouvelle, je n'ai plus que 2 URL en 404, en revanche mes presque 380 URL en noindex, sont considérées comme une erreur d'exploration, alors qu'elles ne le sont pas dans l'ancienne version :
Du coup, je me demande si la masse de pages en noindex ne serait pas devenue une erreur prioritaire, plus que la masse de pages en 404 ?
Ça expliquerait peut-être ma soudaine chute de trafic depuis la grosse mise à jour récente du 26–25 septembre. J'ai bien envie de faire passer mes pages déjà en noindex, dans une catégorie archives puis d'en bloquer l'accès depuis le fichier robots.txt. Puis de rajouter les nouvelles pages désindexaient au fur et à mesure.
Qu'en pense la communauté ?