Nouveau WRInaute
Bonjour,
C'est mon premier message sur ce forum et je tiens avant tout à remercier toutes les personnes qui pourront m'aider.
Dans la Search Console, avec le filtre "Pages non envoyées uniquement" d'un site nouveau, j'ai 7 000 URL "Bloquées par le fichier robots.txt" et 5 000 URL avec le statut "Autre page avec balise canonique correcte".
Par exemple : https://alicante-immobilier.fr/pt/imobiliario-em-espanha-7.htm?order=product.reference.desc
La plupart de ces URL contiennent des paramètres, liés à la navigation à facettes ou au tri des produits dans les catégories.
Question 1 : J'ai lu sur un blog que la "masse noire" pouvait consommer beaucoup de ressources de crawl inutiles. Ai-je mal interprété cette information ?
Question 2 : Dois-je utiliser des techniques d'obfuscation dans mes filtres ?
C'est mon premier message sur ce forum et je tiens avant tout à remercier toutes les personnes qui pourront m'aider.
Dans la Search Console, avec le filtre "Pages non envoyées uniquement" d'un site nouveau, j'ai 7 000 URL "Bloquées par le fichier robots.txt" et 5 000 URL avec le statut "Autre page avec balise canonique correcte".
Par exemple : https://alicante-immobilier.fr/pt/imobiliario-em-espanha-7.htm?order=product.reference.desc
La plupart de ces URL contiennent des paramètres, liés à la navigation à facettes ou au tri des produits dans les catégories.
Question 1 : J'ai lu sur un blog que la "masse noire" pouvait consommer beaucoup de ressources de crawl inutiles. Ai-je mal interprété cette information ?
Question 2 : Dois-je utiliser des techniques d'obfuscation dans mes filtres ?