Bonjour à tous,
Je suis face à une problématique concernant nos pages de produit en rupture définitive. Certains produits n'ont que peu d'intérêt SEO donc on affiche un code 410 afin qu'elle finisse par se faire désindexer.Par contre, certaines pages ont généré et continuent à générer du trafic et sont intéressantes pour l'internaute. Pour ces dernières, ont a conservé un code 200 et on propose des produits similaires.
Le problème, c'est que ces pages en 200 ne figurent plus dans les listings de nos catégories (sinon on se retrouverait avec énormément de produit définitivement en rupture), donc cela engendre des pages orphelines et gaspille du budget crawl
J'ai pensé à 3 solutions mais je ne suis pas convaincue de leur pertinence:
1/ Blocage robots.txt: Les consignes de GG sont pour une fois claires et logiques: si on met un noindex sur une page et qu'on la bloque dans le robots.txt, Google ne pourra plus voir qu'un noindex a été ajouté, donc il ne pourra pas la désindexer. Mais est ce que c'est juste une impossibilité de désindexation temporaire ou définitive?
Mon intérêt est de conserver ces pages dans les SERP, du coup, ma logique est: ces pages sont déjà indexées, donc si je les bloque dans le robots.txt, Google ne les crawlera plus et ne pourra pas voir les consignes d'indexation, on il pourrait peut être la laisser comme ça. Mais je suis dubitative, ça me paraît trop simple ^^
2/ Je crée un nouveau type de pages qui recense tous les produits en rupture (du moins les liens vers les produits en rupture).. mais niveau qualité on est pas terrible...
3/ "Sacrifier" ces pages en les redirigeant en 301 vers la page catégorie. Techniquement elle transmettrait du jus à ladite page catégorie, mais sera peut être moins pertinente pour l'internaute ...
Avez-vous d'autres idées svp?
Merci d'avance
Je suis face à une problématique concernant nos pages de produit en rupture définitive. Certains produits n'ont que peu d'intérêt SEO donc on affiche un code 410 afin qu'elle finisse par se faire désindexer.Par contre, certaines pages ont généré et continuent à générer du trafic et sont intéressantes pour l'internaute. Pour ces dernières, ont a conservé un code 200 et on propose des produits similaires.
Le problème, c'est que ces pages en 200 ne figurent plus dans les listings de nos catégories (sinon on se retrouverait avec énormément de produit définitivement en rupture), donc cela engendre des pages orphelines et gaspille du budget crawl
J'ai pensé à 3 solutions mais je ne suis pas convaincue de leur pertinence:
1/ Blocage robots.txt: Les consignes de GG sont pour une fois claires et logiques: si on met un noindex sur une page et qu'on la bloque dans le robots.txt, Google ne pourra plus voir qu'un noindex a été ajouté, donc il ne pourra pas la désindexer. Mais est ce que c'est juste une impossibilité de désindexation temporaire ou définitive?
Mon intérêt est de conserver ces pages dans les SERP, du coup, ma logique est: ces pages sont déjà indexées, donc si je les bloque dans le robots.txt, Google ne les crawlera plus et ne pourra pas voir les consignes d'indexation, on il pourrait peut être la laisser comme ça. Mais je suis dubitative, ça me paraît trop simple ^^
2/ Je crée un nouveau type de pages qui recense tous les produits en rupture (du moins les liens vers les produits en rupture).. mais niveau qualité on est pas terrible...
3/ "Sacrifier" ces pages en les redirigeant en 301 vers la page catégorie. Techniquement elle transmettrait du jus à ladite page catégorie, mais sera peut être moins pertinente pour l'internaute ...
Avez-vous d'autres idées svp?
Merci d'avance