Il est bien plus courant qu'on ne l'imagine d'avoir besoin de désindexer des pages de Google, c'est-à-dire de les supprimer de l'index... Bonne lecture et commentaires/questions ! Partages et liens appréciés :roll:
Tu as deux solutions :toutatix a dit:Bonjour à tous,
je suis entrain de bosser sur les pages de mon site et en lancant une requete sur les "pages de destination" de GA, je vois plein d'URL qui n'existent pas/plus dans l'index de google ( j'ai tapé l'url complete entre guillemet pour vérifier dans le moteur de recherche).
Dois je ignorer ces pages donc ou faire une action spécifique ?
Merci pour vos retours.
Merci pour votre réponse, c’est un sous domaine, un environnement de développement genreWebRankInfo a dit:est-ce que les URL concernées étaient dans un sous-domaine à part, ou un répertoire à part ? car dans ce cas c'est très simple
Il est bien plus courant qu'on ne l'imagine d'avoir besoin de désindexer des pages de Google, c'est-à-dire de les supprimer de l'index... Bonne lecture et commentaires/questions ! Partages et liens appréciés :roll:
Apparemment, tu n'as pas assez lu mon article...
J'explique que pour désindexer une page il faut la mettre dans une situation telle qu'elle ne sera pas / plus indexable. Par exemple mettre une balise meta robots noindex.
Ensuite, soit on a la chance que toutes les pages à désindexer se trouvent toutes dans un répertoire et que ce répertoire ne contienne que des pages à désindexer (dans ce cas c'est très simple).
Soit il faut inciter Google à crawler les pages pour constater qu'on veut les faire désindexer. D'où l'idée du sitemap (temporaire) dans ce cas précis.
Je ne comprends pas pourquoi quelqu'un irait déconseiller d'utiliser un sitemap ? quelles sont les raisons évoquées ?
Article : Supprimer des pages de l’index Google via Search Console.Mon problème est que je ne peux mettre une balise meta car je n'ai pas accès aux pages
le blocage par mot de passe (qui est à faire dans 100% des cas de dév/preprod) ne fait que bloquer le crawler, ça ne désindexe pas. Pour ça, lire mon article : comment désindexer un sous-domaine ?
ces URL ne reçoivent plus aucun lien en interne, n'est-ce pas ?
étonnant, Google n'a crawlé aucune URL depuis l'envoi de ce sitemap ?
il doit s'agir d'URL avec un PageRank hyper faible.
ces URL ne reçoivent plus aucun lien en interne, n'est-ce pas ?
"normalement" ce n'est pas suffisant, tu devrais le vérifier par un crawl
OK, même si je ne vois pas comment tu peux en tester quelques unes, puisque par définition il faut crawler 100% du site.
Peut-être que Google n'est pas pressé de les crawler car ce sont des vieilles URL, secondaires
je ne vois pas la difficulté : si tu crawles tout le site, tu ne dois pas trouver ces URL, c'est tout. si c'est le cas, tu n'as rien à tester. sinon, tu dois en effet regarder les inlinks des quelques URL que tu auras trouvées
Connectez-vous à la Google Search Console et sélectionnez le site Web souhaité.
Cliquez sur «Optimisation» dans la navigation de gauche.
Cliquez sur «Supprimer l'URL» dans le sous-menu.
Cliquez sur le bouton «créer une nouvelle demande de suppression» sur cette page.
Oui du coup je suis obligé de rechercher dans mes URL de mon crawl si je trouve pas une de mes 627 URL que je veux désindexer ? Ce qui prends un temps fou.
Ou alors je m'y prends mal ?
Hello Olivier,ces mentions de redirections sont logiques puisque tu en as généré plein sur le site (ce qu'il aurait fallu éviter). il faut juste vérifier que :
- en interne, il ne reste plus aucun lien vers une redirection
- chaque redirection se fait en 1 fois, pas en plusieurs étapes, et c'est une 301
le budget de crawl ne concerne pas ton site, il n'a pas 100k URL ou plus je suppose ?
➡️ Offre MyRankingMetrics ⬅️
pré-audit SEO gratuit avec RM Tech (+ avis d'expert)
coaching offert aux clients (avec Olivier Duffez ou Fabien Faceries)
Voir les détails ici