Repérer et traiter les pages orphelines (référencement)

Olivier Duffez (admin)
Membre du personnel
Il arrive souvent que des pages d'un site deviennent orphelines, c'est-à-dire qu'il n'existe plus aucun lien interne permettant d'y accéder, même si les pages elles-mêmes sont encore en place, consultables.

Il y a clairement 2 cas de figure :
  1. des pages de qualité dont le référencement compte et qui devraient être "optimisées"
  2. des pages pourries qu'on pensait avoir supprimées, ou qui n'auraient jamais dû exister (masse noire)
Pour savoir si vous en avez, le plus classique (qu'il faut forcément faire au moins 1 fois) est de croiser un crawl du site (suivi des liens) avec un sitemap exhaustif. Après avoir retenu que les pages indexables, on obtient par "soustraction" la liste des pages orphelines du site via le sitemap.

Je l'explique mieux dans mon article sur les pages orphelines.

Une méthode astucieuse permet d'en identifier encore bien plus, éventuellement sans même avoir besoin d'un sitemap exhaustif. Et surtout sans avoir besoin d'un accès aux logs (c'est parfois compliqué de les récupérer, et souvent très difficile quand on veut le faire sur 1 an comme j'en ai l'habitude).
Il faut récupérer les URL ayant eu un minimum de succès SEO dans le passé, par exemple des pages ayant généré des visites en organic selon Google Analytics, ou des pages ayant été vues dans les SERP selon Google Search Console. Après avoir retenu que les pages indexables, et suppression des doublons, on obtient par "soustraction" la liste des pages orphelines du site via Analytics/Search Console.

Une fois que vous avez votre liste de pages orphelines, il faut les traiter :
  • pour les pages de qualité : il suffit de leur refaire des bons liens internes, via un maillage sémantique intelligent, pour leur redonner un coup de fouet. Je l'ai testé pour un client avec des fiches produits (qu'il vend !), ce fut extrêmement efficace. Ces fiches produits orphelines sont plus nombreuses que vous ne le pensez sans doute : dans son cas c'était 9% des URL de son site.
  • pour les pages "pourries" : à moins qu'il soit possible de les améliorer, il faut les désindexer et supprimer (comme les mauvaises pages zombies).
Si vous pensez qu'il ne peut pas y avoir de pages orphelines sur votre site, faites au moins un test avec les outils de votre choix. Comme vous l'avez deviné, mon outil RM Sitemaps (plateforme My Ranking Metrics) fait ça de A à Z. Il vous suffit d'un clic !

En fait, une page peut être orpheline malgré la présence de liens vers elle sur le site : il suffit que ces liens ne soient pas visibles de Google. Il y a pas mal de raisons qui pourraient l'expliquer, qu'il s'agisse d'erreurs humaines ou d'effets de bord techniques (pagination, liens nofollow, URL bloquées au crawl, mauvaises redirections, etc.).

Je suis curieux de vous lire : racontez si vous avez déjà cherché ces pages orphelines, ce que vous avez trouvé, ce que ça a changé de corriger le pb, vos difficultés à identifier ces pages, etc.

pages-orphelines-710x473.jpg
 
Olivier Duffez (admin)
Membre du personnel
les zombies n'ont pas disparu, ici c'est un nouvel article
mais oui, je suis passé aux doudous nounours :-)
 
WRInaute impliqué
Mince, j'avais parlé de ça hier en me trompant de terme. J'avais répondu à ton post des "pages zombies" avec un peu d'humour alors que ce que je voulais dire concernait mes " pages orphelines".
Il faut que je me souvienne de ce terme.
 
WRInaute discret
Je vais avancer là-dessus, c'est un de mes chantiers ;)
Y'a autre chose que je vais tester aussi : le cahngement de titre et l'amélioration d'articles anciens et moyennement bien positionnés sur GG.
 
WRInaute accro
Y'a autre chose que je vais tester aussi : le cahngement de titre et l'amélioration d'articles anciens et moyennement bien positionnés sur GG.

Très souvent, un simple changement de title force google à réindexer complètement la page, à la repasser à la moulinette. Pour une page qui est bien positionnée ça peut être catastrophique. Je l'ai expérimenté avec l'une de mes meilleure page qui m'apportait le plus de visites mais qui avait un title extrêmement court. En croyant bien faire et en allongeant le title la page s'est retrouvée en page 40 des résultats. Ca a duré plusieurs mois. Jusqu'à ce que finalement je remette l'ancien titre avec une nouvelle url.

Mais en cas d'amélioration d'article il peut donc être très judicieux de changer également le title pour forcer la prise en compte des améliorations. Sinon les améliorations vont peut-être être considérées comme de simples commentaires de blog qui ne changent pas foncièrement le contenu de la page et ça peut mettre des mois (ou même des années) pour être correctement pris en compte par les algos de google comme faisant partie du contenu.

Je pense que google a plusieurs indicateurs pour déterminer si une page doit être repassée à la moulinette. Le changement de title en est un. Un gros changement dans le contenu peut en être un autre (par exemple passer de 200 mots à 1000 mots), ou un gros changement dans la sémantique (les mots les plus utilisés dans la page n'ont plus aucun rapport avec ceux qui étaient utilisés dans la première version).

Si l'article est bien positionné, il faut parfois procéder par petites touches. Si par exemple on doit ajouter 3 paragraphes il est peut-être plus judicieux de les ajouter en raison de un par mois au lieu de tous les trois en même temps. Ainsi on évite un repassage à la moulinette qui peut être catastrophique et faire perdre le bon positionnement qu'on avait. Il faut être plus malin que google.

Et si vraiment on a de gros gros changements à faire sur une page il peut aussi être intéressant de créer une nouvelle url et à terme supprimer la première après quelque mois. Ainsi on est certain que la moulinette google prend en compte tout le nouveau contenu et qu'on ne va pas se trainer des choses qui viennent de l'ancienne page mal positionnée. Car il doit exister plusieurs "moulinettes" qui ont toutes un objectif différent et qui ont une fréquence différente. Pour une nouvelle page, en quelques semaines, tous les filtres passeront dessus. Alors que pour une ancienne page mise à jour certains filtres ne repasseront qu'au bout de quelques mois, voir un an.
 
Olivier Duffez (admin)
Membre du personnel
Je conseille rarement que le seul changement soit une modif de la balise title.
Je suis un peu étonné du conseil "Si par exemple on doit ajouter 3 paragraphes il est peut-être plus judicieux de les ajouter en raison de un par mois au lieu de tous les trois en même temps."
Si ces 3 paragraphes apportent une vraie valeur ajoutée à l'internaute, je ne comprends pas qu'on mette 3 mois à les ajouter ?
 
WRInaute accro
pour éviter que google le perçoive comme un énorme changement et repasse à la moulinette la totalité de la page qui perde ainsi son positionnement initial. En y allant par petites touches ça ne réveille pas le monstre
 
Olivier Duffez (admin)
Membre du personnel
3§ c'est un énorme changement ? je suis un peu surpris
par ailleurs, en te lisant, on a l'impression que tu fais en fonction de Google uniquement. Si ces 3§ sont un vrai + pour l'internaute, autant le faire directement.
 
WRInaute accro
Non, je ne fais pas du tout "en fonction de google" mais en fonction du "bon sens".

Si une page est très bien positionnée et que je dois y ajouter des informations importantes pour l'internaute je vais y aller avec des pincettes pour ne pas que s'écroule le positionnement tant recherché. C'est une simple règle de bon sens.

Et google me donne raison car j'ai l'impression qu'il cherche à appliquer le "bon sens" dans la programmation de son algorithme. Du moins le même "bon sens" que celui que j'ai.

Il faut dire aussi que tu as l'habitude de travailler sur des sites très très volumineux avec des dizaines de milliers de pages. Si un article perd en positionnement ça ne sera sans doute pas catastrophique étant donné le volume de requêtes. Mais essaye de te mettre à la place de quelqu'un qui développe un site de 100 pages où un article peut représenter à lui seul 10% du trafic. Si le positionnement de cet article s'écroule c'est 10% du trafic qui s'écroule. Donc le bon sens et la raison dicte de ne pas trop y toucher violemment pour éviter ce genre de désagréments. Ce n'est pas "faire en fonction de google", c'est "agir en fonction de sa propre situation". Dans un cas comme celui-là j'aurai une préférence pour publier un nouvel article avec ces trois paragraphes et simplement ajouter un lien depuis le premier.

Mais c'est certain que pour un article qui ne ranke pas on peut faire ce qu'on veut. On ne prend pas énormément de risque et ça ne peut être que profitable.
 
WRInaute occasionnel
on est bien d'accord que tout ça reste du cas par cas. Par contre j'ai eu il y a 2 ou 3 années déjà en arrière un système ou on créait des urls et des pages à partir de flux de news. Rien d'anormal, c'est courant dans tout ce qui touche à l'information "live" sur un sujet. C'est dans ce secteur que j'ai vu le records de gogole, des pages postées et 7 minutes plus tard dans l'index des recherches de google (on peut le tester, dans les options de rechere : prendre moins d'une heure). Le record du système que j'avais dans les mains : 7 minutes.
Donc effectivement, rapidement des milliers de pages. A l'époque en tous cas, ce qu'on voyait c'est que le nombre moyen de pages indexées ne changeait pas. Les "vieilles pages " disparaissaient.
Pour optimiser, parce qu'on ne voulait plus malgré tout des vieilles news sans intérêt pour le secteur d'activité, au début on testé des redirection et après, le plus efficace, on a simplement virer les pages (de toutes façons elel généraient plus de trafic et n'avait plus d'intérêt).

et c'est très facile (très cher) si on est très frais de faire passer le bot toutes les 4 minutes

https://www.google.com/search?client=firefox-b-d&biw=1418&bih=811&tbs=qdr:h&ei=R5N5XIqeAYbIaKWuimA&q=usd+to+eur&oq=usd+to+eur&gs_l=psy-ab.12...0.0..11519...0.0..0.0.0.......0......gws-wiz.TI6fAgHvEYU

mais la fraicheur, la vraie fraicheur (de l'info) coute très très très cher
 
Discussions similaires
Haut