Site désindexé progressivement de Google. HELP

Nouveau WRInaute
Bonjour à tous les WRInautes,
J'ai besoin de vos avis pour m'éclairer sur un sujet délicat.

Je travail pour une agence web qui a réalisé ce site
il y a 3 ans de cela. (Initialement pas d'optimisation côté référencement)
L'an dernier, notre client a fait appel à une agence de référencement (suffisamment connue pour que je taise son nom)

Depuis l'intervention de cette agence, je constate que les pages du site sont progressivement désindexées de l'index Google. En effet, il y a environ 3 000 produits sur le site (presque autant de pages indexées l'an dernier) et aujourd'hui il n'y en a plus que 325 (voir). Toutes les pages disparaissent progressivement depuis 6 mois.

Il ne semble pas que le site en lui même soit blacklisté car il y a encore des pages sur GG.

Précisions importantes :
- Les URL ont été ré-écrites une première fois de manière un peu anarchique (le client utilise un logiciel de gestion pour exporter la base produit). Puis elles ont été rétablies quelques mois après car cela était trop compliqué à gérer.
//Le problème de changement massif des URL a t-il perturbé GG (dans ce cas pourquoi il continu de désindexer les pages)
- Le client exporte une parti de ses produits sur un comparateur de prix (tw**ga) qui reprend le contenu des fiches à l'identique
- Le client a créer quelques sites satellites par thématique de produits (la duplication de contenus n'est pas évidente sur ces sites)
- Il n'y a pas eu d'arrivée massive de liens à ma connaissance

J'ai vraiment besoin de vous sur ce coup car je m'interroge beaucoup sur les causes et surtout sur les solutions pour remédier au problème car en tant que site e-commerce les conséquences sont très lourdes pour le client.

Si vous en avez, elles sont les bienvenues.

Merci d'avance pour vos réponses.
 
WRInaute accro
Bonjour
Une hypothèse : l'agence de ref a recommandé de la réécriture d'URL mais pas de redirection des anciennes URL :

-Le site est ce qu'il est au départ, avec ses URL non réécrites, et ses exports sur Twenga, considéré alors comme le site "copieur".
- L'agence de referencement arrive, recommande de la réécriture d'URL sans recommander de redirections 301; les anciennes URL sont désindexées, les nouvelles repartent de zéro, les pages de Twenga deviennent les pages "originelles" aux yeux de Google
- Les anciennes URL sont rétablies, sans redirection 301 des URL réécrites, mais trop tard. Twenga a pris la place.

Ce n'est qu'une hypothèse, bien sur.
 
Nouveau WRInaute
C'est une hypothèse effectivement mais le fait est que tous les produits ne sont pas envoyés sur Twenga.
Et pourtant presque toutes les URL ont été desindexées...

Mais effectivement j'ai aussi l'impression que le bouleversement dans les URL est largement responsable dans l'histoire,
pour autant, je ne comprends pas pourquoi les nouvelles URL (en fait les anciennes) ne sont pas ré-indexées.
 
WRInaute accro
Et suis je dans le vrai quand je soupconne l'agence de ref de ne pas avoir couplé la réécriture des URL à des redirections 301 ?
 
Nouveau WRInaute
Biensûr vous êtes dans le vrai, les url ont été modifiée sans redirection 301
en fait il y a eu une redirection 301 de toutes les url vers... la page d'accueil
mais pas url par url.

Serait-ce la cause de la desindexation... certainement c'était ma première idée.

Mais avez vous des solutions pour remédier à ce problème ?

Faut-il simplement attendre que les choses revienne dans l'ordre ou bien doit-on reprendre certaines choses ?

PS: Merci pour votre participation à ce sujet c'est cool
 
WRInaute accro
En tout cas, voir ce genre de balise sur un site traité par une agence, c'est très moyen ...
Code:
<meta name="Revisit-after" content="15 days">

Vire là ;)
 
Nouveau WRInaute
Oui, c'est normal puisque aujourd'hui aucune URL n'est ré-écrite.
Elles ont été ré-écrites une première fois puis nous sommes revenus 6 mois après aux url initiales.

En fait je me demande si le site n'est pas blacklisté car même sur une requête peu concurrentielle, la page d'accueil a beaucoup de mal a sortir dans les résultats de recherche (PR3)

Qu'en pensez-vous ?
 
WRInaute accro
Pour être précis, le 'blacklisting' correspond à une suppression totale du site de l'index d'un moteur de recherche. ton site n'est donc pas blacklisté. Ce qui semble sûr, c'est que les tâtonnements dus à la mise en place puis le retrait puis la remise en place d'URL différentes sans assurer de redirections a été très préjudiciable au site. Ton agence de référencement a selon moi fait un travail de sagouin en ne préconisant pas ces redirections 301 lorsqu'elle a préconisé la réécriture d'URL
.
 
Nouveau WRInaute
Tout-a-fait d'accord avec toi nickargall.

Il est quasiment sûr que ces multiples opérations sur les URL saont la cause du problème.
D'ailleurs La desindexation continue. 325 pages Vendredi -> 319 Lundi
C'est un vrai problème.

Pensez-vous que ca puisse se rétablir avec le temps ou doit-on reprendre quelque chose sur le site (ou ailleurs)
pour corriger ce problème rapidement ?
 
WRInaute accro
La seule chose à faire, mais qui n'apporterait pas grand chose à mon avis, serait de mettre en place des redirections 301 des URL réécrites vers les URL non réécrites, au cas ou certaines d'entre elles seraient encore dans l'index du moteur, ou sous forme de backlinks sur des sites tiers.
Mais bon cela serait vraiment histoire de dire qu'on fait quelquechose ...

Ceci dit, les chiffres d'indexation concernant ton site sont vraiment étranges sur Google; en parcourant les résultats de la commande site: pour ton nom de domaine, on passe de 263 pages indexées à 2950, pour finalement être bloqué à 263 pages .

Un conseil: Ne passe plus jamais par cette agence de référencement !
 
Nouveau WRInaute
nickargall a dit:
Ceci dit, les chiffres d'indexation concernant ton site sont vraiment étranges sur Google; en parcourant les résultats de la commande site: pour ton nom de domaine, on passe de 263 pages indexées à 2950, pour finalement être bloqué à 263 pages .

En fait 2950 correspond au nombre d'url fournis par le Sitemap

Comment obtiens-tu ces chiffre ? La commande site: m'affiche 319 pages indexées...
 
WRInaute accro
Bonjour

La seule solution valable à mon humble avis (que les URL soient réécrites ou pas d'ailleurs) serait la mise en place d'une fonction contrôlant l'URL appelée pour l'affichage de la page en cours, et qui la comparerait à l'URL théorique de ladite page (reconstituée d'après la base de données), et qu'en cas de différence elle fasse une redirection 301 propre.

C'est un système que j'utilise sur mes boutiques en ligne et de manière générale sur tous mes sites. C'est quelque chose de réellement INDISPENSABLE à mon avis. L'avantage est que l'on peut garantir qu'il n'y a aucun duplicate content dans le site lui-même d'un point de vue technique* (c'est déjà une bonne chose !)



* je dis "d'un point de vue technique" car si 20 produits reprennent les mêmes informations et descriptifs, là aucun script n'y pourra rien...
 
WRInaute accro
antonin87 a dit:
nickargall a dit:
Ceci dit, les chiffres d'indexation concernant ton site sont vraiment étranges sur Google; en parcourant les résultats de la commande site: pour ton nom de domaine, on passe de 263 pages indexées à 2950, pour finalement être bloqué à 263 pages .

En fait 2950 correspond au nombre d'url fournis par le Sitemap

Comment obtiens-tu ces chiffre ? La commande site: m'affiche 319 pages indexées...
Je lance la commande site:... et vais me balader de page en page dans les résultats Google
 
Discussions similaires
Haut