Bonjour à tous.
Voilà, suite à une erreur quand à l'application de mon url rewritting , où le fichier robots.txt ne fut pas pris en compte, cela a produit du duplicate content, et certains datacenter de google , je pense, m'ont déjà blacklité, du moins, c'est ce que je pense.
Certes, la plupart des moteurs de recherche passent tous les jours sur mon site, mais google continue de conserver les anciennes url non réécrites, c'est à dire celles qu'il n'aurait pas dut indexer.
J'ai établit une sitemap sous google, mais savez vous où je peux trouver les outils nécessaires pour demander à google de rettirer de son index les url qu'il n'aurait pas dut indexé, ce qui aurait évité le duplicate content ?
Merci pour toutes réponses .
Voilà, suite à une erreur quand à l'application de mon url rewritting , où le fichier robots.txt ne fut pas pris en compte, cela a produit du duplicate content, et certains datacenter de google , je pense, m'ont déjà blacklité, du moins, c'est ce que je pense.
Certes, la plupart des moteurs de recherche passent tous les jours sur mon site, mais google continue de conserver les anciennes url non réécrites, c'est à dire celles qu'il n'aurait pas dut indexer.
J'ai établit une sitemap sous google, mais savez vous où je peux trouver les outils nécessaires pour demander à google de rettirer de son index les url qu'il n'aurait pas dut indexé, ce qui aurait évité le duplicate content ?
Merci pour toutes réponses .