Bonsoir,
J'ai mis à jour le fichier robots.txt en début de semaine, après avoir remarqué que Google indexait les pages de recherches
(--> doublon dans les pages indexés, problème signalé par Google dans Google Webmaster > metatag en doublon).
Aujourd'hui je remarque une grosse "avancée" dans l'indexation des pages : d'environs 4 000 pages, je passe à 200 000
(les sitemaps soumis à Google Webmaster compte environ 100 000 pages)
Comment faire pour que Google face le tri ? Il a bien téléchargé le nouveau robots.txt
Je pensais à passer par l'outil "Supprimer l'URL" dans Google Webmaster, mais bon... :roll:
Merci pour votre aide
J'ai mis à jour le fichier robots.txt en début de semaine, après avoir remarqué que Google indexait les pages de recherches
(--> doublon dans les pages indexés, problème signalé par Google dans Google Webmaster > metatag en doublon).
Aujourd'hui je remarque une grosse "avancée" dans l'indexation des pages : d'environs 4 000 pages, je passe à 200 000
(les sitemaps soumis à Google Webmaster compte environ 100 000 pages)
Comment faire pour que Google face le tri ? Il a bien téléchargé le nouveau robots.txt
Je pensais à passer par l'outil "Supprimer l'URL" dans Google Webmaster, mais bon... :roll:
Merci pour votre aide