C'est la première fois que cela m'arrive...
J'installe pour un site: http://www.massiliavet.fr un robots.txt ( http://massiliavet.fr/robots.txt )
Je soumets un sitemap à google: ( http://www.massiliavet.fr/sitemap.xml )
Et google depuis 24 heures malgré plusieurs essais s'obstine à me dire que mon robots.txt bloque 32 pages en donnant des exemples de pages absolument pas concernées par le robots.txt directement ou indirectement (ce qui pourrait etre le cas si Disallow /page pour page/souspage)
Le site est resté 6 mois en noindex avant que je soumette le sitemap débloque l indexation et mette un robots.txt.
Alors ai-je oublié une erreur grossière dans mon robots.txt? Google est-il devenu fou?
Cela fait un peu plus de 24 heures que je bataille.
Vos avis sont les bienvenus !
MERCI
J'installe pour un site: http://www.massiliavet.fr un robots.txt ( http://massiliavet.fr/robots.txt )
Je soumets un sitemap à google: ( http://www.massiliavet.fr/sitemap.xml )
Et google depuis 24 heures malgré plusieurs essais s'obstine à me dire que mon robots.txt bloque 32 pages en donnant des exemples de pages absolument pas concernées par le robots.txt directement ou indirectement (ce qui pourrait etre le cas si Disallow /page pour page/souspage)
Le site est resté 6 mois en noindex avant que je soumette le sitemap débloque l indexation et mette un robots.txt.
Alors ai-je oublié une erreur grossière dans mon robots.txt? Google est-il devenu fou?
Cela fait un peu plus de 24 heures que je bataille.
Vos avis sont les bienvenus !
MERCI