Nouveau WRInaute
Bonjour,
J'ai un site qui fonctionne trés bien. + 20 000 vsites/jours.
Cependant depuis un plantage de serveur et un redémarrage,il se passe la chose suivante:
- lorsque je simule Analyser comme googlebot ma homepage, il me dit: soit Fichier robots.txt manquant, innacessible, Echec et il ne crawl plus le site ni les sitemap. Je n'ai pas touché à ce fichier qui fonctionnait trés bien il y a encore 15 jours.
J'ai essayé de le retirer, de le remettre, de le regenerer via outils webmaster mais toujours les meme réponse. robots.txt est bien à la racine du site.
Je ne comprends vraiment pas ce qui se passe !?
Quelqu'un a une idée?
J'ai un site qui fonctionne trés bien. + 20 000 vsites/jours.
Cependant depuis un plantage de serveur et un redémarrage,il se passe la chose suivante:
- lorsque je simule Analyser comme googlebot ma homepage, il me dit: soit Fichier robots.txt manquant, innacessible, Echec et il ne crawl plus le site ni les sitemap. Je n'ai pas touché à ce fichier qui fonctionnait trés bien il y a encore 15 jours.
J'ai essayé de le retirer, de le remettre, de le regenerer via outils webmaster mais toujours les meme réponse. robots.txt est bien à la racine du site.
Je ne comprends vraiment pas ce qui se passe !?
Quelqu'un a une idée?