Ce n'est pas un bug. C'est une optimisation du crawl. Au lieu d'avoir deux bots différents qui visitent la même page, maintenant ils partagent une cache commune.Suede a dit:Ils n'ont pas corrigé ce bug d'indexation du á leur crawl via proxy?
jeanluc a dit:Ce n'est pas un bug. C'est une optimisation du crawl. Au lieu d'avoir deux bots différents qui visitent la même page, maintenant ils partagent une cache commune.Suede a dit:Ils n'ont pas corrigé ce bug d'indexation du á leur crawl via proxy?
Je ne sais pas si cela entraîne qu'on ne peut plus interdire les crawls d'indexation si on affiche des AdSense.
Jean-Luc
Moi je préfère <meta name="robots" content="noarchive"gwaradenn a dit:Et en utilisant en plus :
<meta name="robots" content="index, follow, noarchive"
Le bot ne fera plus que son boulot pour adsense
:wink:
jeanluc a dit:Ce n'est pas un bug. C'est une optimisation du crawl. Au lieu d'avoir deux bots différents qui visitent la même page, maintenant ils partagent une cache commune.Suede a dit:Ils n'ont pas corrigé ce bug d'indexation du á leur crawl via proxy?
Je ne sais pas si cela entraîne qu'on ne peut plus interdire les crawls d'indexation si on affiche des AdSense.
Jean-Luc
Useragent: *
Disallow: /forum/ici
User-agent: Mediapartners-Google*
Disallow:
User-agent: Mediapartners-Google*
Disallow:
Useragent: *
Disallow: /forum/ici
Nous avons remarqué que le AdSense crawler rencontre des difficultés pour explorer certaines parties de votre site [...]. Ce problème est lié à votre fichier robots.txt.
User-agent: *
Disallow:
Sitemap: http://www.xxx.net/sitemap.xml
User-agent: Mediapartners-Google
Disallow:
Il faut dire que plein de sites ont un problème avec leur robots.txt. Car, depuis quelques temps, beaucoup de webmestres reçoivent ce mail de Google AdSense. Pourquoi subitement il y a un problème dans les fichiers robots.txt ? A moins que ce ne soit le robot Mediapartners-Google qui ait un problème.Nous avons remarqué que le AdSense crawler rencontre des difficultés pour explorer certaines parties de votre site [...]. Ce problème est lié à votre fichier robots.txt.