Bonjour,
Je post ici car cela me semble l'endroit le plus logique.
Google, et probablement les autres moteurs aussi, crawl mon robots.txt en http et https. La requête en http est redirigée (code 301) sur la version https, ce qui a le don de m'agacer d'une part et est peut-être problématique d'autre part (là je ne sais pas).
il est indiqué "il faut un fichier robots.txt pour chaque protocole"
Mais je n'ai aucune idée de la façon dont-il faut procéder. La racine de mon site étant la même dans les deux cas et tout le site est maintenant en https.
Je voudrais pouvoir retourner un code 410 pour le robots.txt en http, mais je ne suis pas sûr de la façon dont il faut procéder (dans le htaccess ?) et si cela est recommandé ou pas. Dans la mesure où tout mon site est en https, je ne vois pas l'intérêt de laisser les bots chercher un fichier robots.txt en protocole http.
Merci pour vos conseils éclairés
Je post ici car cela me semble l'endroit le plus logique.
Google, et probablement les autres moteurs aussi, crawl mon robots.txt en http et https. La requête en http est redirigée (code 301) sur la version https, ce qui a le don de m'agacer d'une part et est peut-être problématique d'autre part (là je ne sais pas).
il est indiqué "il faut un fichier robots.txt pour chaque protocole"
Mais je n'ai aucune idée de la façon dont-il faut procéder. La racine de mon site étant la même dans les deux cas et tout le site est maintenant en https.
Je voudrais pouvoir retourner un code 410 pour le robots.txt en http, mais je ne suis pas sûr de la façon dont il faut procéder (dans le htaccess ?) et si cela est recommandé ou pas. Dans la mesure où tout mon site est en https, je ne vois pas l'intérêt de laisser les bots chercher un fichier robots.txt en protocole http.
Merci pour vos conseils éclairés