WRInaute impliqué
Bonjour,
J'ai un petit doute sur une syntaxe du robots.txt.
J'aimerais autoriser l'indexation de l'url monsite.com/fichier.htm
Mais interdire l'indexation de toutes urls "doublons" de type monsite.com/fichier.htm?variable=valeur
Suffit-il d'insérer la commande suivante dans le robots.txt :
Bien entendu, je pourrais faire des tests en PHP pour insérer, ou pas, une méta robot dans le head, mais l'utilisation du fichier robots.txt me paraît plus propre et efficace (d'un point de vue technique).
Merci par avance pour votre aide
J'ai un petit doute sur une syntaxe du robots.txt.
J'aimerais autoriser l'indexation de l'url monsite.com/fichier.htm
Mais interdire l'indexation de toutes urls "doublons" de type monsite.com/fichier.htm?variable=valeur
Suffit-il d'insérer la commande suivante dans le robots.txt :
Code:
Disallow: /fichier.htm?
Bien entendu, je pourrais faire des tests en PHP pour insérer, ou pas, une méta robot dans le head, mais l'utilisation du fichier robots.txt me paraît plus propre et efficace (d'un point de vue technique).
Merci par avance pour votre aide