robots.txt pour éviter le duplicate content sur ma page d'ac
Bonjour,
Je viens de remarquer que ma page d'accueil était accessible avec les 3 url:
www.monsite.fr
www.monsite.fr/index.php
www.monsite.fr/index.php?lang=fr
Bien évidemment, Google c'est empressé de référencer ces 3 url avec un contenu et des META identiques...
J'ai donc mis un fichier robots.txt à la racine de mon site:
2 questions pour les pros:
- ce code est-il bon pour ne garder que la page www.monsite.fr dans les résultats Google
- Dans quelle mesure ce duplicate content m'a t'il porté préjudice jusqu'à maintenant? J'avais l'impression de monter trrrrèèèès lentement en PR pour cette page, est-ce que c'est du en partie à ça?
Merci pour votre aide,
TO
Bonjour,
Je viens de remarquer que ma page d'accueil était accessible avec les 3 url:
www.monsite.fr
www.monsite.fr/index.php
www.monsite.fr/index.php?lang=fr
Bien évidemment, Google c'est empressé de référencer ces 3 url avec un contenu et des META identiques...
J'ai donc mis un fichier robots.txt à la racine de mon site:
Code:
User-agent: *
Disallow: /index.php
Disallow: /index.php?lang=fr
Disallow: /index.php?lang=en
2 questions pour les pros:
- ce code est-il bon pour ne garder que la page www.monsite.fr dans les résultats Google
- Dans quelle mesure ce duplicate content m'a t'il porté préjudice jusqu'à maintenant? J'avais l'impression de monter trrrrèèèès lentement en PR pour cette page, est-ce que c'est du en partie à ça?
Merci pour votre aide,
TO