Bonjour,
"je" lance un site web et je me pose pas mal de questions.
Pour un certain nombre de raisons, certaines des mes pages sont accessibles via plusieurs urls, par exemple, un article est accessible via :
/markets/market1/articles.aspx?id=33
et
/allservices/articles.aspx?id=33
ai-je intérêt à mettre un disallow sur l'une des deux URLs, sachant que le contenu de la page n'est pas exatement le même ; l'article est le même, mais le titre de la rubrique n'est pas le même (market1 dans le premier cas, services dans le second).
Bon je suppose qu'aux yeux du robot Google c'est la même page, quel est le risque ? Duplicate content ? Cela veut dire que Google va correctement indexer une des deux pages et pas l'autre ? Cela ne me pose pas de problème tant qu'au moins une des deux pages est correctement indexée. Je laisse Google choisir ou je lui colle un robots.txt entre les dents ?
"je" lance un site web et je me pose pas mal de questions.
Pour un certain nombre de raisons, certaines des mes pages sont accessibles via plusieurs urls, par exemple, un article est accessible via :
/markets/market1/articles.aspx?id=33
et
/allservices/articles.aspx?id=33
ai-je intérêt à mettre un disallow sur l'une des deux URLs, sachant que le contenu de la page n'est pas exatement le même ; l'article est le même, mais le titre de la rubrique n'est pas le même (market1 dans le premier cas, services dans le second).
Bon je suppose qu'aux yeux du robot Google c'est la même page, quel est le risque ? Duplicate content ? Cela veut dire que Google va correctement indexer une des deux pages et pas l'autre ? Cela ne me pose pas de problème tant qu'au moins une des deux pages est correctement indexée. Je laisse Google choisir ou je lui colle un robots.txt entre les dents ?