Bonjour,
je souhaiterais créer un robots txt suivant mon NDD afin que les robots arretent d'indexer mon ancienne url, histoire d'éviter le duplicate content :wink: .
Robots.txt actuel :
>> °http://www.anoduweb.com ( Nouveau NDD )
et
>> °http://anoweb.jexiste.fr/ (Ancienne url )
Quelles lignes de codes sont à rajoutés pour réussir à eliminer l'indexation de mon ancienne url ?
Merci d'avance.
je souhaiterais créer un robots txt suivant mon NDD afin que les robots arretent d'indexer mon ancienne url, histoire d'éviter le duplicate content :wink: .
Robots.txt actuel :
User-agent: *
Disallow: /dossierphpbb/viewtopic.php
Disallow: /dossierphpbb/viewforum.php
Disallow: /dossierphpbb/index.php?
Disallow: /dossierphpbb/posting.php
Disallow: /dossierphpbb/groupcp.php
Disallow: /dossierphpbb/search.php
Disallow: /dossierphpbb/login.php
Disallow: /dossierphpbb/post
Disallow: /dossierphpbb/profile.php
Disallow: /dossierphpbb/memberlist.php
Disallow: /dossierphpbb/faq.php
>> °http://www.anoduweb.com ( Nouveau NDD )
et
>> °http://anoweb.jexiste.fr/ (Ancienne url )
Quelles lignes de codes sont à rajoutés pour réussir à eliminer l'indexation de mon ancienne url ?
Merci d'avance.
