Cas d'école : changement de technologie et d'URL.

WRInaute discret
Bonjour à tous,

Un site que je référence va changer à plusieurs niveaux :
- technologie (de Perl vers asp)
- Contenu

Quel est, d'apres ceux qui ont vécu cette expérience, le meilleur moyen d'indiquer proprement ce changement aux outils de recherche ?

Qu'indiquer par exemple dans le robots.txt ?

Merci de vos contributions,
 
WRInaute discret
Oui on peut faire des 301 via IIS !

Mais je me pose la question suivante :

vaut-il mieux faire une 301 des 18.000 pages indexées vers la nouvelle home pour rediriger le robot,

OU

laisser ces pages la en 404, en créant une belle 404 plan du site ?

Gros dilemme :wink:
 
WRInaute accro
Le mieux, amha, ce n'est pas de rediriger les anciennes pages vers la home, mais plutôt vers les nouvelles.
Cela t'est-il possible ?
Les visiteurs ne seront pas perdus, et les nouvelles pages remplaceront les anciennes.
 
WRInaute discret
Merci de ta réponse,

Pas possible puisque les anciennes pages (perl) sont difficilement listables au niveau url.

Donc mieux vaut 301 que 404-plan d'apres toi ?
 
WRInaute discret
A mon avis c pas tres classe mais si le site est vraiment bien référencer tu configure dans IIS que php réponde comme un ASP et tu gardes les url en .php...
 
WRInaute accro
Si tu veux faire propre, tu travailles avec un code d'erreur 404 sur une page personnalisée, qui présente un mini-sitemap afin que le visiteur puisse aisément trouver son chemin vers la nouvelle localisation de l'info.

Si tu veux faire à la sauce SEO, tu travailles avec une redirection 301.

- Il est souvent possible d'effectuer du "page-à-page", lorsqu'on a conservé une structure similaire au travers du changement de technologie. ex: un CMS qui tourne avec des identifiants de page, tu récupères l'identifiant, tu recrées l'URI avec les mêmes règles que celles utilisées par le CMS, puis tu renvoies en 301 vers ce nouvel URI.

- Lorsqu'il n'est pas possible d'effectuer cette redirection page-à-page, je dirais que le mieux est une combinaison des deux:

Identifier les pages "principales" ( ex: /produits/ , /catalogue/ , /activite/ ), les sections "majeures" de ton site, et les rediriger en 301 vers leur pendant dans la nouvelle techno; et pour les autres, une page d'erreur 404 avec sitemap.
 
WRInaute discret
:D

Aspin merci pour ta réponse mais ce sont des pages cgi vraiment laides et ils vaut mieux les expulser :/

Hawkeye, ta solution, qui ne m'etait pas venue à l'idée, est effectivement très intéressante. Une combinaison des 2 permet en effet de prendre en compte à la fois l'utilisateur et le robot.

Je vais tenter ca, merci beaucoup pour votre aide :D :D 8)
 
WRInaute accro
Si tu as la possibilité de faire une recherche dans la db, tu peux aussi user de ce genre de technique-ci:

http://www.indexweb.info/annuaire-refer ... 482-1.html


--> Code d'erreur: 410 (Gone) --> Mène à la désindexation, comme une 404.
--> Recherche sur les termes détectés dans l'uri (ici "annuaire", "referencement" et "internet")

--> Proposition de liens qui devraient satisfaire le visiteur égaré ;)

Ca ne transfère aucun potentiel de positionnement aux nouvelles pages, mais ton visiteur amené par le moteur de recherche se voit proposer des alternatives logiques.

Plus "user-friendly", y'a pas :)
 
WRInaute accro
il n'y a vraiment aucune logique de conversion entre les anciennes page vers les nouvelles ? Si c'est le cas, ce n'est pas très difficile de scripter en asp l'équivalent d'un htaccess, sinon la solution proposée par HawkEye est assez élégante.


PS : Sinon tu as isapi rewrite (htaccess sur IIS), mais c'est vraiment pas terrible. :wink:
 
Discussions similaires
Haut