Je cree un nouveau post car a mon avis, cela concerne cette fois-ci un problème global.
Je ne sais pas ce que vous en pensez, mais je crains que certains "canon" de l'optimisation du référencement finissent par passer à la trappe. :?
Comme je le disais dans un post, j'ai noté une legere baisse de performance des url rewritees a coup de "-" chez google et on remarque aussi un boycot clair et net chez msn de ce meme type d'url.
Cela fait deja un petit moment que cela me trotte dans la tete: quoi de plus simple pour detecter un site construit de facon non naturelle que de regarder comment sont nommes les fichiers d'une url ? Pourquoi cela n'est-il pas gere par les moteurs ?
A la main, pour une page traitant des "fontaines remarquables de paris par arrondissement", on metterai fontaine-paris.html ou fontaineparis.html. avec nos (mauvaises ?) habitudes, nos scripts utilisent le titre brut de fonderie et nomment cette page les-fontaines-remarquables-de-paris-par-arrondissement.html
Bref: des nots non significatifs (les, de, par) et une palanquee de tirets (6)
Il serait logique qu'un filtre sur ces criteres se generalise, je le crains deja depuis quelques mois.
Bref: le faite que:
- un tel filtre serait tellement facile a mettre en place,
- on observe une perte d'influance sur google,
- msn boycotte carrement ce type d'url,
me fait craindre de mauvaises surprises
Bases de reflexion:
Astuce qui permet d'être (enfin) visité par MSN-bot !
Les Bots n'aiment pas les tirets!
Le tiret gagne le match Tiret contre Underscore (fin de post)
J'aimerai connaitre vos avis car si une telle chose doit arriver, on a tous interret a anticiper :wink:
Je ne sais pas ce que vous en pensez, mais je crains que certains "canon" de l'optimisation du référencement finissent par passer à la trappe. :?
Comme je le disais dans un post, j'ai noté une legere baisse de performance des url rewritees a coup de "-" chez google et on remarque aussi un boycot clair et net chez msn de ce meme type d'url.
Cela fait deja un petit moment que cela me trotte dans la tete: quoi de plus simple pour detecter un site construit de facon non naturelle que de regarder comment sont nommes les fichiers d'une url ? Pourquoi cela n'est-il pas gere par les moteurs ?
A la main, pour une page traitant des "fontaines remarquables de paris par arrondissement", on metterai fontaine-paris.html ou fontaineparis.html. avec nos (mauvaises ?) habitudes, nos scripts utilisent le titre brut de fonderie et nomment cette page les-fontaines-remarquables-de-paris-par-arrondissement.html
Bref: des nots non significatifs (les, de, par) et une palanquee de tirets (6)
Il serait logique qu'un filtre sur ces criteres se generalise, je le crains deja depuis quelques mois.
Bref: le faite que:
- un tel filtre serait tellement facile a mettre en place,
- on observe une perte d'influance sur google,
- msn boycotte carrement ce type d'url,
me fait craindre de mauvaises surprises

Bases de reflexion:
Astuce qui permet d'être (enfin) visité par MSN-bot !
Les Bots n'aiment pas les tirets!
Le tiret gagne le match Tiret contre Underscore (fin de post)
J'aimerai connaitre vos avis car si une telle chose doit arriver, on a tous interret a anticiper :wink: