WRInaute accro
Bonjour,
Je suis perplexe sur la tournure que prend l'algorithme des moteurs de recherche. Ici, nous parlons de GG mais c'est valable pour l'ensemble des bots !!
A force de vouloir toujours rendre son algo de + en + serré, on finit par exclure des données essentielles.
Je m'explique....
Pour mon www, j'ai créé des répertoires pour centraliser mes versions étrangères sur mon NDD. Mais l'ami GG (me semble-t-il) rend difficile l'indexation au deuxième voire troisième niveau d'un site.
D'où ma version "en" qui commencait à être référencé se voit chaque jour désindexer des pages...
Au point, qu'aujourd'hui, je n'ai que la page d'accueil de la version anglaise !
Il ne s'agit pas de "duplicate content" puisque tout est fait dans les règles !
Doit-on en déduire qu'il devient prohiber de privilégier les répertoires pour plutôt se diriger vers les sous-domaines????
Merci de vos retours :wink:
Je suis perplexe sur la tournure que prend l'algorithme des moteurs de recherche. Ici, nous parlons de GG mais c'est valable pour l'ensemble des bots !!
A force de vouloir toujours rendre son algo de + en + serré, on finit par exclure des données essentielles.
Je m'explique....
Pour mon www, j'ai créé des répertoires pour centraliser mes versions étrangères sur mon NDD. Mais l'ami GG (me semble-t-il) rend difficile l'indexation au deuxième voire troisième niveau d'un site.
D'où ma version "en" qui commencait à être référencé se voit chaque jour désindexer des pages...
Au point, qu'aujourd'hui, je n'ai que la page d'accueil de la version anglaise !
Il ne s'agit pas de "duplicate content" puisque tout est fait dans les règles !
Doit-on en déduire qu'il devient prohiber de privilégier les répertoires pour plutôt se diriger vers les sous-domaines????
Merci de vos retours :wink: