WRInaute discret
Bonjour à vous,
Comme mon sujet l'indique, je cherche une solution "intelligente" pour avoir un référencement efficace sur Google et Yahoo (2 moteurs principaux) en tenant compte d'un restriction que je me dois IMPÉRATIVEMENT de mettre en place, contexte légale obligeant (inutile d'entrer dans les détails de cet aspect)...
Disons simplement que la page d'avertissement en question SE DOIT d'être affiché SANS possibilité d'être contourné par des petits malins...
Mon problème est que cette page se doit d'être AU DÉBUT et ne donne pas de marge pour le contenu pouvant être référencé puisqu'il se trouve APRÈS la page d'avertissement et qu'il faire une recherche pour afficher le résultat (MySQL)...
J'ai donc pensé utilisé ma page index pour:
1. afficher le reste du site selon la langue avec un $http_accept_language 0, 2
2. utiliser le $user_agent pour donner aux robots le contenu qu'ils ne peuvent avoir accès
mais il est probable que le $user_agent soit considéré comme un "leurre" et ignoré par les robots pensant que c'est de la "triche"
Alors la question est toute entière, comme permettre l'accès aux robots au contenu et lui permettre exclusivement de outrepasser les restrictions destinés aux utilisateurs ??? :roll:
On doit prendre comme acquis que le robot "accepte" les conditions pour lui permettre de continuer son indexation... Je ne crois pas que le robot soit un "bandit" par défaut :idea:
Merci si vous avez une idée géniale...
Comme mon sujet l'indique, je cherche une solution "intelligente" pour avoir un référencement efficace sur Google et Yahoo (2 moteurs principaux) en tenant compte d'un restriction que je me dois IMPÉRATIVEMENT de mettre en place, contexte légale obligeant (inutile d'entrer dans les détails de cet aspect)...
Disons simplement que la page d'avertissement en question SE DOIT d'être affiché SANS possibilité d'être contourné par des petits malins...
Mon problème est que cette page se doit d'être AU DÉBUT et ne donne pas de marge pour le contenu pouvant être référencé puisqu'il se trouve APRÈS la page d'avertissement et qu'il faire une recherche pour afficher le résultat (MySQL)...
J'ai donc pensé utilisé ma page index pour:
1. afficher le reste du site selon la langue avec un $http_accept_language 0, 2
2. utiliser le $user_agent pour donner aux robots le contenu qu'ils ne peuvent avoir accès
mais il est probable que le $user_agent soit considéré comme un "leurre" et ignoré par les robots pensant que c'est de la "triche"
Alors la question est toute entière, comme permettre l'accès aux robots au contenu et lui permettre exclusivement de outrepasser les restrictions destinés aux utilisateurs ??? :roll:
On doit prendre comme acquis que le robot "accepte" les conditions pour lui permettre de continuer son indexation... Je ne crois pas que le robot soit un "bandit" par défaut :idea:
Merci si vous avez une idée géniale...