URL Rewriting ou cloaking

WRInaute discret
bonjour à tous
Voilà j'ai un site marchand comportant un catalogue de produit assez conséquent. Etant donné que je passe par un formulaire pour atteindre ces articles, les pages articles ne sont pas référencées.
Ca c'est le premier point.
Ensuite je me trimballe une session sur toutes les pages (histoire de ne pas perdre le panier du client)
Ca c'est le 2eme :)

Alors je me dis si je passe par un autre moyen de navigation, style : un menu par des liens en durs alors Google sera content.
Je fais, je test et bingo ca marche pas.
Pourquoi ? be tout simplement car il y a un phpsession dans l'url et forcement il va pas plus loin que le premier voire 2eme lien :cry:

Donc j'en arrive à ma question :
soit je detecte si l'internaute est un robot (là je pense pas avoir trop de problème à mettre cela en place)
soit je passe par de l'url rewriting.
Dans le 2eme cas quand est il de la variable phpsession ? j'arrive pas trop à bien cerner le problème.
Par exemple si je fais de l'U.R et que mon client n'accepte pas les cookies comment cela se passe ?

Bref si vous pouviez aiguiller un newbies sur la méthode à suivre ce serait cool de votre part.

Ps: cela fait pas mal de temps que je regarde le forum et donc j'ai lu pas mal de chose, mais pas assez apparament :lol:
 
WRInaute discret
ok j'ai regardé le post et merci ;-)
Je ne pense pas passer par de telles opérations disons "bricoleuses". Donc je vais me pencher sur le cloacking.
Il faut que je fasse des essais car tester si l'internaute est un robot ou pas je ne sais pas si cela prend beaucoup de temps et de charge serveur. Je n'ai pas envie de pénaliser les vrais clients ;-)
 
WRInaute accro
Le cloacking est une opération "bricoleuse" aussi et qui peut s'avérer dangereuse pour ton référencement.
Ce pourquoi je n'ais pas choisi le cloacking :
- dangereux pour le référencement : Au pire tu peux être blacklister (même si je pense que tu ne le sera pas puisque ce cloaking ne vise pas à tromper les moteurs)
- en terme de mise à jour : comment vas tu faire pour mettre à jour ta liste de robots à qui tu affiche tes pages sans session ? Comment être sûr que tu n'empêche pas l'accès à des visiteurs qui utilisent des navigateurs particuliers ?
 
WRInaute discret
itsme > le problème est que 10% des clients sur mon site ne possèdent pas les cookies. Cela m'ennuyerai si je perds 10% de mon chiffre d'affaire.

blman>
dangereux pour le référencement
Comme tu le dis plus loin, ce n'est pas pour tromper les robots car le contenu des pages seront identiques.

blman>
en terme de mise à jour
En effet c'est un problème majeur. Cela dit je n'ai besoin que de surveiller les 4 ou 5 plus gros moteurs de recherche. Et il existe des sites qui mettent à jours les adresses ip des robots.
 
WRInaute impliqué
le problème est que 10% des clients sur mon site ne possèdent pas les cookies.
Que 10% de tes client nettoient leurs cookies en fin de session, soit. Mais qu'ils ne les acceptent pas au cours d'une session surf, je n'y crois pas a moins que ce soit... des robots :P
 
WRInaute accro
ptitpimousse a dit:
itsme > le problème est que 10% des clients sur mon site ne possèdent pas les cookies. Cela m'ennuyerai si je perds 10% de mon chiffre d'affaire.

blman>
en terme de mise à jour
En effet c'est un problème majeur. Cela dit je n'ai besoin que de surveiller les 4 ou 5 plus gros moteurs de recherche. Et il existe des sites qui mettent à jours les adresses ip des robots.

En ne surveillant qe les 4 ou 5 plus gros moteurs de recherche, es-ce que tu ne risque pas aussi de perdre 10% de ton chiffre d'affaire ? Peut-être pas maintenant mais à l'avenir ?
 
WRInaute discret
il est vrai. Disons que je voudrai faire un test pour voir déja si cela ne prend pas trop de temps en terme d'exécution de script.
La plupart de mes internautes sont en rtc et vous voyez c'est pas évident tout ca.
 
WRInaute impliqué
c'est mes stats qui me le prouve
Tu as des stats qui te disent que 10% de test clients n'acceptent pas les cookies... ou tu y compte aussi les robots ?

Serieusement, les "clients" sur le web ont a 98% des configurations standard, j'entend par standard, des gens qui n'ont pas de parametrage paranoiaque ou des navigateurs furtifs. (ces derniers savent souvent pouquoi ils ont cette approche).

Et sincerement, quelqu'un qui n'accepte pas les cookies durant une session n'a pas grande chance de faire des courses sur le web :)
 
WRInaute accro
Je suis d'accord avec toi qu'il ne faut ni utiliser les coockies, ni javascript pour une boutique.
La seule manière de t'en sortir facilement, comme je le disais au début, c'est de créer la session lorsque l'utilisateur fait son premier ajout au panier, ensuite tu conserve la session pour garder la panier en mémoire. Avec cette solution, tu évite le cloaking puisque les moteurs n'ajouterons jamais aucun article au panier, eux n'aurons jamais la session.

Je te file l'adresse du site que j'ai fais en MP, comme ça tu pourra mieux te rendre compte de ce que ça fait.
 
WRInaute discret
ton raisonnement tient la route c'est sur.
je viens de regarder mes stats et c'est pas 10% mais 15%
j hesite franchement à recourir par cette méthode malgrès qu'elle soit la plus sage
 
WRInaute discret
Une question en passant :
est il possible de tester si une session est commencée avant de faire l'appel à session_start() ?

Je pense que non mais je recherche actuellement sur le site de php.
Si quelqu'un à une réponse merci bien ;-)
 
WRInaute discret
je reviens à la charge après quelques tests :-)
voilà comment j'ai procédé
je lance la session
je testes si c'est un spider
si oui je detruis la session

Reste à voir si cela fonctionne....
 
WRInaute accro
Comment test-tu si c'est un spider ? Tu le fais à partir d'une liste ou tu a une autre technique ?
 
WRInaute occasionnel
Sinon il y a aussi la solution de développer le site en .NET qui permet de stocker des variables avec "un champ de type hidden", mais je ne retombe plus sur le nom exact :)
 
WRInaute discret
Salut,

D'après ce que l'on dit, les sessions ne sont pas au top pour le référencement.
Si tu écris ton site en PHP, peut-être faudrait-il opter pour des cookies via la fonction setcookie(). C'est ce que j'utilise et le panier fonctionne. En revanche, il est vrai que dès que l'utilisateur ferme le navigateur, les infos sont perdues, mais sort-on souvent du supermarché avant d'avoir fini ses courses ? ;) (OK sur le net c'est carrément moins vrai, mais tu vois :)).

Doug
 
WRInaute discret
la solution est vraiment simple un fois que l'on connait
voilà je fais session_start() sur toute les pages
je suis avec robotstats donc je teste à chaque page si c'est un robot :roll:
et si c'est un robot je detruis la session.
ok bon c'est pas top :(

alors voilà simplement on rajoutant 1 parametre dans robotstats que je recupere dans mes pages pour savoir si c'est un robot ou pas.
Code:
$spiders = false;
if(!session_id())    //Si pas de session donc premiere visite ou robot
include(...)            // on inclu robotstats, on met à true $spider si robot
if(!$spiders)
session_start();
au moins là je teste 1 seule fois la préscence des robots dans le cas d'un client normal.

:idea:
 
Discussions similaires
Haut