Bonjour à tous,
Je viens de développer une boutique en ligne. Maintenant l'objectif est : trouver des clients
.
Je me pose énormément de questions sur le rewriting (surtout du à l'utilisation de sessions PHP sur mon site), je vais donc décrire ce que je compte mettre en place, si des choses vous paraissent aberrantes ça serait très gentil de me les signaler
.
Mon site actuellement :
- Une page principale dans laquelle je fais des includes.
- Une session ouverte dès la première page vue (traçage du visiteur, puis utilisation panier, puis info client).
D'après ce que j'ai trouvé sur ce forum, pour pouvoir mettre en place le rewriting, je dois :
- Bloquer les sessions lorsque je détecte que le visiteur est un robot (j'ai récupéré la liste des robots dans les scripts de robostats).
- N'utiliser le rewriting que pour ces robots (ce qui est dommage, j'aurais bien aimé que les visiteurs aient des urls plus propres).
- Réécrire tous les liens de mon site en me basant toujours sur le $HTTP_USER_AGENT.
Voilà, si quelque chose vous choque, genre les 180 conditions dans le htaccess pour les 180 robots recensés dans robostats :roll: .
Et dernière chose, encore plus bête que les précédentes si quelqu'un voit comment je peux tester que mon rewriting fonctionne bien
.
Je viens de développer une boutique en ligne. Maintenant l'objectif est : trouver des clients

Je me pose énormément de questions sur le rewriting (surtout du à l'utilisation de sessions PHP sur mon site), je vais donc décrire ce que je compte mettre en place, si des choses vous paraissent aberrantes ça serait très gentil de me les signaler

Mon site actuellement :
- Une page principale dans laquelle je fais des includes.
- Une session ouverte dès la première page vue (traçage du visiteur, puis utilisation panier, puis info client).
D'après ce que j'ai trouvé sur ce forum, pour pouvoir mettre en place le rewriting, je dois :
- Bloquer les sessions lorsque je détecte que le visiteur est un robot (j'ai récupéré la liste des robots dans les scripts de robostats).
- N'utiliser le rewriting que pour ces robots (ce qui est dommage, j'aurais bien aimé que les visiteurs aient des urls plus propres).
- Réécrire tous les liens de mon site en me basant toujours sur le $HTTP_USER_AGENT.
Voilà, si quelque chose vous choque, genre les 180 conditions dans le htaccess pour les 180 robots recensés dans robostats :roll: .
Et dernière chose, encore plus bête que les précédentes si quelqu'un voit comment je peux tester que mon rewriting fonctionne bien
