Bonsoir
Alors je ne cherche pas à savoir comment sécuriser mon formulaire des failles XSS et autres injections sql. Pour cela je pense avoir compris le minimum à savoir (découpage de la recherche saisie, retrait de certains mots clés, requêtes préparées, htmlspecialchars à l'affichage)
Je cherche surtout une méthode pour éviter qu'un utilisateur copie le formulaire pour tester en distant celui ci afin de repérer plus facilement et rapidement les failles éventuelles. En gros un moyen de se protéger des robots.
Alors j'utilise en général les Tokens pour la plupart des mes formulaires mais pour celui-ci je bloque.
Le formulaire est en GET (plus simple pour la pagination, et si la page de recherche est linké quelque part c'est plus pratique)
Le soucis avec le token c’est qu'il faudrait également le passer en GET et la évidemment ça pose problème car la page des résultats serait valable juste une fois ou au pire une courte période (il y aurait d'ailleurs le même soucis en POST). Donc si l'internaute visite un des résultats puis revient en arrière évidemment le token n’est plus bon ou pourrait ne plus l'être.
Idem si un utilisateur partage sur la toile le lien de sa recherche, ce lien ne serait plus valable.
Se baser sur le referer semble inutile également, donnée peu fiable.
vers quelle solution se tourner? je pourrais éventuellement me baser sur un nombre maxi de recherche par jour/IP, mais est-ce suffisant? sachant que si une recherche retourne 20 pages de résultats et que l'internaute visite ces 20 pages. Ca lui comptabiliserais 20 recherches
Alors je ne cherche pas à savoir comment sécuriser mon formulaire des failles XSS et autres injections sql. Pour cela je pense avoir compris le minimum à savoir (découpage de la recherche saisie, retrait de certains mots clés, requêtes préparées, htmlspecialchars à l'affichage)
Je cherche surtout une méthode pour éviter qu'un utilisateur copie le formulaire pour tester en distant celui ci afin de repérer plus facilement et rapidement les failles éventuelles. En gros un moyen de se protéger des robots.
Alors j'utilise en général les Tokens pour la plupart des mes formulaires mais pour celui-ci je bloque.
Le formulaire est en GET (plus simple pour la pagination, et si la page de recherche est linké quelque part c'est plus pratique)
Le soucis avec le token c’est qu'il faudrait également le passer en GET et la évidemment ça pose problème car la page des résultats serait valable juste une fois ou au pire une courte période (il y aurait d'ailleurs le même soucis en POST). Donc si l'internaute visite un des résultats puis revient en arrière évidemment le token n’est plus bon ou pourrait ne plus l'être.
Idem si un utilisateur partage sur la toile le lien de sa recherche, ce lien ne serait plus valable.
Se baser sur le referer semble inutile également, donnée peu fiable.
vers quelle solution se tourner? je pourrais éventuellement me baser sur un nombre maxi de recherche par jour/IP, mais est-ce suffisant? sachant que si une recherche retourne 20 pages de résultats et que l'internaute visite ces 20 pages. Ca lui comptabiliserais 20 recherches