B
Baltyre
Guest
Bon, je suis en train de plancher sur un systeme anti-aspirateur sur mon site, mais j'ai comme contrainte d'éviter d'utiliser la bdd mysql, et si possible eviter d'employer trop de ressources.
Donc, je pensais a faire ca en plusieurs points :
- Primo, une petite protection via les user agent dans le htaccess.
- Ensuite, un petit code php dans une page ban.php :
<?
$htaccess="\nDeny from ".$_SERVER["REMOTE_ADDR"];
$fp = fopen(".htaccess","a");
if (flock($fp, LOCK_EX)) {
fputs($fp,$htaccess);
flock($fp, LOCK_UN);
}
fclose($fp);
?>
Je vais faire de l'url rewriting sur le fichier ban.php pour qu'il soit accecible sous n'importe quel nom.
Puis planquer un peu partout sur mon site des lien de 1 pixel qu'un utilisateur a de tres faibles chances de cliquer par lui meme.
Faut que je prépare un truc pour vider le fichier htaccess a intervalle régulier (un cron ?)
Faut aussi que j'adapte le code pour pas blacklister google.
- Enfin, au final, je pense trifouiller du coté des mods d'apache pour limiter l'acces a la bande passante.
Je pense qu'avec ca, je devrait pouvoir éviter la casse.
Donc, je pensais a faire ca en plusieurs points :
- Primo, une petite protection via les user agent dans le htaccess.
- Ensuite, un petit code php dans une page ban.php :
<?
$htaccess="\nDeny from ".$_SERVER["REMOTE_ADDR"];
$fp = fopen(".htaccess","a");
if (flock($fp, LOCK_EX)) {
fputs($fp,$htaccess);
flock($fp, LOCK_UN);
}
fclose($fp);
?>
Je vais faire de l'url rewriting sur le fichier ban.php pour qu'il soit accecible sous n'importe quel nom.
Puis planquer un peu partout sur mon site des lien de 1 pixel qu'un utilisateur a de tres faibles chances de cliquer par lui meme.
Faut que je prépare un truc pour vider le fichier htaccess a intervalle régulier (un cron ?)
Faut aussi que j'adapte le code pour pas blacklister google.
- Enfin, au final, je pense trifouiller du coté des mods d'apache pour limiter l'acces a la bande passante.
Je pense qu'avec ca, je devrait pouvoir éviter la casse.