Comment bloquer les voleurs de contenu ?

  • Auteur de la discussion Auteur de la discussion refweb
  • Date de début Date de début
WRInaute discret
Bonjour,

Je ne sais pas si vraiment des astuces existent, mais je pose la question, on ne sait jamais. Apparemment bloquer des pays, des ips dans htaccess, robots.txt ca sert à rien quand un mec utilise des logiciels de black hat, du coup comment se protéger ? il n'y a aucune solution ?? :?
 
WRInaute passionné
Bonjour,

Si tu connais des adresses IPs à bloquer par exemple, tu peux le faire via htaccess ou dans le code (en testant $_SERVER['REMOTE_ADDR']). Ou sur le $HTTP_USER_AGENT ... Mais encore faut-il connaitre ce qui sera utilisé par les logiciels.
 
WRInaute discret
Drew a dit:
Aucune solution.

Si tu veux bloquer un "voleur" de contenu alors bloque la totalité de son site à tout visiteur.

Et tu fais comment ????? car oui bloquer les ips ca sert à rien surtout quand c'est un pro BH.
 
WRInaute passionné
Charger en AJAX le contenu de l'article à partir du moment où l'utilisateur a commencé à scroller.
Les scripts qui chargent une page ne déclenchent pas l'événement de scroll en général.

Mais il n'y a pas de solution quand une personne vise spécifiquement une page, si la personne peut y accéder, alors elle peut la copier.
 
WRInaute accro
@rick38: même avec cette technique, c'est copiable. Comme tu dis, si on te cible c'est peine perdue.
 
WRInaute impliqué
bloquer ponctuellement des copies de pages, il n'y a pas beaucoup de solutions sauf administratives.
Par contre, bloquer des scrappeur de sites complet c'est tout à fait faisable et nécessaire.

Par contre je ne sais pas si c'est le bon forum pour en parler techniquement, ca n'a pas grand rapport avec le référencement. C'est plutôt dans le secteur : sécurité web.

Donc dans les grandes lignes : les spiders et toutes les sortes d'outils tels que des scrappeur n'ont pas du tout le même comportement que les humains. Dans les logs (même des logs de plusieurs centaines de mo par jours), c'est très facile de les repérer. Tellement repérables qu'on peut avec de très simple algorithmes les détecter pour la plupart à la volée (on parlait du javascript sur d'autres threads de ce forum, et bien aucun ne lit le javascript par exemple alors que les browsers les lisent et font les requetes demandées par le javascript....) .
Et oui, on bloque les ip, mais on bloque les ip automatiquement.

Pour résumer : si c'est un humain qui copie colle des contenus, a part une solution administratives : on ne peut rien faire
Si c'est un logiciel, en face on développe un logiciel (d'ailleurs c'est aussi plaisant des fois d'envoyer des requêtes en provenance de certains pays dans un pot de miel)
 
Discussions similaires
Haut