Bonjour,
j'utilise le cloaking sur user agent avec le système des permissions natif de phpbb3.
Problème: mon site est passé de 14 400 URL référencé à 500 en quelques jours.
Est ce que google prévient le webmaster quand il y a un problème de black hat seo ?
La cause en est soit un module de meta dynamique ( c'est à dire une méta différente par page ), soit un module de sitemap soit le cloaking des liens sortants, il n'y a que ça que j'ai installé récemment.
Mon cloaking consite tout simplement à cacher les contenu non pertinent ou qui peuvent être vraiment gênant.
Ainsi je cache au bots le forum de modération, celui des présentations, du forum HS, les bouton de connexion, le script addthis, le script highslide pour les images, tout ce qui pourrait nuire à l'indexation par les bots.
Un point peut être plus ennuyeux, je leur cache les liens sortants.
Est ce que ce que je fais est considéré par google comme de la tromperie ?
Concernant cloaking des liens pour les moteurs de recherches , google a t'il pu détecter cela indirectement c'est à dire en voyant que tout les liens externes avaient du jour au lendemain disparu alors qu'il ne l'aurait pas détecté si cela avait été progressif ?
Je compte faire une demande de réexamen si cela perdure la semaine prochaine mais qui a t'il derrière ce réexamen ? Est ce un bot spécialement conçu pour détecter le black hat seo ? Est ce une personne physique qui vérifie mon site ? Combien de temps cela prend il en pratique ? Certains ont il des retours ?
Google utilise t'il des bots avec user agent secret spécialement pour détecter le cloaking sur user agent ?
Est ce que passer les lien sortants en paramètre dans une url interne pointant vers un script redirigeant vers le lien sortant est considéré comme du blak hat seo ?
Merci
:wink:
j'utilise le cloaking sur user agent avec le système des permissions natif de phpbb3.
Problème: mon site est passé de 14 400 URL référencé à 500 en quelques jours.
Est ce que google prévient le webmaster quand il y a un problème de black hat seo ?
La cause en est soit un module de meta dynamique ( c'est à dire une méta différente par page ), soit un module de sitemap soit le cloaking des liens sortants, il n'y a que ça que j'ai installé récemment.
Mon cloaking consite tout simplement à cacher les contenu non pertinent ou qui peuvent être vraiment gênant.
Ainsi je cache au bots le forum de modération, celui des présentations, du forum HS, les bouton de connexion, le script addthis, le script highslide pour les images, tout ce qui pourrait nuire à l'indexation par les bots.
Un point peut être plus ennuyeux, je leur cache les liens sortants.
Est ce que ce que je fais est considéré par google comme de la tromperie ?
Concernant cloaking des liens pour les moteurs de recherches , google a t'il pu détecter cela indirectement c'est à dire en voyant que tout les liens externes avaient du jour au lendemain disparu alors qu'il ne l'aurait pas détecté si cela avait été progressif ?
Je compte faire une demande de réexamen si cela perdure la semaine prochaine mais qui a t'il derrière ce réexamen ? Est ce un bot spécialement conçu pour détecter le black hat seo ? Est ce une personne physique qui vérifie mon site ? Combien de temps cela prend il en pratique ? Certains ont il des retours ?
Google utilise t'il des bots avec user agent secret spécialement pour détecter le cloaking sur user agent ?
Est ce que passer les lien sortants en paramètre dans une url interne pointant vers un script redirigeant vers le lien sortant est considéré comme du blak hat seo ?
Merci
:wink: