Afficher une page différente pour les bots comme Google ?

WRInaute impliqué
Salut,

Voilà j'ai un forum IPB, et vu que c'est assez lourd au niveau du code, j'ai décidé de virer tout ce qui n'était pas nécessaire et de faire une skin très light qui affiche les liens sous forme de h1 et h2 avec description en dessous par exemple pour la page pricipale. Cette skin est visible uniquement par les bots. En fait j'ai enlevé tout ce que je ne voulais pas faire indéxer par GG au niveau du contenu. Je ne suis pas sûr de cette méthode, si google s'apercoit que je lui affiche une version différente de la vraie, est-ce que cela aura un impact au niveau du référencement ? Parce que je veux vraiment réorganiser le contenu avec une bonne structure :)

Merci
 
WRInaute discret
Oui bon c'est juste de cloacking dissimulé mais puisque le contenu reste le même ce n'est pas spécialement grave.
Et puis de nos jours c'est tellement dur de référencé tous les tiopics d'un forum que ta méthode me semble viable et légitime.
 
WRInaute impliqué
A la limite j'ai la lofiversion que je peux faire référencer, mais j'ai pas envie que mes visiteurs tombe dessus :?

D'autres avis ? Merci WonKa ;)
 
WRInaute accro
Bonjour mowmow,

On est bien d'accord. C'est du cloacking.

Recommendation de Google aux webmasters: "Concevez vos pages pour les utilisateurs, et non pour les moteurs de recherche. Ne trompez pas les utilisateurs en affichant un contenu pour les moteurs de recherche différent de celui qui leur est présenté (technique appelée « cloaking » ou masquage)."

C'est vrai que, dans les forums, on lit ça de plus en plus souvent qu'il y aurait un bon cloacking et un mauvais cloacking. :roll: Pour moi, c'est sans fondement. Il me semble que la recommendation de Google ne laisse planer aucun doute.

Jean-Luc
 
WRInaute accro
Je vais un peu nuancer ma réponse.

Si on part de l'idée que Google cherche à lutter contre le cloacking, on peut assez facilement imaginer qu'il compare ce que voit Googlebot avec ce que voit un navigateur "normal" et qu'il y ait une certaine tolérance.

En pratique, il serait inefficace pour Google de tester le cloacking sur des milliards de pages; par contre, ça ne doit pas être compliqué à mettre en oeuvre sur les pages dénoncées dans les "spam reports".

Toute la question est de savoir quelle est la tolérance. Je suppose qu'elle ne doit pas être très grande, car, plus elle sera importante, plus il y aura d'abus et plus ça complique les tests (à mon humble avis).

Jean-Luc
 
WRInaute impliqué
En fait je me demande vraiment, parce que quand je compare ma page "light" à ma page "ipb normal", il y'a le même contenu excepté les options inutiles à GG comme login, rechercher, calendrier ... J'ai également enlevé toutes les tables et restructuré tout le forum en h1, h2
 
WRInaute discret
Je ne pense vraiment pas que ça vaille le coup de prendre des risques pareils. Tu peux par exemple très bien mettre les éléments moins importants en bas de page mais les afficher quand même en haut avec un positionnement de type absolu. Si tu vas sur Essentiel PC par exemple, tu verras en haut à droite un lien dont le code est en bas.

J'essaie de plus en plus de faire ça pour plusieurs raisons :
- ça permet au personnes naviguant avec des navigateurs "spéciaux" (lynx, pour personnes aveugles, etc) d'avoir directement accès à l'information
- ça permet de mettre en valeur le contenu pour les moteurs de recherche.

Penses-y avant de commcer à prendre des risques qui je le répète ne sont pas vraiment justifiés.
 
WRInaute impliqué
T'as déjà vu la tronche du code d'un forum IPB ? 8O C'est quasi-impossible de mettre ca en place à moins de refaire toute la structure du code :D
 
WRInaute discret
Non, effectivement :D

Mais il doit bien y avoir des parties indépendantes. Par exemple tu encadres toute la partie au dessus des messages dans un div que tu viens positionner en absolu. Après, c'est vrai que sans le code je peux difficilement dire si c'est vraiment faisable.
 
WRInaute impliqué
C'est super simple de modifier la strucuture HTML avec leur système xml dans l'admin mais c'est trop le bordel, super chaud de s'y retrouver
 
WRInaute occasionnel
Je doute fort que google, si puissant soient ils, aient trouvé un algorithme automatisé pour distinguer une page cloacké a coup sûr...

Vous me direz..il suffit de spoofer leur ip, ou l'user agent, et faire une requete et la comparer au resultat via une requete normale de google bot ?
Mais je doute qu'il soit possible de synchroniser les deux requêtes au millième de seconde près, or un site peut changer en un millième de seconde ;) (ajout d'un post dans un forum, modification de la page par le webmaster..)

La seule méthode de vérification de cloacking sûre est donc la vérification manuelle.. à partir du moment ou tu es de bonne foi, et que tu ne fais pas une page cloackée remplie de mots clefs, et une page "normale" qui n'a aucun rapport avec la page cloackée, je doute qu'on te pose des problèmes... ces mesures servent avant tout à lutter contre les webmasters qui cherchent a "tricher", pas ceux qui cherchent à rendre la tache plus facile aux moteurs en leur enlevant ce qui leur est inutile..

Par exemple si tu fais une version de ta page en DHTML avec javascript, je doute qu'on puisse te reprocher d'en faire une version plus "sobre" et simple a lire pour un moteur..

Enfin, ce n'est que mon avis;)
 
WRInaute accro
Toutou-Fr a dit:
Je doute fort que google, si puissant soient ils, aient trouvé un algorithme automatisé pour distinguer une page cloacké a coup sûr...
Je ne vois pas où est la difficulté à partir du moment où Google se concentre sur des pages suspectes (par exemple, celles dénoncées dans les spam reports).

Toutou-Fr a dit:
Mais je doute qu'il soit possible de synchroniser les deux requêtes au millième de seconde près
Ce n'est pas nécessaire, il suffit de faire faire des lectures répétées de la page à Googlebot et à un robot incognito et de faire une comparaison astucieuse des résultats.

Toutou-Fr a dit:
ces mesures servent avant tout à lutter contre les webmasters qui cherchent a "tricher", pas ceux qui cherchent à rendre la tache plus facile aux moteurs en leur enlevant ce qui leur est inutile..
Google dit "Concevez vos pages pour les utilisateurs, et non pour les moteurs de recherche. Ne trompez pas les utilisateurs en affichant un contenu pour les moteurs de recherche différent de celui qui leur est présenté (technique appelée « cloaking » ou masquage).".

Je ne vois pas comment on peut interprèter cette phrase en disant qu'elle veut dire "Concevez, « de bonne foi » , une version particulière des pages pour les moteurs de recherche."

Toutou-Fr a dit:
Enfin, ce n'est que mon avis;)
Idem, ce n'est aussi que mon avis. :wink:

Jean-Luc
 
WRInaute discret
J'ai 2 sites en 2 jours qui viennent de tomber car chopper en flagrant délit de cloacking .... pourtant je pensais mon script bon !
donc dénonciation ou utilisateur mystère ou nouvel IP.

Enfin je change quelques trucs sur les autres ;)
 

➡️ Offre MyRankingMetrics ⬅️

pré-audit SEO gratuit avec RM Tech (+ avis d'expert)
coaching offert aux clients (avec Olivier Duffez ou Fabien Faceries)

Voir les détails ici

coaching SEO
Discussions similaires
Haut