Bonjour,
Donc, je suis en train de tester un pack SEO pour phpbb (qui marche très bien et qui peut être trouver ici.
Or, un des mod du pack permet de présenter un template différent aux bots. D'ou ma problématique : il faudrait que google definisse un frontière franche entre bon et mauvais cloaking.
Je m'explique :
Dans ce cas, la version proposée à google (que je n'utilise pas pour l'instant pour de pas risquer d'être blacklisté) ne contient aucun contenu ajouté, le but est juste de retirer les liens inutiles (de toute façon interdit par le robots.txt) comme ceux permettant de poster un message etc... Les deux versions ont donc exactement le même impacte au niveau d'une recherche par mot clefs, les resultats ne sont pas altérés. Il s'agit juste d'économiser un peut de bande passante (en supprimmant éventuellement une partie du contenu strictement graphique) et de faciliter le travail des bots (pas de liens inutiles).
Or comme il s'agit de changer le contenu du site en fonction de l'user agent et de l'ip, cela peut être pris pour du cloaking.
J'ai tenté de trouver quels critères pourraient différencier bon et mauvais cloaking et je n'ai rien trouvé de pertinent.
Je ne saurais même pas dire si ne retier les SID qu'aux bots ne pourrait pas mener à un blacklistage, ou si le mod de détéction auto de language que j'utilise et qui affiche toutes les infos du forum en français pour les explorateurs fr et en anglais pour les autres ne pourrait pas poser le même problème. En effet, si un utilisateur français compare une page de mon forum avec celle mise en cache par google, il vera deux versions, l'une anglaise (car ggbot ne donne pas d'info sur sa langue et est donc mis par defaut sur anglais) et l'autre française, même si les posts seront identiques.
Du coup je me dis qu'il serait peut être temps de pousser google à definir plus clairement sa politique concernant le cloaking, car il est évident que l'utilisation d'une reconnaissance d'hote n'est pas forcement là pour arnaquer les bots.
Voili
++
dcz
Donc, je suis en train de tester un pack SEO pour phpbb (qui marche très bien et qui peut être trouver ici.
Or, un des mod du pack permet de présenter un template différent aux bots. D'ou ma problématique : il faudrait que google definisse un frontière franche entre bon et mauvais cloaking.
Je m'explique :
Dans ce cas, la version proposée à google (que je n'utilise pas pour l'instant pour de pas risquer d'être blacklisté) ne contient aucun contenu ajouté, le but est juste de retirer les liens inutiles (de toute façon interdit par le robots.txt) comme ceux permettant de poster un message etc... Les deux versions ont donc exactement le même impacte au niveau d'une recherche par mot clefs, les resultats ne sont pas altérés. Il s'agit juste d'économiser un peut de bande passante (en supprimmant éventuellement une partie du contenu strictement graphique) et de faciliter le travail des bots (pas de liens inutiles).
Or comme il s'agit de changer le contenu du site en fonction de l'user agent et de l'ip, cela peut être pris pour du cloaking.
J'ai tenté de trouver quels critères pourraient différencier bon et mauvais cloaking et je n'ai rien trouvé de pertinent.
Je ne saurais même pas dire si ne retier les SID qu'aux bots ne pourrait pas mener à un blacklistage, ou si le mod de détéction auto de language que j'utilise et qui affiche toutes les infos du forum en français pour les explorateurs fr et en anglais pour les autres ne pourrait pas poser le même problème. En effet, si un utilisateur français compare une page de mon forum avec celle mise en cache par google, il vera deux versions, l'une anglaise (car ggbot ne donne pas d'info sur sa langue et est donc mis par defaut sur anglais) et l'autre française, même si les posts seront identiques.
Du coup je me dis qu'il serait peut être temps de pousser google à definir plus clairement sa politique concernant le cloaking, car il est évident que l'utilisation d'une reconnaissance d'hote n'est pas forcement là pour arnaquer les bots.
Voili
++
dcz