Petit topic qui à pour but d'éclaircir un peu les choses au sujet des risques encourrus avec le duplicate content. L'idée me viens suite à la "discussion" qu'il vient d'y avoir sur un topic sur WRI ou Hawk et Netwee affirment qu'il n'y a pas de pénalité pour duplicate content mais aussi suite à l'article publié sur Axe-net : http://blog.axe-net.fr/referencement-2010-annuaires-ceci-n-est-pas-une-penalite/
Le but du sujet n'est pas de se taper dessus ou de descendre qui que ce soit mais juste d'apporter mon point de vue et les quelques expériences que j'ai pu vivre depuis début 2008 avec le duplicate content. Je pense d'ailleurs être le premier sur WRI à avoir souffert de cette nouveauté de chez Google mis en place apparemment début 2008 ou fin 2007.
Tout d'abord, certains diront qu'il n'y a pas de pénalité. J'avoue ne pas comprendre vraiment le but de dire cela ou alors je peux très bien ne pas comprendre ce qui veut être dit au travers de ce genre de discours. Le fait est que pénalité ou non, effet algorithmique ou non, le résultat est le même, cela peut-être très risqué d'avoir du duplicate content en masse sur un site.
Risqué oui, mais que peut-on risquer concrètement ?
On peut risquer jusqu'à 95% de trafic en moins de la part de Google, j'en ai fais la douloureuse expérience et ce fût, 2008, pour moi très difficile quand ce filtre a été mis en place. Vous trouverez ci-dessous, 3 graphiques de statistiques tirés de 3 de mes annuaires sanctionnés, pénalisés ou effetisés algorithmiquement, peut importe le nom que l'on utilisera, le résultat est là et est similaire aux sanctions comme la sandbox :
Voilà, quoi qu'il en soit, sachez qu'il apparaitrait qu'à partir d'une certaine quantité de duplicate content dans vos pages cela peut vous arriver à tout moment. Cependant et j'insiste là dessus, cela n'est pas une obligation, on voit d'ailleurs des sites qui publient du duplicate à foison et qui s'en sortent très bien comme Yagoort, Compare le net ou encore Chine informations pour ne citer qu'eux. Mais bon, j'ai eu tendance à remarquer que ceux qui échappaient à cela étaient quand même des mastodontes dans leur domaine. En tout cas, dans le domaine des annuaires et je ne m'en cache pas, en 2008, je n'ai pas un seul de mes annuaires qui n'y a pas eu le droit.
Alors pénalité ou non, peut importe, inutile de jouer sur les mots pour vous dire que le résultat est très dur à supporter quand on a travaillé sur un projet qui a eu droit à cela ! Et s'il vous plait, ne dites plus à tord qu'un site ne peut pas se ramasser la g**** et disparaitre des serp, vous avez la preuve que c'est faux.
Merci de m'avoir lu
Le but du sujet n'est pas de se taper dessus ou de descendre qui que ce soit mais juste d'apporter mon point de vue et les quelques expériences que j'ai pu vivre depuis début 2008 avec le duplicate content. Je pense d'ailleurs être le premier sur WRI à avoir souffert de cette nouveauté de chez Google mis en place apparemment début 2008 ou fin 2007.
Tout d'abord, certains diront qu'il n'y a pas de pénalité. J'avoue ne pas comprendre vraiment le but de dire cela ou alors je peux très bien ne pas comprendre ce qui veut être dit au travers de ce genre de discours. Le fait est que pénalité ou non, effet algorithmique ou non, le résultat est le même, cela peut-être très risqué d'avoir du duplicate content en masse sur un site.
Risqué oui, mais que peut-on risquer concrètement ?
On peut risquer jusqu'à 95% de trafic en moins de la part de Google, j'en ai fais la douloureuse expérience et ce fût, 2008, pour moi très difficile quand ce filtre a été mis en place. Vous trouverez ci-dessous, 3 graphiques de statistiques tirés de 3 de mes annuaires sanctionnés, pénalisés ou effetisés algorithmiquement, peut importe le nom que l'on utilisera, le résultat est là et est similaire aux sanctions comme la sandbox :
Voilà, quoi qu'il en soit, sachez qu'il apparaitrait qu'à partir d'une certaine quantité de duplicate content dans vos pages cela peut vous arriver à tout moment. Cependant et j'insiste là dessus, cela n'est pas une obligation, on voit d'ailleurs des sites qui publient du duplicate à foison et qui s'en sortent très bien comme Yagoort, Compare le net ou encore Chine informations pour ne citer qu'eux. Mais bon, j'ai eu tendance à remarquer que ceux qui échappaient à cela étaient quand même des mastodontes dans leur domaine. En tout cas, dans le domaine des annuaires et je ne m'en cache pas, en 2008, je n'ai pas un seul de mes annuaires qui n'y a pas eu le droit.
Alors pénalité ou non, peut importe, inutile de jouer sur les mots pour vous dire que le résultat est très dur à supporter quand on a travaillé sur un projet qui a eu droit à cela ! Et s'il vous plait, ne dites plus à tord qu'un site ne peut pas se ramasser la g**** et disparaitre des serp, vous avez la preuve que c'est faux.
Merci de m'avoir lu