Le duplicate content peut couter très cher

WRInaute accro
Petit topic qui à pour but d'éclaircir un peu les choses au sujet des risques encourrus avec le duplicate content. L'idée me viens suite à la "discussion" qu'il vient d'y avoir sur un topic sur WRI ou Hawk et Netwee affirment qu'il n'y a pas de pénalité pour duplicate content mais aussi suite à l'article publié sur Axe-net : http://blog.axe-net.fr/referencement-2010-annuaires-ceci-n-est-pas-une-penalite/

Le but du sujet n'est pas de se taper dessus ou de descendre qui que ce soit mais juste d'apporter mon point de vue et les quelques expériences que j'ai pu vivre depuis début 2008 avec le duplicate content. Je pense d'ailleurs être le premier sur WRI à avoir souffert de cette nouveauté de chez Google mis en place apparemment début 2008 ou fin 2007.

Tout d'abord, certains diront qu'il n'y a pas de pénalité. J'avoue ne pas comprendre vraiment le but de dire cela ou alors je peux très bien ne pas comprendre ce qui veut être dit au travers de ce genre de discours. Le fait est que pénalité ou non, effet algorithmique ou non, le résultat est le même, cela peut-être très risqué d'avoir du duplicate content en masse sur un site.

Risqué oui, mais que peut-on risquer concrètement ?

On peut risquer jusqu'à 95% de trafic en moins de la part de Google, j'en ai fais la douloureuse expérience et ce fût, 2008, pour moi très difficile quand ce filtre a été mis en place. Vous trouverez ci-dessous, 3 graphiques de statistiques tirés de 3 de mes annuaires sanctionnés, pénalisés ou effetisés algorithmiquement, peut importe le nom que l'on utilisera, le résultat est là et est similaire aux sanctions comme la sandbox :

depannage.jpg

blogs.jpg

annuairesorties.jpg


Voilà, quoi qu'il en soit, sachez qu'il apparaitrait qu'à partir d'une certaine quantité de duplicate content dans vos pages cela peut vous arriver à tout moment. Cependant et j'insiste là dessus, cela n'est pas une obligation, on voit d'ailleurs des sites qui publient du duplicate à foison et qui s'en sortent très bien comme Yagoort, Compare le net ou encore Chine informations pour ne citer qu'eux. Mais bon, j'ai eu tendance à remarquer que ceux qui échappaient à cela étaient quand même des mastodontes dans leur domaine. En tout cas, dans le domaine des annuaires et je ne m'en cache pas, en 2008, je n'ai pas un seul de mes annuaires qui n'y a pas eu le droit.

Alors pénalité ou non, peut importe, inutile de jouer sur les mots pour vous dire que le résultat est très dur à supporter quand on a travaillé sur un projet qui a eu droit à cela ! Et s'il vous plait, ne dites plus à tord qu'un site ne peut pas se ramasser la g**** et disparaitre des serp, vous avez la preuve que c'est faux.

Merci de m'avoir lu :)
 
WRInaute accro
L.Jee a dit:
Voilà, quoi qu'il en soit, sachez qu'il apparaitrait qu'à partir d'une certaine quantité de duplicate content dans vos pages cela peut vous arriver à tout moment. Cependant et j'insiste là dessus, cela n'est pas une obligation, on voit d'ailleurs des sites qui publient du duplicate à foison et qui s'en sortent très bien comme Yagoort, Compare le net ou encore Chine informations pour ne citer qu'eux. Mais bon, j'ai eu tendance à remarquer que ceux qui échappaient à cela étaient quand même des mastodontes dans leur domaine.
Non Môsieur, :mrgreen: :mrgreen: je ne suis pas gros, juste un peu enveloppé :mrgreen: :mrgreen: :mrgreen:
 
WRInaute accro
t'inquiètes, j'ai bien dans l'idée que tu finisses par venir me retrouver dans les bas fond de Google. Tu rigoleras moins :lol:

Edit : Et tu ne me trouveras pas, j'ai supprimé la plupart du duplicate sur ses annuaires et ils sont repartis. Preuve en est que c'était bien cela le soucis d'ailleurs. Je n'avais pas précisé dans le message :)
 
WRInaute accro
Les gros chats c'est les meilleurs, c'est ceux qui limitent le plus la consommation de chauffage en hiver, en étant de vrai couvertures chauffantes.

Blague à part, avec des schémas et présenté comme un retour d'expérience, ca risque d'en faire réfléchir certain sur les moyens à mettre en œuvre pour lancer un annuaire efficace par les temps qui courent.
 
WRInaute impliqué
En effet les chiffres parlent d'eux même !
Pour ma part depuis le lancement de Trend j'applique le principe de précaution et éxige une description unique . Pour l'instant ca ne lui réussit pas trop mal :wink: mais on fera le point dans quelques mois.
 
WRInaute accro
Je crois que le constat de j.lee impose une conclusion : Le DC en soit n'est pas rédhibitoire s'il ne concerne d'une partie du contenu. Il le devient lorsque que cela concerne l'essentiel du contenu (ce qui ets le cas des annuaires naissants). Et donc plus l'annuaire est jeune, plus il faut effectivement être vigilant alors qu'une fois de la bouteille acquise, on y devient moins sensible voire plus du tout.

Et par définition un vieil annuaire bien ridé a plein de contenu qui est peut etre en DC ... mais en DC chez les autres arrivés plus tard et moins forts ... Qui a dit "c'est vraiment tro p'inzuste" :mrgreen:
 
WRInaute accro
Même si t'arrives après, Google n'a pas encore un filtre fiable. Je constate aisément que j'arrive a être le premier à avoir le contenu avec Costaud et être indexé en premier. Le site se fait prendre par le script, je revérifie et ô miracle Yagoort ou compare le net ont obtenu la paternité entre temps... Après, il est vrai que plus tu es gros, plus les référenceurs commenceront par toi et de ce fait, t'as plus de chance d'être en tête (ça c'est bien quand Google prend la paternité par rapport au premier indexé). Mais bon toi, être le premier ça doit pas t'arriver souvent avec la liste d'attente à rallonge (Joke, quoi que...) :lol:
 
WRInaute passionné
L.Jee a dit:
t'inquiètes, j'ai bien dans l'idée que tu finisses par venir me retrouver dans les bas fond de Google. Tu rigoleras moins :lol:

Edit : Et tu ne me trouveras pas, j'ai supprimé la plupart du duplicate sur ses annuaires et ils sont repartis. Preuve en est que c'était bien cela le soucis d'ailleurs. Je n'avais pas précisé dans le message :)

ce serait intéressant que tu publie les graphiques en entier (à savoir avec la remontée d'après le nettoyage :-))
 
WRInaute accro
L.Jee a dit:
Même si t'arrives après, Google n'a pas encore un filtre fiable. Je constate aisément que j'arrive a être le premier à avoir le contenu avec Costaud et être indexé en premier. Le site se fait prendre par le script, je revérifie et ô miracle Yagoort ou compare le net ont obtenu la paternité entre temps... Après, il est vrai que plus tu es gros, plus les référenceurs commenceront par toi et de ce fait, t'as plus de chance d'être en tête (ça c'est bien quand Google prend la paternité par rapport au premier indexé). Mais bon toi, être le premier ça doit pas t'arriver souvent avec la liste d'attente à rallonge (Joke, quoi que...) :lol:
ca me garantit du taf pour les longues soirées d'hiver. J'ai un stock en réserve. Et puis certains qui ont du bol sont validés en 40 secondes ... d'autre c'est plus long. Et le gars qui a 100 sites inscrits et la moitié validée, ben pour l'autre moitié, il patiente et de temps a autre hop one more ... Faut faire avec ... ou pas :wink:
 
WRInaute impliqué
Petite question (je n'arrive pas à lire correctement les dates sur le graphique) :

Toutes les baisses sont intervenues en même temps ?

Idem pour les retours à la hausse ?

Merci beaucoup pour ce témoignage "illustré" en tout cas :)
 
WRInaute passionné
Je suis en train de faire le même test sur un nouveau site. J'ai déjà vu des petits sites s'en sortir même en full DC, on verra.
 
WRInaute accro
nza2k : Non, tous ne sont pas tombés en même temps. Cela a été étalé entre Mars et Juillet. Ils sont remontés, non pas tous en même temps, quand j'ai eu le temps de les nettoyer. Réecrire plus de 10 000 fiches, ce n'est pas quelque chose de simple et rapide :)
 
WRInaute accro
Par contre L.Jee , as-tu remarqué que cette baisse était accompagnée de dés-indexation de ses pages pour DC?

Ou uniquement perdues leurs places dans les serps?
 
WRInaute passionné
ce qui me semble le plus probable avec ce filtre c'est qu'un texte en duplicate diminue le PR ou le "jus" des pages qui le contiennent. Trop de pages en duplicate fait qu'une partie du jus transféré par les liens internes du site est perdu comme dans un tuyau percé.
Plus GG trouve de duplicate sur des pages qui ne sont pas pour lui "majeurs" et plus le site perd de poids. Ce qui fait qu'il y a plus de chance que d'autres pages soient détectés comme moins importantes et sanctionnables à leur tour pour DC. Donc plus il y a de DC et plus le texte est redondant sur les différentes pages du site et plus la dégringolade est rapide.
 
WRInaute passionné
Il y a certainement des seuils qui déclenchent un déclassement complet du site et pas seulement de certaines pages.
 
WRInaute accro
C'est ce que je dis dans mon premier message. Après ce seuil doit être proportionnel à la pertinence ou puissance du site pour Google ;)
 
WRInaute passionné
Axe Net a raison, ce n'est pas une pénalité, mais un filtre.

Un filtre n'a pas d'oeil et pas d'âme. Le motif du filtre est la pertinence ou non-pertinence, c'est une valorisation/dévalorisation automatique, forte ou légère.

Le motif de la pénalité est le spam, une cible délimitée et est à priori déclenchée manuellement. Elle peut être totale (tout le site) ou partielle (une page ou un critère de ton référencement).
 
WRInaute passionné
MagicYoyo a dit:
Axe Net a raison, ce n'est pas une pénalité, mais un filtre.

Un filtre n'a pas d'oeil et pas d'âme. Le motif du filtre est la pertinence ou non-pertinence, c'est une valorisation/dévalorisation automatique, forte ou légère.

Le motif de la pénalité est le spam, une cible délimitée et est à priori déclenchée manuellement. Elle peut être totale (tout le site) ou partielle (une page ou un critère de ton référencement).

source stp
 
Olivier Duffez (admin)
Membre du personnel
qui peut dire avec certitude si c'est un humain ou l'algo qui a sanctionné le site ? personne en dehors de chez Google...
 
WRInaute passionné
Quelle énergie dépensée inutilement :mrgreen: On appelle ça comme on veut, mais "oui", il y a bien pénalité-sanction-bonet d'âne-filtre pour DC. Combien d'annuaires on t'ils subis ça ? Alors oui, c'est un changement dans l'algorithme qui en est la cause.

Grossièrement : ce que je pense, c'est que lorsque que "domaine.com" et "***.domaine.com" réunis possèdes plus de 10% de duplicate. Plop ! On passe sous le seuil "site non pertinent pour l'internaute car une grande partie de contenu dupliqué ailleurs (là où il y a un plus grand % d''unique, donc meilleure source)".

Si quelqu'un arrive à me prouver le contraire, c'est DC pour tout le monde sur Waaaouh :-D Mais il va falloir y aller avec la quantité d'annuaire que j'ai eux, que j'ai vu, subir cette pénalité.
 
WRInaute passionné
1-sponsor a dit:
Quelle énergie dépensée inutilement :mrgreen:
Comprendre le fonctionnement des moteurs ne m'a jamais semblé inutile pour un référenceur... surtout s'il viens sur un forum de référencement. :lol:



Sources ?
- 11 ans d'expérience et de veille (merde, chuis vieux)
- Les déclarations de Matt Cutts et de l'équipe "Qualité" de Google à propos du duplicate content et des annuaires. S'ils ont pas dit 10 fois en anglais et en français que, le duplicate est un filtre, et qu'il n'y a pas de filtre ou pénalité spécifique à un type de site... :!:
- le guide des Quality Rater de Google
- et certainement d'autres que j'oublies
 
WRInaute passionné
1-sponsor a dit:
Quelle énergie dépensée inutilement :mrgreen:

Je dis ça parce que le sujet a déjà été traité pleins de fois entre 2 posts ici et là. Mais c'est vrai que créer une thread pour clore la discussion une bonne fois est une bonne idée. :)
 
WRInaute discret
MagicYoyo a dit:
1-sponsor a dit:
Quelle énergie dépensée inutilement :mrgreen:
Comprendre le fonctionnement des moteurs ne m'a jamais semblé inutile pour un référenceur... surtout s'il viens sur un forum de référencement. :lol:



Sources ?
- 11 ans d'expérience et de veille (merde, chuis vieux)
- Les déclarations de Matt Cutts et de l'équipe "Qualité" de Google à propos du duplicate content et des annuaires. S'ils ont pas dit 10 fois en anglais et en français que, le duplicate est un filtre, et qu'il n'y a pas de filtre ou pénalité spécifique à un type de site... :!:
- le guide des Quality Rater de Google
- et certainement d'autres que j'oublies

:)

si quelqu'un doute encore ...

:)
 
WRInaute accro
MagicYoyo a dit:
- Les déclarations de Matt Cutts et de l'équipe "Qualité" de Google à propos du duplicate content et des annuaires. S'ils ont pas dit 10 fois en anglais et en français que, le duplicate est un filtre, et qu'il n'y a pas de filtre ou pénalité spécifique à un type de site... :!:
Ouais alors là Yoyo, la com de Google, tu sais très bien ce qu'il faut en penser. C'est pas à toi que je vais apprendre cela. A la base, ils disaient carrément que rien n'était filtré etc. Tout comme ils nous apprennent en 2009 que la meta Keywords n'est plus utilisé, Wahou le scoop !

Si je devais faire confiance à quelqu'un la dedans, ce n'est surement pas à Google que je l'a donnerai. Leur but c'est pas de t'aider à comprendre l'algo, au contraire.

Bref, que cela s'appelle ou non une pénalité, on s'en contrefiche à la limite, le résultat est là. Il est d'ailleurs identique à une pénalité. Donc le nom de ce résultat nous importe peu !
 
WRInaute passionné
Par contre, ce que je retient de l'article d'Hawk, c'est que Google ne s'en prend pas "aux annuaires" parce qu'ils sont des annuaires, mais que c'est juste l'algorithme qui fait ça et que ça peut arriver à n'importe quel site. Comme L.Jee le disait, site de communiqués, agrégateurs, boutique/catalogue en ligne avec description produits dupliquées et autres marques blanches. Et donc qu'il suffit à l'annuaire d'être originale pour survivire ;-)
 
WRInaute accro
Et est-ce que le duplicate ne pourrait pas provenir en interne : du genre je laisse les webmasters écrire le contenu qu'ils veulent sur leur fiche et je me retrouve donc avec 20 fiches présentant des locations de voiture à Marrakech, avec le même contenu, car c'est le même webmaster qui gère les 20 sites ? sans compter qu'en voulant optimiser ses liens internes, si on a du contenu interne dupliqué, surtout les titres "locations de voiture à Marrakech" qui vont se trouver 20 fois sur l'annuaire et des fois même 10 fois sur la page réservée aux locations de voitures en afrique du nord ? :mrgreen:
 
WRInaute passionné
L.Jee a dit:
Bref, que cela s'appelle ou non une pénalité, on s'en contrefiche à la limite, le résultat est là. Il est d'ailleurs identique à une pénalité. Donc le nom de ce résultat nous importe peu !

Tes tests sont très parlants et je ne les remets absolument pas en doute. J'essaie d'apporter un peu de clarté aux mécanisme. ;)
 
WRInaute accro
Ce ne sont pas des tests... C'est la réalité, c'est une partie de mon CA que tu vois là... Merci pour ta clarté, je ne remettais pas en cause tout cela, mais se baser sur la com Google et dire 11 ans d'expérience me paraissait être quelque peu contradictoire ;)
 
WRInaute accro
Leonick a dit:
Et est-ce que le duplicate ne pourrait pas provenir en interne : du genre je laisse les webmasters écrire le contenu qu'ils veulent sur leur fiche et je me retrouve donc avec 20 fiches présentant des locations de voiture à Marrakech, avec le même contenu, car c'est le même webmaster qui gère les 20 sites ? sans compter qu'en voulant optimiser ses liens internes, si on a du contenu interne dupliqué, surtout les titres "locations de voiture à Marrakech" qui vont se trouver 20 fois sur l'annuaire et des fois même 10 fois sur la page réservée aux locations de voitures en afrique du nord ? :mrgreen:
Et donc en réecrivant les descriptions on en serait toujours au même point. Donc non rien à voir ta théorie cette fois ci. Mais tu finiras par la placer au bon moment, j'en suis sur. Tu y crois fort en tout cas a ton duplicate interne ;)
 
WRInaute accro
L.Jee a dit:
Tu y crois fort en tout cas a ton duplicate interne ;)
tiens, pour rester dans la recherche que je donnais :
-http://www.costaud.net/Regional/Afrique/Maroc/Location-de-voitures/12329-Location-de-voiture-a-Marrakech-For-travel.htm et
-http://www.costaud.net/Regional/Afrique/Maroc/Location-de-voitures/12975-Location-de-voitures-a-Marrakech.htm il n'y a pas de duplicate pur au niveau du contenu, soit, mais 100% duplicate au niveau du ndd 8)
surtout qu'en regardant les miniatures, on le voit bien -http://www.costaud.net/Regional/Afrique/Maroc/Location-de-voitures/352.html
 
WRInaute accro
Leonick a dit:
L.Jee a dit:
Tu y crois fort en tout cas a ton duplicate interne ;)
tiens, pour rester dans la recherche que je donnais :
-http://www.costaud.net/Regional/Afrique/Maroc/Location-de-voitures/12329-Location-de-voiture-a-Marrakech-For-travel.htm et
-http://www.costaud.net/Regional/Afrique/Maroc/Location-de-voitures/12975-Location-de-voitures-a-Marrakech.htm il n'y a pas de duplicate pur au niveau du contenu, soit, mais 100% duplicate au niveau du ndd 8)
surtout qu'en regardant les miniatures, on le voit bien -http://www.costaud.net/Regional/Afrique/Maroc/Location-de-voitures/352.html
Bien vu, c'est sympa de faire mon boulot. Si t'en as d'autres, je suis preneur. Normalement, chaque mois je check les url inscrite pour virer les sites HS et les doublons. Je ne l'ai pas fais depuis quelque temps et voilà le résultats !

Merci leonick :)
 
WRInaute accro
en fait, comme ce type de site se retrouvent fortement dans les soumissions d'annuaires, j'ai juste fait cette recherche -https://www.google.fr/search?q=location+voiture+marrakech+site%3Acostaud.net%2F après, je pense que tu peux faire pareil pour d'autres thématiques habituellement fournies en nombre, par les mêmes webmasters. :wink:
 
WRInaute discret
Loi je viens de me rendre compte que quelqu'un a recopier tout mon contenu... depuis au moins 6 mois.

C'est du duplicate, et mon site chute en visite...
 
WRInaute occasionnel
L.Jee a dit:
Sachez qu'il apparaitrait qu'à partir d'une certaine quantité de duplicate content dans vos pages = pénalités sauf pour les mastodontes.

+ 1, j'adhère totalement à ce résumé très pertinent de L.Jee concernant le duplicate.

Ce post de L.Jee est amplement recommandable et c'est le seul qui décrit dans le détail le problème du duplicate avec des preuves. Après de multiples essais, je le rejoins les yeux fermés dans ses conclusions. Je me risquerai bien même d'associer les sanctions "minus" au duplicate. En effet, je fais des essais depuis 1 mois là dessus en envoyant une quantité confortable de contenus originaux sur un site pénalisé de la même manière que les sites de L. Jee (courbes identiques de tes img). Résultats dans quelques temps. Des sites sanctionnés de type minus s'en sont sortis grâce aux contenus originaux selon certains forums US.

A partir de certaine "dose" de duplicate, descente dans les serps et perte de confiance évidente de GG envers le site.

Merci L.Jee pour ces excellentes constatations :wink:
 
WRInaute accro
L.Jee a dit:
MagicYoyo a dit:
- Les déclarations de Matt Cutts et de l'équipe "Qualité" de Google à propos du duplicate content et des annuaires. S'ils ont pas dit 10 fois en anglais et en français que, le duplicate est un filtre, et qu'il n'y a pas de filtre ou pénalité spécifique à un type de site... :!:
Ouais alors là Yoyo, la com de Google, tu sais très bien ce qu'il faut en penser. C'est pas à toi que je vais apprendre cela. A la base, ils disaient carrément que rien n'était filtré etc. Tout comme ils nous apprennent en 2009 que la meta Keywords n'est plus utilisé, Wahou le scoop !

Si je devais faire confiance à quelqu'un la dedans, ce n'est surement pas à Google que je l'a donnerai. Leur but c'est pas de t'aider à comprendre l'algo, au contraire.

Bref, que cela s'appelle ou non une pénalité, on s'en contrefiche à la limite, le résultat est là. Il est d'ailleurs identique à une pénalité. Donc le nom de ce résultat nous importe peu !

La comm de Google ne se lit pas "en clair": elle s'interprète.
Les éléments dont il est question ici (entre autres le duplicate content, mais ce n'est pas le seul) sont évoqués dans le "petit monde merveilleux du SEO" depuis 2005 (oui, 5 ans...), mais il n'a pas été écrit en gros sur la home du sacro-saint moteur de recherche "attention, référenceurs: la duplication de contenu peut vous nuire".

Comme le souligne Lionel, une petite lecture attentive du guide à l'attention des Quality Raters peut s'avérer profitable ;)

PS: Oui, je joue sur les mots quand je dis qu'il n'y a pas de pénalité, mais c'est parce que je trouve trop facile de dire "Google m'a pénalisé". Celui qui est à l'origine de la "pénalité", c'est l'administrateur du contenu du site.
 
WRInaute passionné
Si on présente les conclusions dans un autre sens, celui du référenceur, il faut retenir que :
- ce ne sont pas les sites qui sont touchés, mais les pages individuellement
- il n'y a pas d'annuaire "pénalisé" pour duplicate content et donc à éviter. Tant qu'on envoie un contenu suffisamment original, ça passe.
 
WRInaute accro
MagicYoyo a dit:
Si on présente les conclusions dans un autre sens, celui du référenceur, il faut retenir que :
- ce ne sont pas les sites qui sont touchés, mais les pages individuellement
- il n'y a pas d'annuaire "pénalisé" pour duplicate content et donc à éviter. Tant qu'on envoie un contenu suffisamment original, ça passe.
Un peu 'carré' même si tout n'est pas faux.
Ce sont effectivements les pages individuellement mais .... un fois un trop forte proportion c'est tout le site qui plonge. Et là, on retrouve le deuxième point: Pour passer sur les paes individuelles, le moteur passe par les catéories avec un paquet de duplicate et oublie la page (et sans liens connus de Google, les pages suivantes aussi). Donc page avec le lien inconnue :roll:
Annuaires pénalisés (techniquement), non. Paes de catégories oubliées oui (et ensuite les fiches, même si j'aime pas trop cette structure).
Je vais pas reprendre des posts pour expliquer pourquoi mette des descriptions originales, ni le coté des annuairistes. Pourtant, deux spécialistes sont passés sur ce post: L'Jee qui a mis ce post et Hawkeyes qui a larement modifié ses conditions d'inscriptions: ca donne pas une petite idée? Les annuairistes créent des vistes pour avoir du contenu bn marché :oops: mais les vrais annuairistes pour avoir des visiteurs ET envoyer quelques visiteurs. (c'est aussi dans l'idée de Goole: un lien suivi semble intéressant pour le visiteur donc pour Google)
Dans des techniqques spéciales entre sites, j'ai déjà montré les dégats de liens pour mettre des liens. Pour les annuaires, ca semble un peu plus spécial, rien ne prouve qu'un lien d'un annuaire complètement cassé pas Gole déclasse le site qui recoit le lien (je dirais même qu'il ne le déclasse pas du tout tant que c'est pas 3000 liens sur des soumissions automatiques à 10 € les 1000 liens). Par contre, ces pages "inconnues de Google" pour cause de catéggorie supérieure en duplicate n'apportent rien (c'est la peine de les mettre?).

Suis un peu en vacance sur WRI ces quelques semaines (voire mois) ... le temps de me mettre à jour dans mon réel métier (mais si il y a une vie sans se connecter toutes les 10 minutes sur WRI :mrgreen: ). Sans liens externes, un site monte pas (et même descend tout doucement sur chaque requêtes en fonction du passage des robots (en gros il FAUT des liens externes vers le site) ). Par contre, la technique tout annuaire est finie. Au tant en choisir quelques uns qui ne sont pas cassés et travailler son contenu et sa techniques de liens internes . Mais pour les liens d'annuaires, ca demande un gros travail du Webmaster: Un annuaire tenu à jour et suivi ou des dizaines d'autres. C'est l'expérience
 
WRInaute impliqué
Salut L.Jee, pour te renseigner, puisque tu parles de mon site ;) A part l'actualité, il n'y a pas de duplicate content. Et concernant l'actualité par contre je ne sais pas comment Google gère ca car je passe par une Agence de Presse pour laquelle les articles sont utilisés dans de nombreux sites. C'set comme pour les articles AFP ou AP d'ailleurs : il y a des milliers de sites qui utilisent leurs articles... alors comment Google gère-t-il ca... mystère !
 
Nouveau WRInaute
Après avoir lu cet article avec grand intérêt, je me suis dis que certains de mes jeunes sites étaient victimes d'une sanction pour trop de duplicate content... Du coup j'ai revu toutes mes pages et quelques jours plus tard... miracle Dieu m'avait accordé sa grâce...

sanctionduplicate.jpg


pourvu que ça dure...

Pour infos, j'ai eu le même résultats avec un autre site pour qui la "sanction" durait depuis 4 mois...

Merci WRI et L.Jee pour ton étude
 
WRInaute discret
Je pense que la pénalité pour duplicate content ne s'applique qu'en dessous d'un certain nombre de visites. En clair si vous avez un site à très haut trafic, il n'y aura pas de pénalité...Reste à savoir ce seuil...
Ou peut être que la pénalité se fait plus ou moins de facon automatique en dessous de ce seuil et que au delà il y a intervention humaine.
Ce qui est certain, et comme le dit Matt Cuts, google filtre les sites à contenu identique, c'est un FAIT certain!
Puis de toutes facons comme il dit :"The truth is that Google does a lot more sophisticated stuff than most people realize"
 
Nouveau WRInaute
non ce n'est pas la sandbox, pour un des sites je n'ai fait aucun linking dessus, pas de référencement particulier et il a pris la sanction duplicate...

J'ai eu cette sanction pour des sites avec 1500 visiteurs/jour ou 200/jour... après la sanction est arrivée plus ou moins longtemps après le lancement du site.
 
WRInaute accro
La sanction pour ma part a touché des sites allant de 1000 à 10kvu/j et on en a vu tomber qui fait plus de 100kvu/j il me semble !
 
WRInaute passionné
Je pense que c'est le linking qui fait la différence et non le nombre de vue.
J'ai déjà vu des blogs bâtis que sur du DC qui passent devant la source sans problème juste parce qu'ils ont un linking de malade.
 
WRInaute discret
Oui c'est vrai c'est peut être le netlinking aussi, ou peut être les deux...
Je suppose qu'un site qui a ses pages dupliquées ailleurs mais qui possèdent un plus grand nombre de liens ne sera pas celui qui est filtré...
 
WRInaute accro
www.maroc-index.com a dit:
Oui c'est vrai c'est peut être le netlinking aussi, ou peut être les deux...
Je suppose qu'un site qui a ses pages dupliquées ailleurs mais qui possèdent un plus grand nombre de liens ne sera pas celui qui est filtré...
Tu suppose mal :roll: L'exemple de L'Jee avec un tout nouvel annuaire qui en casse un ancien devrait te le confirmer.
 
WRInaute discret
ybet a dit:
www.maroc-index.com a dit:
Oui c'est vrai c'est peut être le netlinking aussi, ou peut être les deux...
Je suppose qu'un site qui a ses pages dupliquées ailleurs mais qui possèdent un plus grand nombre de liens ne sera pas celui qui est filtré...
Tu suppose mal :roll: L'exemple de L'Jee avec un tout nouvel annuaire qui en casse un ancien devrait te le confirmer.

Je ne parle pas de nouveau ou d'ancien, qui est surement un autre critère qui de toute évidence n'est pas pris en compte, je parle de celui qui a plus ou moins de backlink sur les pages concernées! :roll:
 
WRInaute passionné
Ybet avait bien compris, en disant "nouveau", il sous entendait bien "qui n'a pas beaucoup de backlinks"`

(enfin, je suppose) :-)
 
WRInaute discret
1-sponsor a dit:
Ybet avait bien compris, en disant "nouveau", il sous entendait bien "qui n'a pas beaucoup de backlinks"`

(enfin, je suppose) :-)

Oufti! Si c'est le cas, M. google vous deconnez, il n'y a aucune logique! Ou alors encore d'autres critères? Je suppose :)
 
WRInaute accro
www.maroc-index.com a dit:
1-sponsor a dit:
Ybet avait bien compris, en disant "nouveau", il sous entendait bien "qui n'a pas beaucoup de backlinks"`

(enfin, je suppose) :-)

Oufti! Si c'est le cas, M. google vous deconnez, il n'y a aucune logique! Ou alors encore d'autres critères? Je suppose :)


Et en plus, les liens sont plutôt nouveaux. Je connais quelques sites américains "de partage" qui peuvent casser sans problèmes des sites (plutôt des groupes de pages) moyens (on parle de plus de 1000 visiteurs par jours quand même) et aussi des nouveaux sites capables de casser des vieux sites sans rien comprendre. Le seul critère véritable est la confiance de GG dans le site (bonne ou mauvaise d'aillieurs) et une espèce de prime de nouveauté parfois (mais là c'est complètement aléatoire sans rréellement comprendre pourquoi), .... En plus ca fluctue très fort. La page peut passer très bien 1 mois, complètement invisible quelques jours et revenir (ou non). Mais là c'est assez aléatoire et sans logique. C'est pas le post de départ de L'Jee: aucune logique?
 
WRInaute discret
Salut,

Le duplicate content des annuaires entre eux à également un poids certains sur les sites qui y sont référencés.

Personnellement je ne suis pas webmaster d'annuaire, mais j'ai subi un déclassement de type Minus.

Je n'ai pas encore réussi à supprimer le filtre, mais je pense que des annuaires qui référencent les mêmes sites, qui sont liés entre eux (annuaires entre eux et sites entre eux). Cela peut avoir de très très mauvaises répercussions...Déclassement des annuaires et des sites.

Je pense que le filtre (en tout cas dans mon cas) ne correspondrait pas seulement au DC, mais a une combinaison DC + Partenariats.

Le flux rss d'un de mes sites a été largement publié, un peu trop je pense, cela pourrait aussi être la cause.

J'avais par contre une question pour Ybet:
Quand tu parles des pages des catégories qui dupliquent et que du coup Google ne voit pas les pages individuelles, je ne suis pas sur de comprendre.
J'ai un site qui fonctionne sur Wordpress.
Disons que j'ai une catégorie monsite.com/categorie1/ puis les pages supplémentaires monsite.com/categorie1/2 ; monsite.com/categorie1/3 ; monsite.com/categorie1/4
Ces pages dupliquent entre elles je suis d'accord, du coup les pages supplémentaires sont en Noindex, follow...
J'ai un sitemap.xml, donc google a accès a toutes les pages, mais c'est vrai que beaucoup d'articles ne sont accessibles qu'a partir de pages qui ne sont pas indexées... En expliquant je me rends compte qu'il faut absolument que je trouve une solution à ca...non?
 
WRInaute accro
:O

Mais t'es fou de les avoir mise en NO INDEX !

Une page non linkée tu m'étonnes qu'elle ne te ramène pas de trafic. Ybet voulait entendre la dedans qu'une page peut-être ignorée si le contenu dans celle-ci n'est pas assez "fort" par rapport à celui dupliqué dans la catégorie (chapeau ou introduction).

Bref, modifie vite tes no index ou créé des liens internes via des pages fixes et liées dans le menu ou en footer par exemple. Ca peut-être une solution pour toi actuellement :)
 
WRInaute discret
En fait j'ai de très bon résultats comme cela avec d'autres sites. Tout mon site est filtré même les pages liées à partir du menu. Les pages sont en Noindex, mais Follow, donc Google les parcourent et arrivent jusqu'aux pages, mais c'est vrai que cela n'est pas top pour la diffusion du pagerank.

Je pense faire plusieurs plans de sites, un par catégorie, cela devrait permettre aux moteurs d'accéder aux vieux articles plus facilement
 
WRInaute accro
Firewave a dit:
Je suis en train de faire le même test sur un nouveau site. J'ai déjà vu des petits sites s'en sortir même en full DC, on verra.
Je repassais sur ce topic et je constate que tu étais en plein test, je n'ai jamais vu de retour sur celui-ci. Qu'est-il donc devenu ?

philyd a dit:
L.Jee a dit:
Sachez qu'il apparaitrait qu'à partir d'une certaine quantité de duplicate content dans vos pages = pénalités sauf pour les mastodontes.

+ 1, j'adhère totalement à ce résumé très pertinent de L.Jee concernant le duplicate.

Ce post de L.Jee est amplement recommandable et c'est le seul qui décrit dans le détail le problème du duplicate avec des preuves. Après de multiples essais, je le rejoins les yeux fermés dans ses conclusions. Je me risquerai bien même d'associer les sanctions "minus" au duplicate. En effet, je fais des essais depuis 1 mois là dessus en envoyant une quantité confortable de contenus originaux sur un site pénalisé de la même manière que les sites de L. Jee (courbes identiques de tes img). Résultats dans quelques temps. Des sites sanctionnés de type minus s'en sont sortis grâce aux contenus originaux selon certains forums US.

A partir de certaine "dose" de duplicate, descente dans les serps et perte de confiance évidente de GG envers le site.

Merci L.Jee pour ces excellentes constatations :wink:
Même demande pour toi, que sont devenus tes essais ? :)

PS: Oui, je joue sur les mots quand je dis qu'il n'y a pas de pénalité, mais c'est parce que je trouve trop facile de dire "Google m'a pénalisé". Celui qui est à l'origine de la "pénalité", c'est l'administrateur du contenu du site.
Ah tiens, j'avais laissé passer celle-là on dirait. Donc si je te suis, la blacklist est un filtre, car le responsable est toujours à l'origine de la faute, tout comme pour la sandbox. Doit-on de ce fait dire "je subis un filtre blacklist" ou "je subis un filtre sandbox" ? :mrgreen:
 
WRInaute passionné
Je repassais sur ce topic et je constate que tu étais en plein test, je n'ai jamais vu de retour sur celui-ci. Qu'est-il donc devenu ?

Ca a fonctionné un temps puis ça s'est arrêté. Pour que ça fonctionne il faut une grosse quantité de contenu en DC sur un sujet bien pointu et ce sans interruption, dès que le flot s'arrête un petit peu tu te casses la gueule. En gros le filtre de google fonctionne bien sur le DC. Il le pénalise rapidement et pour sortir du trou il faut ramer longtemps, il ne suffit pas d'enlever le DC pour en sortir, il faut attendre qu'il décide que t'as eu ta leçon lol
 
WRInaute occasionnel
Firewave a dit:
Ca a fonctionné un temps puis ça s'est arrêté. Pour que ça fonctionne il faut une grosse quantité de contenu en DC sur un sujet bien pointu et ce sans interruption, dès que le flot s'arrête un petit peu tu te casses la gueule. En gros le filtre de google fonctionne bien sur le DC. Il le pénalise rapidement et pour sortir du trou il faut ramer longtemps, il ne suffit pas d'enlever le DC pour en sortir, il faut attendre qu'il décide que t'as eu ta leçon lol

Là je suis entierement d'accord, 3 mois de tests sur un de mes BB plombé, et rien, rien, rien, rien n'y fait..

En revanche depuis la pénalité, il truste ses mots clefs, mais plus de longue ou courte, ou même trés courte traine ...

j'avoue que là je voie mal comment GG ""dé-filtre""....
 
Discussions similaires
Haut