Blog officiel de Google : le point sur le duplicate content

WRInaute passionné
Bonjour à tous,

Un nouvel article concernant le duplicate content sur le blog GG webmaster Central : http://googlewebmastercentral.blogspot. ... apers.html

J'en ai ressorti deux points intéressants :
- quand vous avez du duplicate content sur votre site et qu'il vous est impossible de supprimer le duplicate, indiquez dans votre sitemap seulement l'URL principale. Ainsi le robot saura laquelle il doit indexer.

- GG ne sanctionne pas le duplicate content, sauf s'il est clair que le contenu a été scrappé de façon malhonnête.

Ca laisse quand même pas mal de libertés aux copieurs de contenu...

Bonne lecture
 
WRInaute accro
J'ai toujours été dubitatif sur la manière dont Google détermine que tel site est la source originale de tel article.

Au vu des commentaires sur l'article du blog GG webmaster Central, apparemment je suis pas le seul :-)
 
WRInaute occasionnel
Re: Blog officiel de Google : le point sur le duplicate cont

dadovb a dit:
- GG ne sanctionne pas le duplicate content, sauf s'il est clair que le contenu a été scrappé de façon malhonnête.

C'est faux et archi faux, il suffit d'observer les annuaires de flux rss... Le site le plus puissant gagne et le plus faible disparait.
 
WRInaute accro
Effectivement c'est faux, Google capte un beignet quand il s'agit d'attribuer un contenu à son auteur et malheureusement la plupart des agrégateurs (pour ne citer qu'eux) ne font rien pour arranger cela.
@+
 
WRInaute accro
Salut Gwa ;)
Ayméric a continué la lutte en juin (Wikio scrap le contenu html ?) et les choses s'arrangent pas si bien que cela finalement.
Voir dans les commentaires du billet récent le lien vers un blog qui a spammé Wikio en représailles, à mourir de rire :)
 
WRInaute occasionnel
Exact, mais je voulais juste montrer que ce ne sont pas forcement des monstres qui se moquent des pauvres petits webmasters/blogueurs, d'où la référence à Aymeric qui a ouvert le débat.
 
WRInaute passionné
Re: Blog officiel de Google : le point sur le duplicate cont

gwaradenn a dit:
dadovb a dit:
- GG ne sanctionne pas le duplicate content, sauf s'il est clair que le contenu a été scrappé de façon malhonnête.

C'est faux et archi faux, il suffit d'observer les annuaires de flux rss... Le site le plus puissant gagne et le plus faible disparait.

Vous n'avez pas bien compris ce que signifie sanctionner pour GG. Sanctionner = balcklistage, se retrouver en duplicate content ce n'est pas une sanction, c'est un filtre.

C'est l'intérêt de cet article, quand on lit entre les lignes, on comprend que Google ne sanctionne le duplicate que si il est avéré que c'est utilisé de façon malhonnête. Ce qui prouve que les voleurs de contenu ont de beaux jours devant eux car Google a toujours autant de mal a repérer la source du contenu.
 
WRInaute accro
Re: Blog officiel de Google : le point sur le duplicate cont

gwaradenn a dit:
C'est faux et archi faux, il suffit d'observer les annuaires de flux rss... Le site le plus puissant gagne et le plus faible disparait.
Ouais enfin ceux qui sont mal branlé comme P*******g par exemple...
 
WRInaute occasionnel
Moi j'ai remaqué qu'un de mes sites a eu une pénalisation de duplicate content sur certaines pages juste par ce qu'ils avaient les même meta que la home, ca vous dit quelque chose ?
 
WRInaute accro
@Audiofeeline : en la matière c'est quasiment la règle, ce sont ceux qui ne se positionnent pas systématiquement sur le titre des billets qui sont rares, d'ailleurs je les compte personnellement sur les doigts... d'un doigt. ;)

@domdom26 : oui que t'as pas beaucoup de contenu hors meta, parce que à ma connaissance c'est excessivement rare que les métas entrainent à elles seules un duplicate.
 
WRInaute occasionnel
J'ai un site de 100 pages de contenu qui a tenu 10 mois indexé ( pas un MFA et pas positionné mais ce n'était pas grave), il y a 1 mois j'ai eu l'idée saugrenue de le tripliquer.
Il a complètement disparu de Google en 1 semaine (ses deux nouveaux potes aussi).
 
WRInaute accro
Il faut faire attention avec ces agrégateurs. Tu dis qu'ils se positionnent mieux que les articles originaux ?
Pour moi ce n'est pas pertinent, Google a encore du chemin à faire sur ce point.
Quant à déterminer quel est l'original je pense que envoyer des ping et utiliser un sitemap est une bonne façon de donner le moment auquel on a rédiger un article.

Pour en revenir aux agrégateurs, je ne suis pas fan de ceux qui indexent partiellement des articles. Il suffit de voir le succès de Wikio pour comprendre. Ce n'est pas un parasite dans les SERPs et le service rendu est réel. Il ne faut pas croire que faire un agrégateur c'est faire un site "facile" (tout comme pour les annuaires).
 
WRInaute accro
Mais il n'en est pas certain justement, pour ma part je ping et ai un sitemap et suis tout de même derrière. ;)

Edité : le comble d'ailleurs c'est que mon site est de surcroit indexé dans Google news ! :lol:
 
WRInaute accro
serval2a a dit:
Mais il n'en est pas certain justement, pour ma part je ping et ai un sitemap et suis tout de même derrière. ;)
Ce n'est pas la même chose, il s'agit ici de définir quelle est la source en cas de duplicate, pour ma part je pense que le sitemap aide dans ce cas.
 
Discussions similaires
Haut