Un petit résumé de https://www.webrankinfo.com/forum/t/pages-grisees-on-y-va.84630/ de décembre 2007, https://www.webrankinfo.com/forum/t/la-google-dance-de-juillet-2008.96505/ Comme quoi les sanctions sont pas nouvelles. je vais essayé également de donner mes tests depuis 6 mois en fonction de deux sites qui recoivent à tour de rôle les petites sanctions sur des parties complètes ou sur des pages (+ généralement les pages internes en dessous).
et peut-être quelques idées des raisons, même si elle n'engagent que moi at quelques autres joints par MP. Elle est liée à la structure de nos sites ....
On sait maintenant que Google semble sacquer net:
. les pages utilisant des flux RSS
. les pages reprenant en majorité des liens par rapport au contenu texte
. les pages en duplicate content, là c'est pas nouveau sauf que je soupconne Google d'avoir NETTEMENT amméliorer son algorythme.
. on oublie l'achat (vérifié ou non) qui est plus spécifiques.
Les sanctions touchent des nouveaux sites (sortis de sandbox quand même :roll: ) comme des vieux, certains de plus de 10 ans, des annuaires comme des sites standards.
Considérer que Google veut supprimer les annuaires me semble faux.
Tous les sites et pages qui subissent des sanctions ont quelques caractéristiques globales.
1. une structure de sites PHP: header, colonne de liens à droite et / ou à gauche + footer et une partie centrale avec le contenu. Quasiment tous reprennent un menu identique sur la majorité de leurs pages avec un nombre important de liens, si pas sur toutes.
2. la partie centrale reprend dans la très grosse majorité des cas un fort % de liens textes par rapport au texte tout court, si pas que des liens. Que les liens soient internes ou externe ne semble pas entrer en considération, les annuaires avec leurs liens externes comme des catégories de petites annonces, ou même des rassemblement de pages de même thématiques. Le nofollow ou le follow n'intervient pas non plus.
3. dans l'autre cas où la partie centrale pose problème, il est en duplicate content avec une ou l'autre page. Pour m'en être fait jeter une sur un site, il est devenu drolement malin, ma fallu m'y reprendre à trois fois pour voire une partie similaire sur mes deux pages (la vieille est restée): 1/10 de l'ancien site pour 1 /10 du nouveau (2 ans tout de même) et encore avec des mots et tournures un peu différentes.
Le PR: .
Google est à mon avis en train de l'utiliser comme moyen de communication depuis des mois en grisant les pages qui ne lui conviennent pas. C'est la majorité des cas des annuaires. Même avec un PR5 en page d'entrée, les pages de second niveau ont le PR grisé. Pour l'instant, un seul site fait exception à la règle -http://www.webstorming.fr lui a gardé son PR4 sur toutes ses pages internes quasiment sauf qu'une grosse partie n'est plus dans le cache de Google pour le moment. La seule fois que j'ai vu ca c'était mon copain blogger pour "achat de liens" https://www.webrankinfo.com/forum/highl ... htm#820054 un peu agressif :lol: mais c'est probablement un délai entre la sanction et la mise à jour du PR, j'ai l'inverse sur des pages internes
Pour le PR grisé d'une page, la page reprend les caractéristiques de structures ci-dessus. c'est déjà une bonne piste de correction pour beaucoup. En gros dans mes constatation et celle d'autres.
-> afflut de liens -> grisé mais pas de pertes de visiteurs -> reprise de PR avec le temps
-> PR grisé mais reste dans le cache, même si elle n'apparaît pas dans les recherches
->PR grisé, n'apparaît pas dans le cache. Généralement elles font du yoyo entre oui ou non avant de se stabiliser en cache.
D'autres diversités pour ces pages:
dans les outils webmasters (on sait que ce n'est pas mis à jour en live). les pages plus dans le cache ne sont généralement plus reprises comme recevant des liens internes ni même comme envoyant des liens vers d'autres pages internes ou externes (j'ai vérifié ). Celles qui reviennent oui.
Les causes possibles de sanctions ....
je sais que la génération actuelle ne voit que les liens externes pour faire monter un site ou une page :lol: . Ben non, ... avec des liens corrects, textes biens distincts dans les pages, il y a moyen de monter très haut dans des recherches intéressantes. Les liens externes donnent du poids forcément, mais la stratégie de liens internes va permettre à Google de cibler le site (ou des partie d'un site sur une thématique ou un thème particulier).
Prenons un site avec 20 pages de niveau 2 que nous appellerons catégories. Comme la structure des sites actuels est plutôt en arbre, chaque catégorie reprend des sous catégories (disons 10 pour faciliter le calcul). Le site se fait balancer 10 pages de catégories (la moitié). Les pages des sous catégories de celle-ci ne sont quasiment plus reprises dans Google (sauf avec d'autres liens internes ou des liesn externes). Le site perd donc 10 * 10 pages qui envoient des liens internes (plus les pages en dessous généralement) et .... le site se retrouve avec la moitié de liens internes référencées par Google. Moitié de liens internes (aussi de pages référencées) et c'est tout le site qui descend d'un coup.
En gros, si le contenu ne semble plus pertinent pour Google (duplicate, trop de liens), il ne garde que les parties header - gauche - droite de la page et -> duplicate content avec les pages reprenant peu de textes qui se font aussi supprimées de l'index, effet boule de neige ...
En sortir?
C'est là dessus que je bosse depuis des mois sur mes deux sites (un peu) touché. Possible mais pas de recettes miracles.
Pour un site régional, un annuaire principal reprenant tous les sites et des catégories reprenant les sites spécifiques (donc finalement les mêmes mais organisés différament). Pour ceux là, à part 1, aucun problèmes. Les sites sont en Follow s'ils sont intéressants et en nofollow sinon (2/3 - 1/3 environ). Des sous domaines reprenant chaque fois une commune avec un annuaire des sites repris dans la grosse page sur cette commune. C'est là que ca commence: certains passent très bien, d'autres grisés. Commencé mes tests en décembre sur ces pages grisées. Un annuaire de commune passée totalement en Follow, un autre tout en follow.
Laissé comme celà 4 mois, sans rien bougé, aucune des deux n'est revenue (dans le cache, grisée mais invisible). FOLLOW ou pas change rien dans les liens externes pour ce problème.
En mai, j'ai revérifé tous les sites de ces deux sous-annuaires et supprimer quelques uns -> la no follow avec des pages revenues en follow (mais nettoyée) est revenue PR1, l'autre est passée PR0 (et visible corectement dans les recherches). Par contre, une autre pas touchée (follow et no mélangée) est restée grisée mais reprise de nouveau correctement dans les recherches (cache du 4 juillet, peut-être la raison du PR resté grisé).
J'avoue avoir fait quelques modifications, comme augmenté la description pour certains liens. NB: aucun risques de duplicate pour cet annuaire. Il n'y a pas d'inscriptions par des utilisateurs. Les demandes d'inscription se font par mail et c'est moi qui met le titre et la description.
C'est pas la solution pour un annuaire standard puisque pas de risque de duplicate. Pourtant, j'ai aussi bricolé les colonnes de droites et de gauches en reprenant des parties du site principal spécifique à chaque commune (annonces et activités). C'est peut-être une indication, mais ca a nettement rajouté du contenu sur chacune de ces pages et surtout nettement réduit le % de lien par rapport au texte.
Pour d'autres pages sur un autre site, un dictionnaire. De nouveau une structure header, gauche - droite avec contenu au milieu. Dans les 80 liens internes dans ces parties ( :roll: je sais GG en préonise 100 max, mais mon record sur une page est de 1100 externes et sur une autre, plus de 1200 internes + quelques externes).
Pages de lettres (A, B, C, D, ....) toutes grisées il y a trois mois sauf la A (celle qui a le plus de liens mais aussi celle que les visiteurs suivent le plus, elle est la plus à droite). le contenu internes de ces pages reprenanient un titre, quelques mots de descriptions + tous les liens vers les définitions commencant par la lettre. Je vient de récupérer le PR4 sur une bonne dizaine en rajoutant simplement un petit texte de 3 ou 4 mots derrière 1/3 des liens de définitions.
Tout le monde ne sera pas d'accord, mais je pense que quasiment toutes les sanctions actuelles viennent d'une modif de l'algo qui pénalyse non pas des pages ou des sites mais bien des structures de sites.
et peut-être quelques idées des raisons, même si elle n'engagent que moi at quelques autres joints par MP. Elle est liée à la structure de nos sites ....
On sait maintenant que Google semble sacquer net:
. les pages utilisant des flux RSS
. les pages reprenant en majorité des liens par rapport au contenu texte
. les pages en duplicate content, là c'est pas nouveau sauf que je soupconne Google d'avoir NETTEMENT amméliorer son algorythme.
. on oublie l'achat (vérifié ou non) qui est plus spécifiques.
Les sanctions touchent des nouveaux sites (sortis de sandbox quand même :roll: ) comme des vieux, certains de plus de 10 ans, des annuaires comme des sites standards.
Considérer que Google veut supprimer les annuaires me semble faux.
Tous les sites et pages qui subissent des sanctions ont quelques caractéristiques globales.
1. une structure de sites PHP: header, colonne de liens à droite et / ou à gauche + footer et une partie centrale avec le contenu. Quasiment tous reprennent un menu identique sur la majorité de leurs pages avec un nombre important de liens, si pas sur toutes.
2. la partie centrale reprend dans la très grosse majorité des cas un fort % de liens textes par rapport au texte tout court, si pas que des liens. Que les liens soient internes ou externe ne semble pas entrer en considération, les annuaires avec leurs liens externes comme des catégories de petites annonces, ou même des rassemblement de pages de même thématiques. Le nofollow ou le follow n'intervient pas non plus.
3. dans l'autre cas où la partie centrale pose problème, il est en duplicate content avec une ou l'autre page. Pour m'en être fait jeter une sur un site, il est devenu drolement malin, ma fallu m'y reprendre à trois fois pour voire une partie similaire sur mes deux pages (la vieille est restée): 1/10 de l'ancien site pour 1 /10 du nouveau (2 ans tout de même) et encore avec des mots et tournures un peu différentes.
Le PR: .
Google est à mon avis en train de l'utiliser comme moyen de communication depuis des mois en grisant les pages qui ne lui conviennent pas. C'est la majorité des cas des annuaires. Même avec un PR5 en page d'entrée, les pages de second niveau ont le PR grisé. Pour l'instant, un seul site fait exception à la règle -http://www.webstorming.fr lui a gardé son PR4 sur toutes ses pages internes quasiment sauf qu'une grosse partie n'est plus dans le cache de Google pour le moment. La seule fois que j'ai vu ca c'était mon copain blogger pour "achat de liens" https://www.webrankinfo.com/forum/highl ... htm#820054 un peu agressif :lol: mais c'est probablement un délai entre la sanction et la mise à jour du PR, j'ai l'inverse sur des pages internes
Pour le PR grisé d'une page, la page reprend les caractéristiques de structures ci-dessus. c'est déjà une bonne piste de correction pour beaucoup. En gros dans mes constatation et celle d'autres.
-> afflut de liens -> grisé mais pas de pertes de visiteurs -> reprise de PR avec le temps
-> PR grisé mais reste dans le cache, même si elle n'apparaît pas dans les recherches
->PR grisé, n'apparaît pas dans le cache. Généralement elles font du yoyo entre oui ou non avant de se stabiliser en cache.
D'autres diversités pour ces pages:
dans les outils webmasters (on sait que ce n'est pas mis à jour en live). les pages plus dans le cache ne sont généralement plus reprises comme recevant des liens internes ni même comme envoyant des liens vers d'autres pages internes ou externes (j'ai vérifié ). Celles qui reviennent oui.
Les causes possibles de sanctions ....
je sais que la génération actuelle ne voit que les liens externes pour faire monter un site ou une page :lol: . Ben non, ... avec des liens corrects, textes biens distincts dans les pages, il y a moyen de monter très haut dans des recherches intéressantes. Les liens externes donnent du poids forcément, mais la stratégie de liens internes va permettre à Google de cibler le site (ou des partie d'un site sur une thématique ou un thème particulier).
Prenons un site avec 20 pages de niveau 2 que nous appellerons catégories. Comme la structure des sites actuels est plutôt en arbre, chaque catégorie reprend des sous catégories (disons 10 pour faciliter le calcul). Le site se fait balancer 10 pages de catégories (la moitié). Les pages des sous catégories de celle-ci ne sont quasiment plus reprises dans Google (sauf avec d'autres liens internes ou des liesn externes). Le site perd donc 10 * 10 pages qui envoient des liens internes (plus les pages en dessous généralement) et .... le site se retrouve avec la moitié de liens internes référencées par Google. Moitié de liens internes (aussi de pages référencées) et c'est tout le site qui descend d'un coup.
En gros, si le contenu ne semble plus pertinent pour Google (duplicate, trop de liens), il ne garde que les parties header - gauche - droite de la page et -> duplicate content avec les pages reprenant peu de textes qui se font aussi supprimées de l'index, effet boule de neige ...
En sortir?
C'est là dessus que je bosse depuis des mois sur mes deux sites (un peu) touché. Possible mais pas de recettes miracles.
Pour un site régional, un annuaire principal reprenant tous les sites et des catégories reprenant les sites spécifiques (donc finalement les mêmes mais organisés différament). Pour ceux là, à part 1, aucun problèmes. Les sites sont en Follow s'ils sont intéressants et en nofollow sinon (2/3 - 1/3 environ). Des sous domaines reprenant chaque fois une commune avec un annuaire des sites repris dans la grosse page sur cette commune. C'est là que ca commence: certains passent très bien, d'autres grisés. Commencé mes tests en décembre sur ces pages grisées. Un annuaire de commune passée totalement en Follow, un autre tout en follow.
Laissé comme celà 4 mois, sans rien bougé, aucune des deux n'est revenue (dans le cache, grisée mais invisible). FOLLOW ou pas change rien dans les liens externes pour ce problème.
En mai, j'ai revérifé tous les sites de ces deux sous-annuaires et supprimer quelques uns -> la no follow avec des pages revenues en follow (mais nettoyée) est revenue PR1, l'autre est passée PR0 (et visible corectement dans les recherches). Par contre, une autre pas touchée (follow et no mélangée) est restée grisée mais reprise de nouveau correctement dans les recherches (cache du 4 juillet, peut-être la raison du PR resté grisé).
J'avoue avoir fait quelques modifications, comme augmenté la description pour certains liens. NB: aucun risques de duplicate pour cet annuaire. Il n'y a pas d'inscriptions par des utilisateurs. Les demandes d'inscription se font par mail et c'est moi qui met le titre et la description.
C'est pas la solution pour un annuaire standard puisque pas de risque de duplicate. Pourtant, j'ai aussi bricolé les colonnes de droites et de gauches en reprenant des parties du site principal spécifique à chaque commune (annonces et activités). C'est peut-être une indication, mais ca a nettement rajouté du contenu sur chacune de ces pages et surtout nettement réduit le % de lien par rapport au texte.
Pour d'autres pages sur un autre site, un dictionnaire. De nouveau une structure header, gauche - droite avec contenu au milieu. Dans les 80 liens internes dans ces parties ( :roll: je sais GG en préonise 100 max, mais mon record sur une page est de 1100 externes et sur une autre, plus de 1200 internes + quelques externes).
Pages de lettres (A, B, C, D, ....) toutes grisées il y a trois mois sauf la A (celle qui a le plus de liens mais aussi celle que les visiteurs suivent le plus, elle est la plus à droite). le contenu internes de ces pages reprenanient un titre, quelques mots de descriptions + tous les liens vers les définitions commencant par la lettre. Je vient de récupérer le PR4 sur une bonne dizaine en rajoutant simplement un petit texte de 3 ou 4 mots derrière 1/3 des liens de définitions.
Tout le monde ne sera pas d'accord, mais je pense que quasiment toutes les sanctions actuelles viennent d'une modif de l'algo qui pénalyse non pas des pages ou des sites mais bien des structures de sites.