Bonsoir,
En 2008 (en septembre :wink: ) j'avais lancé un post sur les pénalités de Google sur les sites. En 6 mois, ca avait cassé des très gros sites, des mojs gros et des petits. https://www.webrankinfo.com/forum/les-penalites-google-octobre-2007-sept-20 ... 99511.html
Comme l'année passée, on a montée une petite équipe qui travaille dans l'ombre mais cette fois avec d'autres moyens et idées.
Je vais d'abord présenter une petite partie de l'équipe actuelle puisqu'elle va s'étoffer (on est juste en train de mettre des bases de tests un peu plus larges et on attend pour la suite pour intégrer les tests en cours). Cette partie est juste ce qui se passe pour ces "sanctions" depuis l'année dernière. Je vais être honnête, l'année dernière je dormais guère en gardant les résultats avant de lacher le post (j'avais posé la question à Olivier pour savoir ce qu'il en pensait à 11 heures du soir et mis le post à ... 3 heures du matin). On va essayer cette année de discoscier les parties qui sont en cours.
Pour ceux qui sont présents dans l'équipe, il y a de nouveau L'Jee: sa principale occupation tourne autour des annuaires sur le forum mais il a d'autres sites. C'est plutôt lui qui analyse des listes de sites référencés et le dupplicate dans les annuaires, Rudddy. Principal problèmes, des sites basés sur des régions dans la même thématique, Joe Coe, peu de sites mais probablement le plus "essayeur" avec d'autres sites que celui de son profil et .... ybet qui gère quelques sites et ramène depuis des années sa (non)-science en référencement sur WRI :mrgreen: . Les nouveaux posts qui débuteront sans doutes dans les seaines qui viennent d'un ou l'autre font partie de nos petits test et constatations en communs. Donc pour l'instant, pas de résultats de ce qu'on est en train de monter ( :wink: on attend ...).
Maintenant les pénalités 2008, revues et corrigées
Les causes de pénalités de septembre 2008:
1. vente de liens soupconnés: là c'est déjà pas tristes, depuis avril mai c'est de nouveau des déclassement (et pas cette fois qu'au niveau PR pour certain avec des liens vers des casinos). Dans un prochain post, en cours d'analyse et tests, les mêmes webmasters avec des liens entre site ont pris la même baffe pour quelques requêtes jugées par GG comme concurentielles -> adword. Mais c'est pas pour aujourd'hui
2. Page dont le contenu est presqu'exclusivement des liens (internes ou externes) . L'année passée, sur le premier post, je disais que les liens internes en surnombre, la page était sanctionné. En plus, je disais que des liens vers ses propres sites n'étaient pas trop sanctionnés. Maintenant c'est faux. Trop de liens = page grisée (internes ou externes et j'avait déjà montrre l'année passée que follow ou no follow ne changait rien. L'idée de 2008, c'était rajouter du texte au-tour des liens . J'ai jouer avec çà sur materiel-informatique.be sur les pages des lettres du dictionnaire pendant des mois, passaient, repassaient disparaissent .... Finalement quasiment toutes déclassées en PR et oubliées dans l'indexe. Pas trop grave pour ce site, mais la sanction reste (et j'ai essayé toutes les dispositions en 6 mois). Je reviendrai sur ce site dans ce post.
3. structure du site avec faible contenu mais liens de navigation trop importants: Google inverse la partie contenu et navigation -> déclassement de toutes les pages avec un contenu trop faible
. là c'est plus vicieux. Google commence simplement à litéralement supprimer ces liens de navigation. J'ai pas dis que ça ne pénalisait pas les pages du site, juste que GG commence à les supprimer complètement comme liens (via GWT mais aussi comme véritables liens). En gros, mettre 50 liens internes sur toutes les pages ne sert plus à grand chose au niveau référencement, même si la structure des liens reste une base du référencement. Il faudra juste commencer à mettre des liens de la page d'accueil vers les pages secondaires qui reprennent des liens vers les sous pages (et plus les pages avec tous les liens).
4. contenu dupliqué ou copié en gros déclassement de toutes les pages sauf si une vieille page est déjà connue de Google. Ca on peut oublier. Après avoir débiuter le post, j'ai forcément mis en pratique sur le site materiel-inf.. (c'était aussi un des sites utilisé l'année dernière pour la majorité des tests) ce que j'avais en partie tester dessus mais surtout pour un autre. Pas de chance ... une page lancée depuis trois mois et cassée par un simple copieur sur un blog C'est pas toujours le cas mais un peit morceau de phrase suffit.
Pour copy scape, pour avoir passer des heures àtravailler avec ... vous pouvez oublier. GG mémorise les pages même dispârues (je l'ai essayé).
5. déclassement des pages avec des fautes d'orthographe SEO : là je pensais que cette pénalité avait disparue. C'est en grosse partie vrai mais pas tout à fait complètement. L'nnée drnière j'avais parlé d'Excell ou mon site est finalement revenu (mais c'est pas un petit non plus. Par contre, j'ai fait à l'hiver ce genre de petits tests avec des nouveaux sites tout gentils;: passé ou page complètement cassée. Par contre: déclassement des pages avec des conjugaisons fausses (genre j'ai acheter ... ), là Google ne semble plus les suivre pour pénalités (un peu comme s'il avait compris que la conjugaison de son algotrythme était un peu juste (même un gamin de 10 ans lui est souvent supérieur). De toute façon, il ne bloquait plus les black Hat mais cassait des petits sites amateurs.
Ca c'est pour (en grosse partie) les pénalités de l'année passée.
Les techniques de tests pour déclassement.
1. Je commence par le PR. C'est okax, revenu dire bonjour aux amis qui va être content.
L'année dernière, je postulait une page cassée par un passage à un PR grisé ou une page qui ne montait pas en PR. C'est toujours le cas en partie (le menu de gauche sur les nouvelles définitions de materiel-informatique repend les définitions par ordre décroissant de mise en ligne et au milieur, deux pages grisées qui sont sanctionnées (en PR et en position). Des pages grisées (et déclassées il y a 6 mois) sont restée grisées mais passent en mondial sur GG.be (c'est un site belge) mais aussi sur GG.fr :?: et une grosse partie des pages qui sont passée PR1 (sans que je suive trop) mais avant déclassée ou PR mais sans positionnement (le PR n'a jamais été non plus une source de positionnement) sont complètement absentes des résultats . Ben oui, une page grisée n'est plus forcément déclassée (encrore peut-être une source comme quoi le PR ne classe pas les pages). Petis trus quand même les listes de liens (genre navigation) interne restent grisées et inconnues dans les recherches.
2. le coup des recherches entre "". Un petit rappel. Lorque vous prenez un morceau de phrases entre "" (exemple "un petit morceau de phrases") dans les recherches Google, le résultat ne reprend que les pages qui contiennent exactemet cette phrase. En 2008, j'avais trouvé mieux Pour trouver la phrse en duplicate pas forcément copiée, juste le même bout de phrase, je suivait le contenu morceau par morceau et lorsqe la partie n'était plus reprise dans les résultats ... le duplicate était juste au-dessus ou carément la partie ... Fini. (l'ai encore eut une fois aujourd'hui par hasard). Ce petit test ne fonctionne plus (GG a du corriger son système en lisant le post :evil: comme oui , aut pas grand chose à Google pour changer son algorythme, un petit post sur WRI ).
3. La date du cache. Sur des pages complètement grisées et déclassées. Une recherche entre "" d'un morceau de phrase ... rien, un deuxième ... toujours rien et une heure après, GG avait retrouvé la page dans ses malettes oubliées dans le corridor pas ses bots et donnait le résultts (avec des dates de cache fausses). Là aussi, la date est toujours fausse mais pas de cache signifie pas de page dans l'index ni généralement dans le cache de la barre d'outils.
4. GWT. Un superbe outils l'année passée. Pas connue pour avoir des liesn internes et pas non plus reprise pour envoyer de liens ... (c'était relativement fastoche). GWT a été modifié il y a quelques mois. Quels changements? D'abord, la page complètement disparue (et même pas dans un cache de Google) apparaît comme recevant des liens internes (evec des liens externes, elle gagne normalement du PR même si elle est complètement sanctionnée ). Par contre, toujours pas reprise comme envoyant des liens internes ni externes. Et pas reprise dans la commande site. On avait pas regardé cette commande l'année dernière (elle est de toute façon bridée). Pourtant, pas reprise dans la commande = pas reprise dans les recherches.
Les sanctions n'ont finalement pas trop évoluées (à part les liens de sites entre sites du même webmaster - ca c'est nouveau et c'est qui semble casser des pages et des sites depuis avril: on est en route :wink: ). Par contre, les méthodes de détections (et de fait la communicatio de Google) a évoluer. Comme si Google cherchait à cacher les erreurs de son algorythme.
Pas plus optimiste que l'année dernière à la même époque (je sais :lol: ) , moins de grosses cassures de sites aussi (ca c'est rassurant dans un sens). Juste les pénalités qui n'ontguères évoluées mais la communication via cette petite barre verte (ou non ) qui a nettement évoluée. Quoique des pages complètement propres (y compris complètement testées au diplicate) restent désespérament grisées et pas reprises dans les résultats si elles ont l'air trop concurrentielles.
:mrgreen: l'année dernière, on a beucoup cherché pour comprendre pourquoi certaines pages passaient pas et toutes les raisons qu'on connaissaient ne correspondaient pas.... Cette année (on est à plusieurs dans le cas), des pages stratégiques sont complètement laissées de coté , comme si GG décidait qu'un site n'a pas le niveau pour crér une telle page.
:mrgreen: (2). La mise ne ligne d'une page. Un petit test de Joe Ce mais essayé sur d'autres pages.
... Pchut (c'est un autre post pour plus tard alors pas la peine que Google le sache maintenant :? ). Mise en ligne d'une page=
1. passage du robot.
2. analyse sommaire de la page
3. mise en cache via la barre d'outils mais pas dans l'index.
4. deuxième analyse
5. mise dans l'index. les parties de phrases entre "" apparaisent au minimum dans les recherches dans la barre d'outils et le plus souvent directement dans Google si la page n'est ps cassée par le point suivant
5. déclasement provisoire (ou non), parfois 2 places, parfois 15 parfois .... (je veux pas casser le moral)
6. reclassement si la page semble clean (la réputation du site intervient également) suivan une position plus définitive.
... déclassement si détecté en faute quelques semaines plus tard avec une analyse plus approfondie.
Ouf, j'ai terminé :lol: , mais on va poursuire dans les semaines qui viennent avec d'autres post sur d'autres sujets ou similaires . D'ailleurs le reste de l'équipe va probablement rajouter aussi ses constatation sur le sujet.
En 2008 (en septembre :wink: ) j'avais lancé un post sur les pénalités de Google sur les sites. En 6 mois, ca avait cassé des très gros sites, des mojs gros et des petits. https://www.webrankinfo.com/forum/les-penalites-google-octobre-2007-sept-20 ... 99511.html
Comme l'année passée, on a montée une petite équipe qui travaille dans l'ombre mais cette fois avec d'autres moyens et idées.
Je vais d'abord présenter une petite partie de l'équipe actuelle puisqu'elle va s'étoffer (on est juste en train de mettre des bases de tests un peu plus larges et on attend pour la suite pour intégrer les tests en cours). Cette partie est juste ce qui se passe pour ces "sanctions" depuis l'année dernière. Je vais être honnête, l'année dernière je dormais guère en gardant les résultats avant de lacher le post (j'avais posé la question à Olivier pour savoir ce qu'il en pensait à 11 heures du soir et mis le post à ... 3 heures du matin). On va essayer cette année de discoscier les parties qui sont en cours.
Pour ceux qui sont présents dans l'équipe, il y a de nouveau L'Jee: sa principale occupation tourne autour des annuaires sur le forum mais il a d'autres sites. C'est plutôt lui qui analyse des listes de sites référencés et le dupplicate dans les annuaires, Rudddy. Principal problèmes, des sites basés sur des régions dans la même thématique, Joe Coe, peu de sites mais probablement le plus "essayeur" avec d'autres sites que celui de son profil et .... ybet qui gère quelques sites et ramène depuis des années sa (non)-science en référencement sur WRI :mrgreen: . Les nouveaux posts qui débuteront sans doutes dans les seaines qui viennent d'un ou l'autre font partie de nos petits test et constatations en communs. Donc pour l'instant, pas de résultats de ce qu'on est en train de monter ( :wink: on attend ...).
Maintenant les pénalités 2008, revues et corrigées
Les causes de pénalités de septembre 2008:
1. vente de liens soupconnés: là c'est déjà pas tristes, depuis avril mai c'est de nouveau des déclassement (et pas cette fois qu'au niveau PR pour certain avec des liens vers des casinos). Dans un prochain post, en cours d'analyse et tests, les mêmes webmasters avec des liens entre site ont pris la même baffe pour quelques requêtes jugées par GG comme concurentielles -> adword. Mais c'est pas pour aujourd'hui
2. Page dont le contenu est presqu'exclusivement des liens (internes ou externes) . L'année passée, sur le premier post, je disais que les liens internes en surnombre, la page était sanctionné. En plus, je disais que des liens vers ses propres sites n'étaient pas trop sanctionnés. Maintenant c'est faux. Trop de liens = page grisée (internes ou externes et j'avait déjà montrre l'année passée que follow ou no follow ne changait rien. L'idée de 2008, c'était rajouter du texte au-tour des liens . J'ai jouer avec çà sur materiel-informatique.be sur les pages des lettres du dictionnaire pendant des mois, passaient, repassaient disparaissent .... Finalement quasiment toutes déclassées en PR et oubliées dans l'indexe. Pas trop grave pour ce site, mais la sanction reste (et j'ai essayé toutes les dispositions en 6 mois). Je reviendrai sur ce site dans ce post.
3. structure du site avec faible contenu mais liens de navigation trop importants: Google inverse la partie contenu et navigation -> déclassement de toutes les pages avec un contenu trop faible
. là c'est plus vicieux. Google commence simplement à litéralement supprimer ces liens de navigation. J'ai pas dis que ça ne pénalisait pas les pages du site, juste que GG commence à les supprimer complètement comme liens (via GWT mais aussi comme véritables liens). En gros, mettre 50 liens internes sur toutes les pages ne sert plus à grand chose au niveau référencement, même si la structure des liens reste une base du référencement. Il faudra juste commencer à mettre des liens de la page d'accueil vers les pages secondaires qui reprennent des liens vers les sous pages (et plus les pages avec tous les liens).
4. contenu dupliqué ou copié en gros déclassement de toutes les pages sauf si une vieille page est déjà connue de Google. Ca on peut oublier. Après avoir débiuter le post, j'ai forcément mis en pratique sur le site materiel-inf.. (c'était aussi un des sites utilisé l'année dernière pour la majorité des tests) ce que j'avais en partie tester dessus mais surtout pour un autre. Pas de chance ... une page lancée depuis trois mois et cassée par un simple copieur sur un blog C'est pas toujours le cas mais un peit morceau de phrase suffit.
Pour copy scape, pour avoir passer des heures àtravailler avec ... vous pouvez oublier. GG mémorise les pages même dispârues (je l'ai essayé).
5. déclassement des pages avec des fautes d'orthographe SEO : là je pensais que cette pénalité avait disparue. C'est en grosse partie vrai mais pas tout à fait complètement. L'nnée drnière j'avais parlé d'Excell ou mon site est finalement revenu (mais c'est pas un petit non plus. Par contre, j'ai fait à l'hiver ce genre de petits tests avec des nouveaux sites tout gentils;: passé ou page complètement cassée. Par contre: déclassement des pages avec des conjugaisons fausses (genre j'ai acheter ... ), là Google ne semble plus les suivre pour pénalités (un peu comme s'il avait compris que la conjugaison de son algotrythme était un peu juste (même un gamin de 10 ans lui est souvent supérieur). De toute façon, il ne bloquait plus les black Hat mais cassait des petits sites amateurs.
Ca c'est pour (en grosse partie) les pénalités de l'année passée.
Les techniques de tests pour déclassement.
1. Je commence par le PR. C'est okax, revenu dire bonjour aux amis qui va être content.
L'année dernière, je postulait une page cassée par un passage à un PR grisé ou une page qui ne montait pas en PR. C'est toujours le cas en partie (le menu de gauche sur les nouvelles définitions de materiel-informatique repend les définitions par ordre décroissant de mise en ligne et au milieur, deux pages grisées qui sont sanctionnées (en PR et en position). Des pages grisées (et déclassées il y a 6 mois) sont restée grisées mais passent en mondial sur GG.be (c'est un site belge) mais aussi sur GG.fr :?: et une grosse partie des pages qui sont passée PR1 (sans que je suive trop) mais avant déclassée ou PR mais sans positionnement (le PR n'a jamais été non plus une source de positionnement) sont complètement absentes des résultats . Ben oui, une page grisée n'est plus forcément déclassée (encrore peut-être une source comme quoi le PR ne classe pas les pages). Petis trus quand même les listes de liens (genre navigation) interne restent grisées et inconnues dans les recherches.
2. le coup des recherches entre "". Un petit rappel. Lorque vous prenez un morceau de phrases entre "" (exemple "un petit morceau de phrases") dans les recherches Google, le résultat ne reprend que les pages qui contiennent exactemet cette phrase. En 2008, j'avais trouvé mieux Pour trouver la phrse en duplicate pas forcément copiée, juste le même bout de phrase, je suivait le contenu morceau par morceau et lorsqe la partie n'était plus reprise dans les résultats ... le duplicate était juste au-dessus ou carément la partie ... Fini. (l'ai encore eut une fois aujourd'hui par hasard). Ce petit test ne fonctionne plus (GG a du corriger son système en lisant le post :evil: comme oui , aut pas grand chose à Google pour changer son algorythme, un petit post sur WRI ).
3. La date du cache. Sur des pages complètement grisées et déclassées. Une recherche entre "" d'un morceau de phrase ... rien, un deuxième ... toujours rien et une heure après, GG avait retrouvé la page dans ses malettes oubliées dans le corridor pas ses bots et donnait le résultts (avec des dates de cache fausses). Là aussi, la date est toujours fausse mais pas de cache signifie pas de page dans l'index ni généralement dans le cache de la barre d'outils.
4. GWT. Un superbe outils l'année passée. Pas connue pour avoir des liesn internes et pas non plus reprise pour envoyer de liens ... (c'était relativement fastoche). GWT a été modifié il y a quelques mois. Quels changements? D'abord, la page complètement disparue (et même pas dans un cache de Google) apparaît comme recevant des liens internes (evec des liens externes, elle gagne normalement du PR même si elle est complètement sanctionnée ). Par contre, toujours pas reprise comme envoyant des liens internes ni externes. Et pas reprise dans la commande site. On avait pas regardé cette commande l'année dernière (elle est de toute façon bridée). Pourtant, pas reprise dans la commande = pas reprise dans les recherches.
Les sanctions n'ont finalement pas trop évoluées (à part les liens de sites entre sites du même webmaster - ca c'est nouveau et c'est qui semble casser des pages et des sites depuis avril: on est en route :wink: ). Par contre, les méthodes de détections (et de fait la communicatio de Google) a évoluer. Comme si Google cherchait à cacher les erreurs de son algorythme.
Pas plus optimiste que l'année dernière à la même époque (je sais :lol: ) , moins de grosses cassures de sites aussi (ca c'est rassurant dans un sens). Juste les pénalités qui n'ontguères évoluées mais la communication via cette petite barre verte (ou non ) qui a nettement évoluée. Quoique des pages complètement propres (y compris complètement testées au diplicate) restent désespérament grisées et pas reprises dans les résultats si elles ont l'air trop concurrentielles.
:mrgreen: l'année dernière, on a beucoup cherché pour comprendre pourquoi certaines pages passaient pas et toutes les raisons qu'on connaissaient ne correspondaient pas.... Cette année (on est à plusieurs dans le cas), des pages stratégiques sont complètement laissées de coté , comme si GG décidait qu'un site n'a pas le niveau pour crér une telle page.
:mrgreen: (2). La mise ne ligne d'une page. Un petit test de Joe Ce mais essayé sur d'autres pages.
... Pchut (c'est un autre post pour plus tard alors pas la peine que Google le sache maintenant :? ). Mise en ligne d'une page=
1. passage du robot.
2. analyse sommaire de la page
3. mise en cache via la barre d'outils mais pas dans l'index.
4. deuxième analyse
5. mise dans l'index. les parties de phrases entre "" apparaisent au minimum dans les recherches dans la barre d'outils et le plus souvent directement dans Google si la page n'est ps cassée par le point suivant
5. déclasement provisoire (ou non), parfois 2 places, parfois 15 parfois .... (je veux pas casser le moral)
6. reclassement si la page semble clean (la réputation du site intervient également) suivan une position plus définitive.
... déclassement si détecté en faute quelques semaines plus tard avec une analyse plus approfondie.
Ouf, j'ai terminé :lol: , mais on va poursuire dans les semaines qui viennent avec d'autres post sur d'autres sujets ou similaires . D'ailleurs le reste de l'équipe va probablement rajouter aussi ses constatation sur le sujet.