Portrait Olivier Duffez

Olivier Duffez

Créateur de WebRankInfo,
consultant en référencement

Guide complet sur l'algo Google Penguin

Google Penguin est un filtre qui vise à pénaliser les sites qui ne respectent pas ses consignes de référencement naturel, particulièrement sur les backlinks. Il est intégré au coeur de l'algorithme Google, en temps réel. Détails...

Cet article fait partie des archives de WebRankInfo : certes, il est ancien, mais complet et détaillé pour son époque. Si vous cherchez d'autres informations, faites une recherche sur le site ou participez au forum. Contactez-moi si besoin.

Article mis à jour le 12/01/2024, publié initialement le 24/04/2012
Google Penguin Update
Mise à jour Google Pingouin

En résumé :

  • Objectif : Google Penguin est un algorithme qui pénalise les sites ne respectant pas les consignes de qualité, en particulier concernant les backlinks artificiels
  • Fonctionnement en temps réel : Depuis 2016, Penguin opère en temps réel, permettant de détecter le caractère artificiel d'un lien en même temps que le crawl (ou d'autres analyses).
  • Surveillance des backlinks : Contrairement à Panda, qui évalue la qualité des sites, Penguin se concentre sur les techniques de référencement, notamment la sur-optimisation et surtout la qualité des liens entrants (backlinks)
  • Utilisation de l'IA : Pour repérer les liens artificiels, Google a sans doute entraîné des modèles d'IA sur des millions de liens, ainsi qu'utilisé les données liées à son outil de désaveu de backlinks
  • Aujourd'hui : certains ont oublié que Penguin existe... pourtant Google sait sans doute repérer un gros pourcentage des liens artificiels

Présentation de l'algorithme Penguin

Qu'est-ce que Google Penguin ?

Penguin est le nom d'un algorithme (ou filtre) visant à repérer les pages ne respectant pas les consignes de qualité de Google, en particulier sur les backlinks (liens entrants).

Quelle différence entre Panda et Penguin ?

Pour simplifier les choses, je dirais que Panda cherche à évaluer la qualité des sites, tandis que Pingouin tente d'évaluer les techniques de référencement utilisées. Même s'il n'y a pas eu de changement dans les règles de Google, leur application est devenue bien plus stricte depuis Pingouin 1.0 (2012). Outre les traditionnelles optimisations sur le site lui-même, c'est surtout dans le netlinking que Google a "progressé", pour repérer les backlinks artificiels.

Depuis quand Google Penguin existe ?

Voici toutes les dates des mises à jour Pingouin (les liens pointent plus bas dans ce dossier) :

Pourquoi la v4 ne s'appelle-t-elle pas Pingouin 4, et la V5 Pingouin 5 ? Simplement parce que c'est Google qui a voulu insister en disant que sa version de mai 2013 était vraiment une grosse évolution par rapport à la 1ère version de Pingouin. C'est idiot d'utiliser une telle numérotation, surtout quand la même bêtise a été faite avec Panda, mais c'est comme ça...

Pingouin fonctionne en temps réel

Depuis 2016, d'après la déclaration officielle de Google :

  • l'algo fonctionne désormais en temps réel
  • l'algo ne s'applique plus à l'ensemble du site mais à des parties plus précises (mais pas forcément page par page)

Concrètement, voici ce que ça signifie selon mon humble opinion :

  • vous n'avez plus besoin d'attendre une nouvelle mise à jour de Pingouin pour voir des effets à vos efforts pour corriger le tir (lisez les détails plus bas dans la FAQ)
  • néanmoins, il faut malgré tout attendre que Google ait connaissance des modifications, c'est-à-dire que son robot Googlebot ait crawlé la page où un lien a été modifié/supprimé/désavoué
  • la "pénalité" algorithmique ne concerne pas l'ensemble du site, mais des parties plus précises. Même si Google précise que cela ne signifie pas que le niveau est la page, je pense que c'est surtout la page qui reçoit des mauvais backlinks qui est la plus pénalisée.
  • je ne vois plus que 2 situations où ça peut servir de désavouer des liens :
    • si vous avez créé / acheté des liens vraiment artificiels et que vous n'arrivez pas à les faire modifier ou supprimer
    • si vous avez une pénalité manuelle

Comment gérer Pingouin pour son site ?

Le Pingouin Google
L'algorithme Google Penguin

Avertissement préalable

Tout d'abord, je préfère préciser que tout ce qui suit n'est que suppositions : Google n'a pas fourni la liste des critères (signals) utilisés par son manchot (oui, Penguin signifie manchot et non pas pingouin). Ces hypothèses n'engagent donc que moi et ne sont que des hypothèses. Néanmoins j'ai pris le temps de la réflexion et de l'analyse pour vous fournir cette première synthèse, qui sera mise à jour à chaque fois que ce sera nécessaire. Je me base sur :

  • l'étude concrète de quelques dizaines de sites pour lesquels j'ai eu accès à suffisamment d'informations
  • de nombreux échanges avec d'autres webmasters et référenceurs, en public sur le forum mais surtout en privé
  • mon expérience du référencement naturel depuis 1997 (ça ne me rajeunit pas !)
  • la lecture de nombreux articles

Je compte sur vous dans les commentaires pour me signaler mes éventuelles erreurs ou imprécisions car je ne prétends pas détenir la vérité absolue, loin de là !

Comment fonctionne Google Penguin ?

Google Penguin touche les pages une par une et non le site globalement comme c'est le cas avec son collègue le panda. C'est plutôt une bonne nouvelle car votre site ne sera pas pénalisé dans son ensemble à cause d'erreurs ou de quelques écarts envers les consignes de Google.

Je pense qu'il se base un peu sur des éléments internes du site et beaucoup sur les éléments externes (netlinking). D'après ce que j'ai pu analyser, une trop forte sur-optimisation interne entraine rarement des pénalités : c'est très souvent le netlinking sur-optimisé qui est la cause de la chute.

Les paragraphes suivants détaillent ces deux familles de critères ainsi que le rôle des réseaux sociaux dans Penguin.

Les critères on-site (ou on-page) : optimisation des contenus et du site

Les aspects onpage sont assez faibles dans Penguin mais il ne faut pas les négliger. C'est une sorte de facteur aggravant.
Inversement, les aspects sociaux semblent également minimes mais c'est une sorte de facteur qui atténue (j'y reviens plus loin ).

Voici d'après mes analyses actuelles les éléments négatifs internes au site pris en compte par Penguin.

Les titres

  • des titres (via la balise title) créés pour être optimisés sur un nombre trop important d'expressions-clés. Il s'agit de titres constitués d'une série de mots-clés ou de plusieurs séries d'expressions-clés, ne donnant pas assez envie à l'internaute de cliquer.
  • une répétition systématique du ou des mots-clés principaux de la page dans toutes les balises h1, h2, h3

Le contenu (texte)

  • un texte écrit avec l'idée que plus on répète les mots-clés, mieux c'est : ce qu'on appelle le keyword stuffing (bourrage de mots-clés). Ceux qui me lisent depuis longtemps savent que cette stratégie n'a jamais payé avec Google. Mieux vaut rédiger naturellement (en utilisant malgré tout quelques bonnes méthodes).
  • des textes qui ne veulent même plus dire grand chose. Faites attention par exemple aux techniques de content spinning (à moins qu'il soit de très haute qualité, ce qui est rare, et encore je vous le déconseille sur votre propre site)
  • des pages saturées de publicités au-dessus de la ligne de flottaison

Les liens situés sur le site (internes ou externes)

  • trop de liens sortants vers des sites de mauvaise qualité (ou pire, pénalisés par Google)
  • des liens internes utilisant tout le temps la même ancre (texte du lien), parfois répétés plusieurs fois dans une même page. C'est ce qu'on obtient en général quand on utilise des outils qui insèrent des liens automatiquement dans les contenus.

Complément

Comme vous pouvez le constater, aucun de ces critères n'est nouveau et la plupart sont largement sanctionnés par Panda depuis 2011.

Toujours à propos des aspects on-site, je pense pour l'instant que Google Penguin ne tient pas compte :

  • des données whois (registrar) et globalement de tout ce qui peut être associé directement au webmaster. Mais sur ce point je suis preneur de retours d'expérience car je n'ai pas eu le temps de faire des tests approfondis
  • du CMS utilisé (par exemple, WordPress n'est pas plus risqué qu'un autre système)

Les critères off-site (ou off-page) : netlinking

Voici d'après mes analyses actuelles les éléments négatifs externes au site pris en compte par Penguin. J'ai essayé de les classer en mettant en premier les critères a priori les plus importants.

Les ancres des backlinks

  • trop de backlinks dont l'ancre (le texte de lien, anchor text) contient exactement (ou presque) la requête phare de la page de destination. Dans ce cas, la page ne sort plus dans Google pour cette(s) requête(s)
  • trop de backlinks venant de commentaires ou signatures de forums avec soit un anchor text ultra optimisé, soit un pseudo pas trop optimisé mais sur un blog totalement hors thématique.

Si vous avez été pénalisé, il faut absolument faire un audit approfondi des ancres de vos backlinks. Elles doivent toutes être analysées pour savoir notamment si elles contiennent votre marque, des mots-clés ou autre chose.

La qualité des sites backlinks

  • trop de backlinks venant de pages hors thématique, ou de pages qui certes sont dans la thématique mais de façon isolée sur le site. Prenons le cas d'un site de CP : une page A est publiée, elle contient un lien vers une page B d'un autre site. Certes elle est dans la thématique de la page B, mais sur le site de CP elle semble isolée, peut-être la seule à aborder cette thématique (ce qui est assez étrange pour un site normal).
  • trop de backlinks venant de sites de CP (communiqués de presse) de qualité moyenne ou faible. Je pense que les quelques cas rapportés de sites non pénalisés malgré des backlinks issus de CP correspondent aux cas où les sites de CP et les textes publiés sont de bonne qualité. Cela dit je pense qu'avec le temps Google réduira la puissance de linking pour la plupart des sites de CP (car le principe de ce type de site est de contourner l'algorithme de Google).
  • les liens issus des annuaires ne semblent pas être visés même s'il y a pas mal d'exceptions. Sans doute que la notoriété de l'annuaire compte plus qu'avant. Il faut aussi noter que plusieurs vagues de pénalisation d'annuaires ont déjà eu lieu dans les années passées. Néanmoins, si vous avez beaucoup de liens depuis des annuaires à notoriété faible, mieux vaut les faire supprimer.
  • trop de backlinks venant de sites rédigés dans une autre langue que le site qui les reçoit

Les liens achetés et les réseaux de sites backlinks

  • backlinks achetés (on passe de côté la question Comment Google peut-il être certain qu'un lien a été acheté/vendu..)
  • trop de backlinks issus de sites identifiés comme appartenant au même propriétaire et reliés entre eux par des liens (réseaux de sites trop visibles). L'adresse IP du serveur n'est pas du tout la seule à entrer en ligne de compte pour cette analyse.
  • trop de backlinks basés sur un principe de linkweel

Et le social dans tout ça ?

Pour l'instant je ne suis pas convaincu que les aspects sociaux jouent un rôle important dans l'algo du pingouin. Pour les aspects négatifs, peut-être n'ai-je pas eu l'occasion de tester des cas de spam évident via les réseaux sociaux. En fait je suis plutôt de ceux qui pensent que les réseaux sociaux jouent un rôle d'atténuation des sanctions. En gros, si vous avez des mauvais backlinks mais une excellente visibilité sur les réseaux sociaux, plein de partages et likes, alors vous pouvez espérer être épargné.

Les consignes officielles de Google pour un référencement de qualité

Si vous souhaitez respecter à la lettre les règles de Google, en voici un rappel (source) :

Évitez les techniques suivantes :

  • Contenu généré automatiquement
  • Participer à des systèmes de lien
  • Techniques de dissimulation (cloaking)
  • Redirections trompeuses
  • Textes ou liens cachés
  • Pages satellite
  • Contenu détourné
  • Participer à des programmes d'affiliation qui n'apportent pas une valeur ajoutée suffisante
  • Multiplication de mots clés non pertinents sur les pages
  • Création de pages générant des opérations malveillantes, telles que des tentatives de phishing ou encore l'installation de virus, de chevaux de Troie ou d'autres programmes malveillants
  • Utilisation abusive des extraits enrichis balisés

Ressources

Pour vous aider si vous êtes touché (pénalisé), voici quelques pistes :

Questions réponses

Si vous avez des questions, posez-les en commentaires !

Que signifie vraiment "Pingouin en temps réel" ?

Avant cette version, pour avoir une chance de récupérer de la visibilité perdue avec une mise à jour de Pingouin, il fallait attendre une autre mise à jour. Désormais, à chaque fois que Google recrawle et met à jour l'indexation de votre page, l'algorithme évalue son positionnement en tenant compte des critères de Pingouin. Etant donné qu'il repose essentiellement sur les backlinks de cette page, il n'y aura vraiment des changements que si Google a également recrawlé les pages qui lui font ou faisaient des liens.

Faut-il encore utiliser l'outil de désaveu ?

  • Si vous avez une pénalité manuelle pour liens entrants "factices", alors oui vous allez devoir désavouer ces liens artificiels.
  • Sinon, cela ne semble plus être nécessaire (Google ne tient pas compte des liens artificiels qu'il repère).

Lisez bien mon article avant d'utiliser l'outil, pour éviter de faire des erreurs...

Existe-t-il encore des pénalités manuelles ?

Oui, l'arrivée de Penguin temps réel ne change rien au fait que l'équipe qualité de Google peut parfois attribuer une "action manuelle" pour cause de liens artificiels (source).

L'impact est-il mondial ?

Oui, Penguin 4.0 est sorti dans le monde entier, pour toutes les langues (source).

Y aura-t-il d'autres mises à jour de Pingouin ?

Non, sauf changement majeur sur lequel Google souhaiterait communiquer, il ne faut plus s'attendre à avoir d'annonce de mise à jour. Même si on est content d'avoir enfin une réactivité très forte avec le temps réel, le gros inconvénient est que l'on ne sait plus rien de ce qui se passe... Il sera désormais très difficile d'identifier si un problème de référencement Google vient de Pingouin (ou de Panda qui est également intégré dans l'algo).

Pour en savoir plus : updates et algos de Google

Pourquoi mon site ne sort pas de sa pénalité Pingouin ?

Si vous avez fait un gros nettoyage dans vos backlinks depuis 2014 et que Pingouin 2016 ne vous fait pas sortir de la pénalité, c'est que :

  • il faut encore attendre un peu, Penguin 4.0 vient tout juste de sortir
  • vous n'avez pas assez bien nettoyé les mauvais liens
  • et/ou Google n'a pas encore recrawlé les pages où les mauvais liens ont disparu (ou ont été modifiés ou désavoués)
  • et/ou certains de vos backlinks sont désormais de mauvaise qualité, alors qu'ils étaient corrects il y a 1 an (les sites ont pu changer, et l'algo de Google a évolué vers moins d'indulgence)

Google a-t-il aussi modifié ses consignes sur les liens ?

Non, elles n'ont pas changé et Google l'a bien précisé dans son article. J'en reparle un peu plus bas dans cette page.

Historique des versions de Google Penguin

Penguin 1.0 (24 avril 2012)

Le 24 avril 2012, coup de tonnerre dans le SEO ! L'annonce a été faite par Matt Cutts, qui s'est employé à essayer de définir le référencement white hat par opposition au black hat (ce qui suscite beaucoup de réactions...). C'est surtout le netlinking qui est visé, tout particulièrement les sites de CP (communiqués de presse) semble-t-il.

Matt Cutts, responsable du pôle antispam chez Google

Matt Cutts a précisé qu'il n'aurait pas dû parler de "suroptimisation SEO" et indique que chez Google on l'appelle la mise à jour de l'algorithme luttant contre le webspam (webspam algorithm update). Mais concrètement dans son article, il fait clairement la distinction entre le bien (le white hat) et le mal (le back hat). Pour ceux qui ne le sauraient pas encore, la définition du black hat est sujette à controverse mais en gros on parle de technique black hat quand elle ne respecte pas les consignes du moteur (Google dans ce cas).

Cet update est en cours et pourrait prendre plusieurs jours à se stabiliser. Depuis le 25 avril au matin en France, il y a de gros changements de positionnement. Mais cet update n'est pas responsable des changements du 20 avril, ces derniers étant en fait liés à la sortie de la version 3.5 de Panda.

L'impact fut de 3% à 5% des requêtes selon les langues (dont moins que pour Panda mais important tout de même). Consultez les explications officielles en anglais ou en français.

Comme des dizaines d'autres membres de WebRankInfo, donnez votre avis et vos retours d'expérience dans les commentaires ou dans le forum : filtre Google webspam algorithm update.

Penguin 1.1 (26 mai 2012)

Selon Matt Cutts, il s’agit de la toute première mises à jour de Pingouin, ce qui peut paraître bizarre car nous sommes plusieurs à avoir rencontré des changements intermédiaires sur des sites pénalisés le 24 avril. Il précise qu’il ne s’agit que d’une mise à jour des données, et donc pas de l’algo en lui-même.

Google Penguin Update
La mise à jour Penguin de Google vise le webspam

Toujours d’après le boss de la lutte contre le spam chez Google, cette mise à jour ne toucherait que 0,1% des requêtes en anglais. Aucune précision n’a été fournie pour les autres langues. Initialement baptisée Pingouin 1.1, on y fait désormais référence sous le libellé Pingouin 2.

A quoi peut bien correspondre cette v2 si elle touche aussi peu de cas ? Pourquoi Google n’a-t-il toujours pas sorti de correction à son algo Pingouin, alors que de nombreux exemples d’échecs lui ont été fournis ?

Enfin, cette annonce confirme que malheureusement, le manchot de Google ne prend pas en compte en continu les modifications des webmasters. Comme Panda donc, il faut attendre à chaque fois qu’une nouvelle version sorte pour savoir si les optimisations ont été efficaces…

Penguin 1.2 (5 octobre 2012)

Selon Matt Cutts (source), il s'agit d'une simple mise à jour des données, et donc pas de l'algo en lui-même, alors qu'il avait fait trembler le monde SEO en prédisant que cette mise à jour serait énorme... Toujours d'après le boss de la lutte contre le spam chez Google, cette mise à jour ne toucherait que 0,3% des requêtes en anglais. Peu de précisions ont été fournies pour les autres langues, mais il a néanmoins précisé que c'était environ 0,4% pour le français et l'espagnol, 0,3% pour l'italien.

Penguin 2.0 (22 mai 2013)

On l'attendait pour le mois de juin, il est venu avec un peu d'avance finalement.

Pour une fois, Matt Cutts l'a annoncé sur son blog, ce qui est étonnant dans la mesure où ce n'est pas un site officiel de Google. Il a précisé que la mise à jour est totalement déployée partout dans le monde et pour toutes les langues. Certaines sont plus touchées que d'autres, mais pour ce qui concerne l'anglais, environ 2,3% des requêtes sont concernées (lire les explications sur la méthode de calcul).

C'est la 4ème mise en ligne de Pingouin. Remarque : je sais bien que Penguin se traduit par manchot mais la plupart des gens font référence à cet algo sous le nom Pingouin... Désolé pour les puristes !

Au passage, sachez qu'en interne chez Google, ils n'appellent pas cette version "Penguin 4" mais Penguin 2.0. C'est sans doute une manière d'expliquer que c'est un gros changement dans l'algorithme de Pingouin... En mars 2013, Matt Cutts avait déjà indiqué que Pingouin 4 serait une mise à jour majeure.

Penguin 2.1 (4 octobre 2013)

Cette nouvelle version est sortie quasiment jour pour jour 1 an après la v3 de 2012. Pour l'instant on ne sait rien d'autre que ce qu'a annoncé Matt Cutts sur Twitter :

Penguin 2.1 est en place depuis aujourd'hui 4 octobre 2013. Pour environ 1% des requêtes c'est très visible dans les résultats.

Je fais actuellement tourner mes analyses pour tenter de voir ce qui a pu changer : est-ce simplement un data refresh (prise en compte des nouvelles données pour réévaluer les sites) ou bien Google a-t-il rajouté des critères dans son algo, ou renforcé certains ? Pour l'instant, je pense plutôt qu'il s'agit du second cas, car pour certains sites c'est assez violent.

Penguin 3.0 (17 octobre 2014)

La mise à jour Google Pingouin 6 est officiellement en place depuis la nuit de vendredi 17 à samedi 18 octobre 2014. Cet update de l'algorithme de Google vise à pénaliser les sites qui ne respectent pas ses consignes de référencement naturel, particulièrement sur les backlinks.

Cette nouvelle version est sortie après plus d'un an d'attente, depuis le 4 octobre 2013. Je fais actuellement tourner mes analyses pour tenter de voir ce qui a pu changer et évaluer ce que Google a pu ajouter comme critères dans son algo, ou lesquels ont pu être modifiés. Il semblerait que l'impact soit pour l'instant assez faible, et vous, que constatez-vous ? Dites-nous dans les commentaires ce que ça donne, ou bien dans la discussion sur Pingouin 3.0 sur le forum WRI.

Penguin 4.0 (23 septembre 2016)

Il s'agit de la version "temps réel" décrite en début d'article. On discute de Pingouin 4.0 dans le forum.

Comment Google calcule-t-il le pourcentage d'impact sur les requêtes ?

D'après SearchEngineLand, le pourcentage indiqué (par Matt Cutts sur Twitter en général) correspond aux cas où les changements provoqués par l'update sont repérables par les internautes (noticeable). D'après un tweet de Matt Cutts, cela pourrait correspondre aux cas où les changements se voient au-dessus de la ligne de flottaison (above the fold), c'est-à-dire avant que l'internaute ait besoin de faire défiler les résultats (scroll).

Voilà le tweet concerné :

Basically. Swapping a #10 result for a different #10 result might not be noticeable. Swapping out in (say) top 5 ->more noticeable

Les référenceurs sont souvent étonnés par les pourcentages officiels fournis par Matt Cutts, les trouvant bien plus faibles que la réalité. On n'a pas vraiment l'impression que seulement 0,4% des requêtes soient concernées...

Par contre il ne faut pas confondre avec l'impact du changement pour le cas où une requête est concernée. Ceux qui ont été pénalisés savent que la baisse de positionnement peut être très importante.

Cet article vous a-t-il plu ?

Note : 4.4 (5 votes)
Cliquez pour voter !

Si vous avez des questions, posez-les dans le forum WebRankInfo.

Si vous préférez du consulting, j'en propose sur mon site WebRankExpert.

187 commentaires

Olivier Duffez

@artnum : pour ma part, je continue de désavouer les liens artificiels (et d'ignorer les mauvais liens mais non prévus pour booster le SEO)

Jérémy

Oui mon domaine est bien un EMD Olivier.

Cordialement Jérémy

PierreDuchemin

Personne pour commenter l' affirmation de début septembre de J. Mueller suite à des grosses variations de début à mis septembre.

"John Mueller a indiqué que la mise à jour de ce week end n'était pas pingouin"

Comme quoi ils nous prennent vraiment pour des gogos chez ggle.

Un peu d'humilité ne leur ferait que du bien

Olivier Duffez

@Pierre : peut-on avoir l'URL de la source de l'info ?

Jérémy

Bonjour Olivier,

Pour ma part, aucun grand changement sur mon site (perte de seulement 1 ou 2 places) je suis passer de la 3eme place à la 4eme sur "creation logo". Je suis assez satisfait de mon référencement SEO pour le moment sachant que mon site à 2 ans. Par contre je vois encore des concurrents avec des sites très bien positionnés, alors qu'ils utilisent des contenus générés automatiquement.

Par contre pour un autre de mes sites pénalisés en 2014, il n'est jamais revenu au top en reste en 2eme page.

Olivier Duffez

@Jérémy : merci pour ton retour d'expérience. Sans vouloir révéler ton nom de domaine, peux-tu confirmer qu'il s'agit d'un EMD (nom de domaine pur mot-clé) ?

Phil

Merci pour ta réponse :)

Quand tu dis "beaucoup de liens" pour prendre une fourchette large et avoir une idée de grandeur ce serait:

+ 300 liens ? + 1000 ? 100 000 ?

ou tu raisonnerais plutot en proportion(valeur relative) de liens acquis / perdus par ex un site qui aurait 1500 liens sur un mot cla et qui en perdrait 1000 ?

Désolé pour toutes ces questions mais c'est passionnant :)

Olivier Duffez

@Phil : c'est impossible de donner des chiffres qui se vérifient partout. D'ailleurs, je ne parle pas de nb de liens mais plutôt de nb de sites qui font des liens. Mais c'est surtout le type de liens, l'intention derrière chaque lien.
Cela dit, un site qui a 1500 liens sur un mot-clé, ça s'appelle du spam et je doute fortement que ce soit naturel.

Phil

Olivier,

Dans la section "Pourquoi mon site ne sort pas de sa pénalité Pingouin ?"

Tu précises les facteurs qui empêchent la sortie de la pénalité.

Quand je fais le tour des personnes qui auditent régulièrement des sites sur internet je retrouve au moins deux sons de cloche:

1) Ceux qui disent que suite à une levée de pénalité la page se retrouve dans le classement qu'elle mérite en tenant compte des backlinks et autres critères qualité...ce qui voudrait dire qu'il n'y a pas de raison qu'on ne ne dépasse pas nos concurrents si on est juste "meilleurs que nos concurrents sur les mêmes critères"

2) Ceux qui affirment qu'un site qui a eu une pénalité un jour est plombé à vie et que si on progresse, on traine un boulet infini qui nous empêche de truster les toutes premières places.

Avec ton expérience, quelle est ta position sur ce point ?

Merci d'avance :)

Olivier Duffez

@Phil : il faudrait déjà distinguer les pénalités manuelles et algorithmiques (on peut difficilement parler de "levée de pénalité" pour de l'algo).
Ensuite, comment peut-on espérer revenir au même niveau de visibilité après avoir retiré plein de liens ?
Enfin, ça dépend beaucoup de la gravité du problème : un site qui avait une large majorité des liens artificiels, qui les a créés pendant longtemps, aura en effet vraiment du mal à revenir au top.

Phil

Salut Olivier,

Après avoir traversé 1 an à 15 visiteurs/jours, google m'annonce me placer désormais 1er sur 104 expressions.

Le nombre de clics a vraiment augmenté mais je ne saurais dire si ce n'est "que" Penguin, j'avais surement un site pénalisé sur le contenu aussi.

Gros travail fait.

une expression/5 des plus importantes où j'ai retrouvé "ma" première place.

Après je me méfie et je me dis qu'il y a du boulot encore.

Je me garde de crier victoire, selon moi on pourra plus parler de l'impact d'un filtre mais de l'ensemble.

il faut voir à une semaine ce qui se passe en terme de trafic/positions/expressions principales.

Pour le travail fait = supprimer 2/3 de mes domaines référents, mais "aussi" passé 40% de mes pages en no index, et réécris 25 % des titres de pages indexées + à peu près 10% des H1...

Donc travail sur les liens oui mais aussi sur la structure et pages du site dont éléments de "qualité.

J'ai même fait des choses abherrantes: mettre deux infographies qui étaient partagées sur les réseaux sociaux en no index en attendant peut être de rajouter du texte sur la page...

J'ai eu des liens d'étudiants soutenant leur thèse ou Master, et aussi 2 ou 3 liens de pages francophones de pays étrangers pleine thématique (liens naturels).

C'est très peu mais ca a peut être joué, j'en sais rien...

Voilà tout ce que je pouvais en dire pour auj ;)

Olivier Duffez

Merci Phil pour se retour d'expérience, espérons que le trafic progresse avec ce nouveau Penguin

STEVE

Bonjour de mon côté j'ai une perte de trafic significative à peu près 15 à 20 %.

Cela correspond aux dates que vous donnez en Octobre. Nous sommes le 25 11 2015 et ca fait 3 semaine que mon trafic est tombé.

Du coup, je fais attention à l'écriture des nouveaux articles. Je vais faire attention aux ancres de backlink interne. J'ai très peu de netlinking externe.

Comment faire pour sortir de la pénalité. Dois je reprendre tous mes articles ?

Olivier Duffez

@STEVE : il faudrait lancer une discussion dans le forum en indiquant l'URL du site, ça permettrait aux autres membres de WebRankInfo de donner leur avis et leurs conseils. A priori si c'est bien un pb avec Pingouin, il faut plutôt chercher du côté des backlinks.

boby

jo00895 : regarde le linking de tes concurrents, ils te sont ptetre monté devant grâce à ça. S'ils ont publiés dans des blog thématiques, sont apparu sur des sites de presse, gouvernementaux ou ont une page wiki ...
Essais de faire comme eux.
Sinon j'attends aussi voir ce que ça donne. Tous mes sites sont montés (les concurrents devaient faire nawak) sauf un où on a des liens en footer des liens en images et bc trop de liens sur des sites de qualité moindre, ce n'était pas des sites pénalisés par Google et ils restaient dans la même thématique que le client mais c'est pas passé. Va falloir que je supprime tout ça ^^'

jo00895

De mon côté, la nouvelle mise à jour a impacté mon site négativement, une perte de position entre 2 et 10 places suivant les mots clés.
Pourtant je n'utilise pas de technique black hat, la chute brutale c'est faite ressentir entre le 19/10/14 et le 20/10/14, je vais attendre un peu pour voir l'évolution mais cela reste inquiétant ...

emma75

@vaxo
merci de ta réponse.

dont cela laisse a penser que ceux qui ont des campagnes gg ads doivent les baisser (les mettre en veille)pour le dieu GG se réveille et soit sympa avec nous?

Vaxo

@emma75 : Adil a raison c'est pour faire grimper les adwords aussi.

Par contre, je ne pense pas que l'algo tienne compte de Adwords.

Simplement, le fait de faire tourner les sites permet de créer de nouveau clients...

Site A est 1er en ref naturel : Si il passe page 10 il sera tenté de prendre de l'adwords pour continuer l'activité.

Site B est page 10 en ref nat et n'a jamais fait d'adwords : Si il passe 1er il va être tenté de commercialiser ce produit. Si il se fait virer 1 an plus tard. Il continuera peut etre a vendre ce meme produit avec des adwords...

Faire faire le YOYO aux sites web est bon pour GG.

Vous souhaitez que vos ventes soient stables ? => adwords
Vous souhaitez serrer les fesses chaque mois ? => ref naturel only !

Ce qui limite la casse est que vos clients habituels ont les cookies de Google sur leur navigateurs...Si ils ont l'habitude de cliquer sur votre site ils vous voient toujours sur le moteur.

Ps:C'est comme les impôts, c'est une question de dosage car trop d’impôt tue l’impôt... Google ne va pas nous tuer...Mort on ne paiera plus...lol

emma75

@adil

pourtant j'ai perdu 20 pages sur Google et j'ai des campagnes adwords depuis trois ans......pour ce qui est d es gens qui ne références pas leurs site oui je suis ok avec toi par contre Google nous tue

Adil

Personnellement je pense que google a fait cette étapes pour rafraîchir son "AdWord". il a mis ceux qui référence pas leurs site ou ceux qui ont peux de backlinks dans les premier position et le contraire pour ceux qui font la seo nature. tt simplement un geste de commercialisation.
pourtant ma position est toujours stable dans les autres moteur de recherche, bing, yahoo etc...

Amina

Google m'a tué LOL, dernièrement je vois site après site disparu du classement de google sur tous les mots clés à cause de ces nouveaux updates de google. et cette nouvelle mise à jour a touché un autre site qui a disparu totalement. Ben on sait pas encore GG va nous amener où.

emma75

@Alexis VARTIER

bonjour,

merci de t'intéresser à ma question, je me sens 1 peu moins seule et perdue...
bah on est une petite pme (4 personnes et nous avons 3 sites) j'ai toujours assuré un bon référencement suivant tous les conseils que j'ai cherché (sur webrank par ailleurs) pendant des semaines il y a de cela euh... 7 ans
(par ailleurs j'aide bénévolement une association a coté pour son référencement)
ce n'est pas mon "métier" mais j'avais de très bonnes bases disons qui me permettaient d'être en 1ere page.

les noms de domaines ont étés achetés il y a de cela 3 ans on renouvelle chaque année (a part cet été au mois d'aout ou j'ai renouvelé pour 2 ans) en prévision des nouveaux référencements Google...

des méthodes blak hat euh disons que la densité sur un mot clef montait a 5/7 % ce qui était recommandé (ainsi que sur les titres les liens et les descriptions) mise a part cela .... pas de mots clefs bourrés en blanc dans mon site NON

sinon alexis je ne sais pas par quel bout prendre la chose...

magestic seo prend il en compte les modifs de référencement de Google?

QUI pourrais m'aider a analyser et faire une recommandation ?
je peux rendre service aussi

Alexis VARTIER

@emma : "les sites qui ont grimpé sont ceux des concurrents avec une seule page parlant de notre domaine (bizarre)"

Soit tu as probablement été victime d'un blast, soit tu as payé un service SEO de très mauvaise qualité (fiverr ou société aux méthodes black hat de mauvaise qualité). Depuis quand as-tu ton nom de domaine ? Quels sont les ancres de tes backlinks ? Tu ne donnes pas assez d'infos.

emma75

bonsoir a tous,

pour ma part nous sommes passés ce week end de la 1 ere position a la page 19.(pour un petit site d'une petite pme...°.....peut etre le contenu n'est pas assez riche pour google ou prefere t'il les grosses sociétées? la je suis sure 'avoir besoin de tous j'ai passé la journée a comprendre je crois que (pour els grandes lignes) j'ai compris je vais y passer des semaines le temps de tout ré ecrire, (title, description , kw, textes , liens cliquez ici au lieu de liens compréhensibles quelle bizzarerie)

les sites qui ont grimpés sont ceux des concurents avec une seule page parlant de notre domaine (bizarre)

je suis le fil n'hésitez pas a poster

devons nous totalement oublier les key words?

emmanuelle black monday ....

Vaxo

J'ai pris une claque avec le 1er pingouin. Je suis passé sur mon mot clé de 1 à 7.

Je suis ensuite remonté à la 3eme place.

Cette fois ci je suis passé 16eme. Surement du a une grande quantité de liens "footer".

Est ce que vous pensez que c'est une penalité ? Ou est ce que c'est rattrapable avant le prochain pingouin update ?

Le thème est l'assurance. Dans le top 5, 3 sites ne proposent même pas le type de contrat recherché... Pour la pertinence c'est à revoir.

Les sites qui sont bien monté sont des pages internes de grosses boites d'assurance. Ces pages ne reçoivent aucun lien mais font partie de sites PR6-7...

Plus qu'une réelle avancée en pertinence, je pense que c'est un réel travail effectué par Google pour découragé les "referenceurs naturels". Il n'y a plus aucune logique dans le classement.

Je pense qu'avoir trop de liens est d'emblée suspect.

Marco

Grosse nouveautés dans cette mise à jour Google Penguin 2.1, Google désormais déclasse certaines URL pour les remplacer par d'autres bien plus pertinentes pour l'internaute. Via une analyse effectuée sur 5 sites e-commerce, le constat est le même. Des pertes de places mais un positionnement modifié et des URL plus pertinentes positionnées.

Alexis

Un concurrent a perdu 15 places pour son mot-clé principal. Son site est introuvable pour les autres mots-clés (alors qu'il se classait en première page à chaque fois). Il a été pénalisé sur Google+ Places, où il ne ressort plus du tout. Secteur très concurrentiel.

Son profil :
- moz Page/Domain authority élevé
- Google Authorship activé (photo visible), mais photo prise de istockphoto.com
- Faux nom dans le authorship
- Faux avis postés sur Google+ Local (probablement des comptes secondaires)
- Pas d'abus au niveau du anchor text (principalement du brand name), mais un BL profile très suspect :

Beaucoup de liens sitewide complètement hors sujet (incluant un site adulte), beaucoup de liens en provenance d'annuaires et de CP.

Conclusion : de la sur-optimisation et du black hat très sale (mal fait) qui lui ont coûté cher alors qu'il trustait la première page assez aisément.

12h12

Bonjour,

Pingouin 1 a fait tomber un site de la 2eme page à la 50ème page sur un requête principale.

J'ai donc "abandonné" ce site, arrêté de l'alimenter. Je n'ai rien fais je le jure, ni enlevé les backlinks, ni changé les tags et titres et... Pingouin 2.1 vient de me le faire remonter en 1ère page 4ème position :-)

Et les concurrents principaux sont à la même place qu'avant, ils n'ont pas été touchés si ce n'est qu'ils ont perdu 1place que je leur ai piqué.

J'aime bien comprendre pourquoi un site tombe, mais j'aimerai bien comprendre pourquoi un site remonte aussi fort et aussi haut.

Bonne chance à tous

Vincent

Bonjour Olivier,

Mon site e-commerce a été fortement impacté par la mise à jour de vendredi dernier (environ 50% de trafic en moins).

Seule la page index de mon site semble avoir été touchée. Les positionnements obtenus avec des pages internes n'ont pratiquement pas bougé, ou augmenté dans certains cas.

La page index vise un mot clé principal et concurrentiel. Je suis passé de la page 1 à la page 7 pour ce mot clé principal.

Toujours avec la page d'index, pour les autres expressions incluant ce mot clé "achat mot clé" "vente mot clé" "boutique mot clé"... la baisse est de 3 à 5 places pour les expressions placées jusque là dans le top 5.

Je pense connaitre la cause de cette pénalité (inscription en nombre durant l'été dans des annuaires de piètre qualité). Les liens sont en passe d'être tous effacés.

Mes questions sont donc les suivantes :

- Combien de temps va mettre Google pour prendre en compte mes modifications ?

- Certains SEO renommés pensent qu'un site pénalisé ne récupère jamais ses classements précédents. Faut il faire table rase et tout transférer sur un nouveau domaine ?

Olivier Duffez

@Vincent : même si dans de rares cas certains ont dit avoir réussi à se sortir d'une pénalité algorithmique Pingouin en dehors des dates officielles, c'est extrêmement rare. Il est donc probable qu'il faille attendre la prochaine mise à jour (au mieux).
Je suis d'accord avec ces experts SEO qui disent que parfois il est plus efficace de repartir de zéro avec un nouveau nom de domaine. Mais il ne faut pas se tromper dans l'analyse avant de conseiller cela (il faut étudier tout le profil de backlinks en détails).

Eric

Merci pour votre réactivité Olivier, sinon pour les actions qui ont été qui ont été effectués auparavant, serait-il nécessaire de faire une nettoyage de BL? Merci

Olivier Duffez

Oui bien sûr Eric, il faut être certain qu'il ne reste plus de backlinks que Google pourrait juger artificiels. Il faut donc faire un nettoyage de backlinks...

Alexis VARTIER

@Kevin : Matt Cutts disait lui-même que les CP n'ont pratiquement aucune valeur en SEO (libre à nous d'y croire ou non, mais mon avis va aussi en ce sens).

Quand tu regardes le contenu d'un CP classique, tu vois plein d'articles postés le même jour (disons une trentaine) sur des thèmes complètement différents : bâtiment, cigarette électronique, nourriture... Je ne vois pas de plus-value qualitative là-dedans. Le SEO de 2013 repose sur la qualité, et non la quantité de backlinks (un coup d'Ahrefs sur les concurrents et tu verras qu'ils sont pas classés en fonction de la quantité de BL).

Mais c'est bizarre que tu aies perdu autant de place sur les mots-clés. Tu places les CP en Tier 1 ou Tier 2 ?

Kevin Papot

@Olivier
Merci pour cette répondre qui je pense, va n'être que positive pour l'avenir!
Je reviens malgré tout vers toi, c'est des techniques qui sont très connues mais peut être dépassées? Que nous recommanderais tu ? Je ne te cache pas que ton conseil pourrait nous être fortement apprécié!
Je te remercie beaucoup par avance,

Kevin Papot

Salut Olivier,

Merci pour ta réactivité sur la MAJ, on a pu constater de lourds impacts sur 2 de nos sites depuis aujourd'hui.
Sur le premier, nos 10 mots-clés on subit entre -10 et -90 positions.
Pour le second, sur 30 mots-clés, 10 ont été impactés allant de -10 et -50. Sur Google webmaster tools, aucun message ne nous a été envoyés pour nous indiquer un quelconque dysfonctionnement ou problème.
Nous faisons régulièrement des CPs en ligne mais quelles sont les référenceurs qui n'en font pas ? Lorsque des sites de notoriété relaient une information, elle est reprise automatiquement par des journaux spécialisés en ligne, ce qui génère donc du dupplicate content etc... et pourtant, aucun impact n'est visible sur ces sites.

Est-ce que tu aurais une idée sur la question ?

Merci par avance,

Olivier Duffez

@Kevin : à mon avis il est temps d'arrêter les CP et de passer à autre chose... C'est la 5ème version de Pingouin, il ne faut pas attendre la 10ème pour se remettre en cause et changer de stratégie

Eric

Bonjour Olivier
Je vous remercie pour cette information,
Je viens de vérifier la positionnement de mes sites, tous mes site sont concernés et l'impact est NÉGATIF. Avant, j'étais en premier page 2ème position avec 4 mots clé et maintenant je suis au 54 et 60ème position. pour moi, j'ai l'habitude de soumettre mes sites sur des divers annuaires (généraliste, spécialisé...etc) même les annuaires PR 0? qu'est ce que je vais faire?? merci pour votre aide!!

Olivier Duffez

Eric, il serait temps d'arrêter les soumissions dans les annuaires...

Sylvain Richard

Des tas de petites hausses un peu partout sur une cinquantaine de domaines suivis. Sans doute liées aux baisses de la concurrence.

Une grosse remontée d'un de mes EMD qui revient dans le top 3 pour deux requêtes phares. J'avais supprimé beaucoup d'ancres exactes pour mettre le domaine en ancre à la place durant les 6 derniers mois (le domaine est un exact match, mais en un seul mot sans tiret alors que la requête principale est en 2 mots).
J'ai aussi l'EMD d'un client qui est bien remonté.

Au sujet du pourcentage de requêtes touchées, l'explication de Matt concernant l'impact sur ce qui se voit au dessus de la ligne de flottaison me fait rire. Sur toutes les requêtes commerciales qui ont du google shopping, au mieux il n'y a qu'un résultat above the fold :-)

Al

Salut Olivier,

Tu as été super réactif concernant la MAJ.
A priori, pas de changement particulier sur notre site pour le moment.

Nous allons analyser ceci cependant.

A quel période pense-tu que sera réalisé une MAJ Panda ?

Merci

Olivier Duffez

@Al : je ne sais pas pour Panda, mais justement je me disais cette semaine que ça fait bien longtemps. Peut-être que Google ne souhaite pas nous indiquer toutes les màj ?

Kolok

"trop de backlinks issus de sites identifiés comme appartenant au même propriétaire et reliés entre eux par des liens (réseaux de sites trop visibles). L'adresse IP du serveur n'est pas du tout la seule à entrer en ligne de compte pour cette analyse."

J'ai un site principal, un blog, un tumblr pour mettre les meilleurs photos des produits d'occasion que l'on vend un FB et un twitter. Le tout relier avec des liens author.

Le manchot peut il considerer cela comme malhonnette et disproportionné ?

Olivier Duffez

non Kolok, je ne pense pas que cela pose de soucis. Evidemment il faut que le site ait plein d'autres sites faisant des BL de qualité, pour que les liens du réseau soient ultra minoritaires

Ozili

Juste concernant WordPress, c'est le CMS que j'utilise de préférence, et concernant le référencement, il n'y a vraiment pas de problème, il suffit de faire les choses correctement

Responsive Mind

Toujours cette histoire de mix et de diversité... a-t-on une source fiable des pourcentages à affecter à chaque type de lien ?

Renaud

Merci pour cet article, mais à quel nombre évalues-tu "trop" de backlinks ?
Si le travail est humain de 1 à 5 commentaires sur des blogs chaque jour) et plus ou moins thématisé je ne pense pas qu'on obtienne de pénalité, contrairement aux outils qui pourrissent 10.000 blogs en 1/2H.
Qu'en penses-tu ?

Olivier Duffez

C'est surtout en proportion des backlinks qu'il faut calculer ça. Les liens dans les commentaires n'aident pas tant que ça et doivent être minoritaires dans le profil de backlinks.

mia

Salut, j'ai arrêté les communiqués de presse il y a au moins 2 ans, je pense que c'est ca qui m'a permis d'éviter une sanction de la part de Pingouin mais aussi Panda :)

@Nutribody, évites les cp au maximum, optes plutôt pour du Guest Blogging ou bien créer un site de cp dans ta thématique, je pense que c'est la meilleure solution ;)

Nutribody

Excellent article, comme d'habitude d'ailleurs ... ! J'aurais juste une question par rapport aux communiqués de presse qui n'ont pas été impactés par l'algo, est ce que c'est possible que vous en listiez quelque uns ?

Merci d'avance.

vlad

Bonjour,
J'ai une question sur le terme "trop" de BL provenant de sites de CP ou de commentaires postés sur des sites hors thématique. J'imagine bien qu'il n'y a pas de chiffrage possible mais est ce qu'on parle en dizaines de BL, en centaines ou en plusieurs milliers

Olivier Duffez

@vlad : c'est surtout en proportion (moins de 10% je dirais) et en qualité (il ne faut pas faire n'importe quoi comme liens)

ela

Moi je mets regulierement des articles en rapport avec les memes themes dans mon site, mais je mets sytématiquement des liens vers les pages ayant un rapport direct avec l'article resultat une page peut se retrouver avec 5 liens pointant vers elle par article! est ce que c'est cela qu'il faut comprendre comme ce qu'il faut pas faire dans la partie "des liens internes utilisant tout le temps la même ancre (texte du lien), parfois répétés plusieurs fois dans une même page."
merci de vos reponses,

Philippe

Bonjour,

J'ai beaucoup chuté sur certain mots clés, j'ai effectué des modifications et je ne vois toujours pas revenir mon site sur ces requêtes.

D'après ce que je lis plus haut il est aussi possible que certains annuaires de mauvaises qualités dans lequel je me suis inscrit puisse en être la cause ?

Olivier Duffez

Pingouin n'est pas en temps réel. Si la baisse est vraiment liée à Pingouin (il faudrait s'en assurer), il faut corriger les problèmes puis attendre une mise à jour de l'algo.

Forum astuces

Bonjour,

j'ai connu une chute littéralement sur mon site, j'ai modifié le titre, le descriptif, et enlevé la moitié de mots clés, j'ai ainsi évité les répétitions, du coup, après l'analyse, je reviens dans les classements moteur de recherche.

Alain

Super article très accessible et merci à tous les contributeurs.

J'ai trois interrogations :
1/ Je fais partie d'un groupement de société.
Nous avons créé un portail pour présenter nos valeurs, nos engagements mais coté thématique nous avons des sociétés sans "points communs" (je suis organisme de formation, à coté il y a un assureur, une banque, un cuisiniste, une agence immobilière...).
Bref nous ne sommes même pas catégories par activité comme un annuaire. Serons-nous pénalisés ?

2/ Sur une discussion ouverte par Agence Tag et à laquelle tu as répondu, si je comprends bien : en bas de page "le créateur de site" pose un lien si possible sur une page interne de son site préférablement à la page accueil (ce que font 99% des webmasters n'ayant pas lu ton excellent article).

3/Depuis la création de mon site et une mini formation, je fais moi-même des mises à jours et publication, je comprends aussi que si plusieurs liens sont fait de mon site vers un autre site il serait préférable d'avoir en cible des pages différentes.

Agence Bel Canto Boulogne

Oui, en effet. Sur "agence communication boulogne" ou nous étions dans les 5 premiers depuis... 2000 (rien que ça ;-), la descente a d'abord été progressive fin avril - debut mai (7, puis 13), pour chuter à... 99 !!! mi-juin puis remontée à 46 début juillet et 34 maintenant...
De là à penser qu'il est urgent de ne rien faire...

Christophe

C'est bizarre, on dirait que l'effet Penguin semble s'estomper avec le temps, peut-être ont-ils ajusté l'algorithme après s'être aperçus qu'ils pénalisaient des sites qui respectaient leur charte de qualité.

En tous cas, il semble y avoir des algorithmes vraiment différents en fonction des pays.

Vandenbosch

Notre site aquarelle.name sur le monde de l'aquarelle a complétement disparu des premières places sur le mot "aquarelle" (avant Penguin nous étions positionné sur les premières pages)
Ce site propose des cours gratuits de qualité sur la technique de l'aquarelle, des liens vers des artistes et associations et des événements, des ateliers et quelques modules.
Nous sommes une association sans but lucratif, donc essentiellement du bénévolat...
Franchement ils nous est impossible de revoir toutes nos pages et liens sans y consacrer un temps précieux, nous avons perdu plus de 60% des visites...
Il n'y à pas trop de perte puisque c'est du contenu gratuit, Mais bon! Si c'est de cette façon que google gére les sites qui essayent de produire du

contenu de qualité et parfois non commercial, POURQUOI SE CASSER LE C..!

Tapez "aquarelle", vous trouverez entre autre site sur l'aquarelle, des marchands de fleurs, des Chocolats, des hotels, des gites, des instituts de beauté,

des aide à domicile et j'en oublie... Nous sommes une association, mais nous n'avons aucune valeur pour le filtre Penguin" Celui-ci semble privilégier les

site commerciaux qui n'ont aucun rapport avec le mot aquarelle...

Garcimore

Bonjour,

Moi toujours aucun effet, j'ai tout sorti ce que je croyais fautif de mon site et toujours rien. Un site super qui est relégué au fin fond du web sur des mots clés capitaux.

Je viens d'essayer un dernier truc : suppression de la page Google+ du site. Si il le faut les liens vers le site ne plaisent pas au bot.
Tant pis pour les abonnés je craque.

Je vous dirai si la suppression de sa page Google+ change le classement.
A+

Isidore

Bonjour,

Webmaster amateur mais qui a passé de nombreuses nuits sur son site pour le rendre populaire et intéressant. N'y connait rien (ou peu) en référencement et a probablement des balises title ou alt un peu gauche... mais on s'en fout...puisqu'un robot intelligent doit savoir corriger les erreurs des webmasters, non ?

Résultat :
Vers la fin avril : de 5ème place "historique" (stable depuis 2/3 ans) à 25ème place
Vers la fin mai : de 25ème place à 50ème place
Ce soir : de 50ème à 130ème place. En fait ça me fait marrer car c'est totalement ridicule...y'a des sites mieux classés dont le mot clef n'a même rien à voir avec le sujet traité...

Il faudra qu'on m'explique la logique vu que je ne comprends même pas ce que veut Google... Heureusement Bing m'apporte pas mal de visiteurs. On va finir par aimer Microsoft lol.

Mon site dispose d'un titre et d'une url similaire et la page d'accueil répête ce mot clef une bonne trentaine de fois (via les commentaires de forums et article) ce qui est logique, je vais pas demander aux internautes de parler de beignets de crevettes si mon site parle de pneux de bagnoles !)
Pas de virus ou autres (WMT m'a dit le mois dernier que mon site était clean)

Bref, c'est déprimant (et j'imagine ceux qui en vivent)
Je vois le côté positif : j'ai appris à critiquer Google...moi qui l'aimant tant !

Fred31

@chiite désolé mais ce n'était pas ma question

tu dis que tu as fait le ménage (désinscription des annuiares), mais pour faire le ménage il faut connaitre tous les liens qui pointent vers toi de manière exhaustive (un simple link:www.xxxxxx.com ne suffit pas)

chiite

comment arrive tu à avoir une liste exhaustive des liens externes ?

--->grace aux echange de lien automatique! tu tapes: echange lien gratuit, et tu verras, c à gogo^^.
Par contre ça rapporte 0 clik pour ton info.Et franchement, j'ai comme l'impression qu'il m'a pénalisé, car au final, j'ai l'impression que c tous les memes annuaires, mais présenté de manière différente.

Cordialement

Guy

J'ai le plaisir de vous annoncer que nous avons enfin perdu notre première place que nous occupions depuis plusieurs années sur le mot "référencement". Notre outil, il est vrai, datait de 10 ans et ne servait pas à grand chose en matière de référencement moderne (monopole Google).
Plus sérieusement, ce pingouin nous a obligé à revoir l'ensemble de nos liens, à modifier nos menus , supprimer nos bas de pages ou remplacer par du nofollow, supprimer les mots clés des lien de contenu et bien d'autres et ceci pour un résultat nul..
Il ne nous reste qu'à attendre mais les pertes sont importantes en terme de visites. Sur l'ensemble - 30 % , ce qui ne manquera pas de réjouir d'autres, mais ce qui nous ennuie le plus, c'est que les positions où nous restons bien placé n'ont généralement aucun intérêt pour notre activité.
Sur la politique menée par Google, je n'aurai que peu d'estime, il laisse les webmasters dans le brouillard, condamne sans appel un travail souvent mené depuis des années, remplace des sites de contenu par n'importe quoi, favorise uniquement ses intérêts. A quand un moteur GPL ?

Olivier Duffez

@Guy : je suppose que c'est lié à la masse des backlinks obtenus d'une façon jugée artificielle par Google, ayant tous ou presque le mot "référencement" dans l'anchor text

Nicolas

Je recommande clairement à ceux qui ont une perte de positions de bien analyser les ancres de manière globale constituant leur Netlinking. Clairement, il faut de plus en plus créer des liens ayant des ancres variées / naturelles (full url, brand url, etc)

société

En ce qui me concerne j'ai pu observer que de nombreux résultats sur des requêtes que je suis quotidiennement étaient sortis des SERPs entre le 28 et le 30/05, avant de réapparaitre hier, approximativement au même niveau qu'avant. Chose étonnante, ce sont les requêtes qui comportaient des mots-clés un peu spéciaux (type acronymes) qui ont subi ce mouvement

Fred31

comment arrive tu à avoir une liste exhaustive des liens externes ?

lam

Je viens de voir le problème

en fait le vrai problème que j'avais c'était l'inscription sur les annuaires de mauvaise qualité, car visiblement c'est tous les mêmes.^^

Je me suis désinscrit de tout les annuaires, et la ça remonte bien :)
heureusement que je suis venus faire un petit tour.

patrick

@Olivier : je ne parle pas du simple fait de faire des liens mais de celui qui consiste à faire des liens pouvant nuire au site du concurrent ciblé, et ce de façon délibérée, par le choix des mots de ce lien, des éléments négatifs de la page où il se situe etc (on ne va pas donner toutes les mauvaises idées ;) ).

Olivier Duffez

@patrick : désolé mais je ne vois toujours pas en quoi un tel lien pourrait être un motif suffisant pour une poursuite judiciaire...

patrick

Signalons tout de même qu'une telle pratique est interdite et assimilée à de la concurrence déloyale (voire à de la diffamation selon les cas, si par exemple le lien est du genre "site d'un arnaqueur"). Punissable par la loi donc... même si parfois il est n'est pas aisé d'être indemnisé ou de faire cesser l'infraction rapidement.

Olivier Duffez

@Patrick : je ne vois pas bien en quoi faire un lien vers un site peut être assimilé à de la concurrence déloyale (je mets de côté bien entendu les cas de diffamation).

Steven

@Fred31 Si tes concurrents achètent des backlink vers ton site et que ceux ci sont de mauvaises qualités, tu risque d'avoir de gros soucis avec google qui te pénalisera ton site, ou dans les cas extrême, il le supprimera de ses recherches.
Cette concurrence existe malheureusement.

Fred31

Bonjour,

Si je résume en gros, ce sont les backlink externes de mauvaise qualité qui pénalisent un site. Hors le webmaster ne peut pas controler tous les backlinks.

En effet que se passe t-il si mon concurrent pour me faire du tort achète des backlink vers mon site ou génère des liens de mauvaise qualités ?

JE trouve cela très dangeureux et surtout incontrolable.

Qu'en pensez vous ?

fred

AD

Après une lecture de chaque commentaire, je ne suis pas le seul à essayer de comprendre la meilleure stratégie au référencement de nos sites :)
Depuis le 25 avril perte de 30 % de visiteurs, perte en classement sur certains mots clés et remonte un peu au fil des jours.
Analyse après quelques modifications :
J'ai plus de pages indexer suite à une modification des mes URL ( URL plus courte), j'ai suivie les conseils de retirer pas mal de mots gras sur mes pages et de ne mettre qu'un seul lien en interne voir deux.
Taux de rebond assez bas. Bref, attendons la suite...

Manu

Bonjour,

J'ai 2 principales familles de mots clés. J'entends par famille une expression à laquelle on peut ajouter un mot, mettre un ou plusieurs mots au pluriel (déclinaisons).

Sur la première famille de mots, j'ai perdu jusqu'à 4 positions sur toutes les déclinaisons.

Sur la deuxième famille de mots, j'ai perdu jusqu'à 12 positions sur toutes les déclinaisons ce qui me fait perdre une page à chaque fois.

Au vu de la nature des mises à jour annoncées par google, je ne comprends pas du tout.

S'estimer heureux que ce ne soit pas pire....

Emmanuel

Pourquoi un site n'ayant apporté aucune modification à son optimisation interne ou à son backlinking serait pénalisé s'il a échappé à la première mise à jour ?

La cause pourrait-elle venir d'un site de CP nommé "x" sur lesquels sont posés les liens ? Google l'aurait classé comme site spammy entre la première et deuxième mise à jour et aurait impacté tous les sites possédant des liens dessus ?

Antoine

Toujours pas de changement de notre coté.
Au contraire le site gagne tranquillement des places au fil des maj.
Il semblerait que notre site soit plutôt Google friendly jusque là :)

Notre plus grand concurrent a quant à lui gardé sa première place alors que sa page d'accueil est clairement spammée... Le manchot est un peu gauche peut-être ?

Maya

Merci beaucoup pour cette réponse. :)

Dag

Bonjour,

Pour un site propre de contenu riche et unique qui augmente régulièrement sur un thématique spécifique, on a perdu des places de (1-3 à la 1er page) -> (5 à la 1er - 3eme page et +) sur la combinaison principale des mots clef recherchés.

Suite à l'intégration dans dmoz.org, on retrouve des liens vers le site partout dans des "indexes" divers, on se demande si cela est pénalisant?

Également, beaucoup de pages qui était bien placé sur d'autres combinaisons de mot clefs avait disparu.

La seule chose que nous avons fait depuis est d'enlever tous les liens entre tous nos sites dans d'autres langues (allemand, anglais, espagnol, italien, portugais).

Depuis quelques jours on remonte légèrement sur les mots clefs recherche, et les pages sur d'autres mots clefs reviennent.

On a l'impression que du contenu un peu ancien à perdu plus que du plus récent...

Pour le longue weekend ensoleillé on a eu beaucoup de trafic, mais on est sur la thématique de barbecue... :o)

Leon

Cette mise à jour du petit manchot cruel me laisse perplexe, en fait ça confirme un peu plus le constat, qu'il n'y a plus de recette miracle pour être à l'abri.
Un site propre avec très peu de liens peut lui aussi disparaitre, un gros MFA pourri avec 10 000 BL spammy peut prendre des positions.
La logique de Google devient difficile à saisir, si ce n'est SEO accroches toi aux branches, ça va secouer.

Maya

Bonjour,
Dites-moi, est-ce que les liens en provenance des agrégateurs comme Trovit (en relation avec mon offre) sont négatif pour le SEO de mon site ? Cela peut pénaliser le site ?
Merci d'avance de votre réponse

Maya

Olivier Duffez

@Maya : d'après l'exemple que je viens de voir, non seulement les liens ne servent à rien (car ils sont en nofollow) mais en plus Trovit se permet d'afficher le site en ifrance (ce qui est illégal il me semble).
Si on rajoute que ça génère du contenu dupliqué, le tableau est complet...
Faut espérer que ça apporte vraiment bcp de trafic pour compenser !

lam

Bonjour,
Vous dites:
des liens internes utilisant tout le temps la même ancre (texte du lien), parfois répétés plusieurs fois dans une même page. C'est ce qu'on obtient en général quand on utilise des outils qui insèrent des liens automatiquement dans les contenus.

------->Si on repète la meme ancre sur des pages différentes cela ne change rien ? ou c'est seulement dans une meme page? car effectivement j'ai répété la meme ancre mais sur des pages différentes...
Et les memes ancres venant de l'extérieur? c'est pareil?

Si quelqu'un avait la gentillesse de me répondre vite fait.
Merci d'avance
cordialement

huit

Va falloir que je revois vos conseils, car je sens une grosse chute de visiteurs totalement anormal. Sur certains mots clés j'ai beaucoup pogressé,et sur d'autres la chute total^^ je suis vert

J'ai subit une chute depuis que j'ai:

1-'e pense que la grande cause de pénalité est une sur-optimisation des pages en interne, trop de mots clés répéter, dans les page, mais aussi dans le texte.'

2-beaucoup de commentaire dans d'autres site

Cordialement

Strategik.fr

Pas de changement, mais l'impression désagréable que l'index de google est de plus en plus incertain.

Je n'ai pas dit dynamique, j'ai dit incertain.

Il y a d'excellentes choses dans la V1 de Penguin: le fait qu en premiere page un site institutionnel ne squatte pas à lui seul 4 pages (!) ca c'est salutaire...

Après tout, ce qui marchait hier, en terme de positionnement était un activisme des webmasters (je ne parle pas des splogs, lfe et autres...).

Pourquoi communiquer autour de son activité sur des plateformes gratuites serait vu comme du spam alors que sur les réseaux sociaux...

Parlons en des réseaux sociaux...une étude récente (vu sur twitter) tendrait à prouver que le quart des comptes sociaux sont utilisés pour le spam, l'occasion d'un filtre appelé otarie ?

Clairedenice

Bonjour,
Je tenais à vous remercier pour tous vos conseils sur le référencement naturel.
Je suis AE (à Nice) et je gère 5 sites dont 2 sites d'e-commerce (vente de bijoux fantaisie) qui m'ont surtout donné beaucoup de boulot car ils avaient fortement chuté au printemps en terme de visites, probablement à cause de mister Penguin...
Je précise que je suis autodidacte et que j'ai appris à faire des sites (en html) sur le tas depuis 2004.
Pour le référencement, j'ai surtout bossé en utilisant G.Analytics afin d'affiner mes mots-clés et avec vos conseils trouvés sur le forum de WI j'ai réussi à passer de 30 visites à une moyenne de 100/jour (avec un modeste PR2 lequel j'espère va évoluer).
J'ai dépassé les 3000 visites ce dernier mois et surtout réussi à me placer entre la 1ère et la 5e page de Google avec mes mots-clés pertinents. Ça commence à rebooster mes ventes et j'ai remarqué que Google était très attentif quand nous mettons des nouveaux produits, et comme je confectionne les bijoux moi-même donc j'en installe régulièrement toutes les semaines.
Je lisais plus haut qu'il était bien d'avoir une url avec sa marque, c'est ce que j'ai fait intuitivement depuis le début (en 2009) en accollant ma marque au mot "bijoux"... et j'ai réussi, entre autre, à faire référencer mon site de bijoux à l'expression "bijoux fantaisie de marque" à la 3e page de Google.
C'est pas toujours facile d'être au fait de tout mais en attendant de pouvoir m'offrir une formation chez vous (faute de temps et de finances) je suis vos conseils de très près.
Merci beaucoup en tous cas pour tout ce travail que vous faites.
Bonne continuation :)

pvic

Excellent article comme d'habitude qui permet de clarifier les choses. Nous continuons de recommander l'usage de communiqués de presse sur internet, de manière réfléchie et en adéquation avec ces critères dee Google Penguin.

galdhoun

merci pour ces informations olivier,est-ce que la technique de word press est sanctionné par ce nouveau algorithme google Penguin malgré que le contenu de texte est d'une bonne qualité.merci

Olivier Duffez

Non, je ne pense pas que Google ait quoi que ce soit contre WordPress ou d'autres bons CMS

Dominique

Bonjour, je suis responsable d'un jeune site de e-commerce et lors de notre travail de SEO, nous avons inscrit notre site sur un annuaire. Rien de spécial jusqu'à présent me direz-vous.

Si ce n'est qu'en regardant dans mon GWT, j'ai constaté que le domaine de cet annuaire était notre principale source de BL (521 au total !!) et ces liens proviennent de pages un peu "pourries" (formulaires d'inscription, erreurs 404, ...). En gros notre site est classé dans les 10 meilleurs sites de l'annuaire, il y a donc un bandeau en haut du dit annuaire avec un lien vers chacun des 10 sites. Le problème est que ce bandeau est présent sur toutes les pages de l'annuaire et qu'elles sont toutes indexées par google et donc autant de liens entrants comptabilisés pointant vers une seule page (notre page d'accueil).

Ma question : est-ce que cela peut être pénalisé par notre cher google ? ou cela n'a aucune importance ?

Merci d'avance pour vos idées / réponses !

Bonne journée,

Dominique

Ocativus

@ christophe : Votre remarque est intéressante. Je vais formuler une hypothèse, mais je laisserais Olivier vous conseiller ensuite, il a plus d'expérience que moi. Je pense que l'usage du no-follow n'a pas eu pour répercussion de générer une indexation de votre site au travers des mots clés que vous indiquiez. Ils sont donc, comme vous le dites négligeable et non pas négatif. Je me demande par contre, comment votre site est indexé et comment sont générés les autres liens pointant vers celui-ci. Est ce que votre site est celui que vous passez en lien sur ce forum ? Il se peut que votre architecture interne vous pénalise, sinon, il faudra procéder par élimination pour identifier la faille de votre tactique SEO... Tout du moins, c'est ce que je ferais si j'étais vous.

christophe

Dans mon cas c'est plusieurs de mes sites avec des liens pointant vers le site principal qui m'ont causé du tord lors de cette mise à jour. Tous avaient la même classe C. Après à savoir si les liens provenant de ces sites ont prit un poids quasi nul ou bien s'ils apportent une sanction négative je ne sais pas trop mes tests n'ont pas permis de mettre clairement en avant l'un ou l'autre. En tout cas il serait plus logique que leur poids soit négligeable plutôt qu'il soit négatif. Je suppose que du moment où google a détecté que les sites étaient au même propriétaire après c'est définitivement impossible de tirer du jus des liens, même en enlevant tout élement qui laissait penser à google que les sites était liés, non?

Octavius

@dmozfr : En Off-Site, un article de 500 mots peut être intéressant. Mais ça implique quand même un partenariat avec le propriétaire de l'autre site, non ? Ou alors il s'agit d'un forum, et là... En fait, c'est un peu secondaire si votre site "émetteur" est un site indexé dans une thématique "voiture" et que vous vendez des "éponges". Prenez le temps d'identifier au préalable comment Google perçoit la page émettrice, ou bien palliez ça en mettant en place une politique de community management assez sympa... De toute façon l'idée, c'est que le site émetteur, le site récepteur, et les mots clés reliant ces deux sites, appartiennent à un champ sémantique proche. Là, en gros, Pingouin dira : "Good jo-oo-ob" !

dmozfr

"...ce qui a de l'intérêt, c'est la cohérence sémantique et donc le maillage de liens Off-Site.."

donc si je comprends bien (mais c'est pas toujours le cas..) un bon petit article de plus de 500 mots , ça doit apporter une bonne cohérence sémantique à ces 2 ou 3 liens bien placés dans ce meme article... non ?

d'ou l'intérêt d'écrire encore des cp (pas trop pub) et des articles sur des sites qui les autorisent ?

Olivier Duffez

@dmozfr : oui c'est sûr que des liens intégrés dans un article de 500 mots c'est mieux (+ thématisé) que des liens planqués dans un footer ou une marge d'une page hors thématique. Mais ça reste des liens peu naturels, surtout si c'est la seule page du site (de CP) de cette thématique et que les liens sont ultra optimisés.

Octavius

@ Indépendance Royale : En fait, Google identifie tous les points d'entrée vers un site web. Mais ce site "émetteur" est lui même indexé dans ce que nous nommons "un champ sémantique". Ce que Olivier veut dire, c'est que si vous avez trop de backlink provenant de site qui ont un champ sémantique éloigné de votre site, cela ne vous servira pas plus. En d'autres termes : le nombre de backlink n'a plus tant que ça d'intérêt, ce qui a de l'intérêt, c'est la cohérence sémantique et donc le maillage de liens Off-Site.

Indépendance Royale

Bonjour,
merci pour cet article précis et accessible à tous.
J'ai lu tous les commentaires et je n'ai pas trouvé la réponse à la question de l'un d'eux : quand vous parlez de "trop de backlinks" sur plusieurs points notamment "trop de backlinks venant de pages hors thématique" >> que faut-il comprendre par "trop" ? y'a-t-il un ordre de grandeur ou cela dépend de la "taille" de notre site (ou tout autre critère?) ?

Olivier Duffez

@Indépendance Royale : je n'ai pas de réponse précise à donner, c'est à analyser au cas par cas... désolé !

valerie

Je constate aussi que Penguin ne touche pas toutes les pages du site mais principalement les pages les plus optimisées. Les pages les moins linkées, les moins travaillées n'ont quasiment pas bougé dans les SERP.

dmozfr

@Olivier : "google ne gagne pas d'argent avec Adsense..."  ???

euh... extrait d de leur site (désolé c'est en anglais ) :

Google Network Revenues - Google’s partner sites (•• c'est pas Adsense ça ?????••)
generated revenues of $2.91 billion, or 27% of total revenues, in the first quarter of 2012. This represents a 20% increase from first quarter 2011 network revenues of $2.43 billion.

Désolé de contredire !
Evidemment qu'il faut bien que les annocneurs mettent leur sous par le truchement du compte Adwords mais si GG n'avait que le réseau propre, il n'aurait pas GAGNÉ 27% de son revenu total !!!!

Olivier Duffez

@dmozfr : ce ne sont pas les éditeurs AdSense qui enrichissent Google, ce sont les annonceurs AdWords.
Si un site qui affiche des AdSense perd en visibilité Google, d'autres sites AdSense le remplaceront, ça ne fera pas de baisse de revenus pour Google.

Tag

Merci pour cette réponse rapide.
Dans mon cas la plupart de mes pages sont liées par deux liens : 1 dans le menu principal avec une ancre simple et 1 dans le corps du texte de la page avec une ancre optimisée. J'ai donc mis les liens du menu en nofollow afin que l'anchor du lien optimisé pointant sur la page distante ai plus de poids ...
J'ai tout faux ???

Olivier Duffez

@Agence Tag : Oui tu as faux, relis l'article que je t'ai indiqué.

De Meyer

Excellente synthèse, votre retour d'expérience est déjà important seulement qques jours après le déploiement de Pinguin, qu'en est-il si l'on possède de nombreuses ancres similaires en grand nombre, mais qu'elles correspondent au NDD ?

Arnaud74

Bonjour Olivier,

vous dites : "trop de backlinks issus de sites identifiés comme appartenant au même propriétaire et reliés entre eux par des liens (réseaux de sites trop visibles). L'adresse IP du serveur n'est pas du tout la seule à entrer en ligne de compte pour cette analyse."

Vous parlez certainement de google analytics non ?

du coup que faudrait il faire : Création d'un compte google pour chaque client ? ne plus utiliser GA ?

Arnaud

Tag

Bonjour et merci pour cet article qui nous ouvre des pistes de réflexions intéressantes, et en ces temps de stress certain, elles sont les bienvenues.
Mon site principal a été touché par "penguin", mais aucun de mes sites clients. Ouf ! La sanction semble d'être appliquée par thématique, impactant toutes les pages de celle-ci.
Utilisant un peu toujours la même liste d'annuaires pour les référencement, j'en déduis que le problème ne vient pas de là.
J'ai très peu de CP, (manque de temps) donc j'ai aussi écarté ce point. Il ne me reste plus que le contenu du site et le "réseau" de site que j'ai pu réaliser.

Concernant le contenu, j'ai modifié tout ce qui pouvait être considéré comme de la sur-optimisation et ré-agencé le contenu textuel pour une plus grande clarté. J'ai par ailleurs repris ma page index qui renvoyait vers une centaine de pages (interne), j'en ai laissé une dizaine, puis j'ai repris mes menus et les ancres de lien dans les textes jonglant avec les attributs "no et dofollow". A priori, ces modifications m'ont permis, je pense, d'amélioré le site, mais aucun résultat constaté.

La question que je me pose concerne les liens présents en bas de page de chacun des sites que j'ai réalisés, de type site réalisé par "agence xxx" ou souvent "agence communication xxx" . J'ai donc une quarantaine, au moins, de sites, présents sur les mêmes serveurs (je les héberge" dont chaque page retourne un lien "optimisé" vers une voire plusieurs pages de mon site. Je le sentiment que le principal problème viendrait de là !? Qu'en pensez-vous ??

Si la réponse s'avère positive, il y a des chances pour que l'on soit nombreux dans cette situation, mais jusque là je n'ai pas trouvé de discussion là dessus.
J'ai constaté que certains rajoutés une page de présentation de l'agence à chacun des sites. Les liens en footer renvoient vers cette page interne qui elle même pointe vers le site de l'agence. La page sur laquelle est placée le lien répond donc à la thématique de site de l'agence mais reste toujours hors contexte par rapport au contenu du site lui-même. Un retour d'expérience serait vraiment sympa.

Bonne journée à tous.

Olivier Duffez

@Agence Tag : pour ce qui concerne l'utilisation du nofollow, je te conseille de ne pas considérer ça comme une "technique". A quoi ça sert de mettre du nofollow sur des liens internes ? A mon avis à rien... Le PR Sculpting par le nofollow n'existe plus depuis 2008 !

Pour ton autre question, j'ai abordé cet aspect dans mon article sur les liens d'attribution du crédit (payés dans mon exemple). C'est en effet une tradition d'indiquer qui a réalisé un site, mais pourquoi faire un lien ultra optimisé ? C'est ça à mon avis qui est artificiel aux yeux de Google. Mais je n'ai pas fini mes tests sur ce point précis pour Penguin.

dmozfr

"...Haltes aux CP publiés sur des sites d'article en ligne. Google a fait le ménage... et surtout pour les ancres contenues dans les CP..."

des preuves concrètes, peut-être ? ou alors c'est une simple affirmation ?

en ce qui nous concerne, nous avons un site d'articles qui marche toujours aussi bien...
si ce n'est même un poil mieux depuis le 27 avril et ...même avec les nombreux ponts !! :D
j'ose pas donner son nom ici... car je vais me faire "modérer". ;)

Bien entendu on filtre à mort ce que les "auteurs" essaient de publier tant au niveau du contenu que du nombre de liens par article. "hard work" !!!

Mais comme disait un autre intervenant : avec un peu bon sens et surtout de modération, le site d'articles ne sera pas touché. J'en mets ma souris au feu...
d'autant plus que GG gagne des tunes avec nous sur ce site...

Olivier Duffez

@dmozfr : Des exemples, il y en a des tonnes dans les dizaines de pages de discussion du forum.
Par contre tous les sites de CP ne sont pas forcément concernés (il y en a de qualité) et c'est surtout la façon de se faire des liens depuis les CP qui pose problème.
Enfin pour le dernier argument "GG gagne des tunes avec nous sur ce site", je n'y crois pas une seule seconde. J'ai connu trop d'exemples qui me montrent le contraire. D'ailleurs Google ne gagne pas d'argent avec AdSense mais avec AdWords...

olive

Pour ma part, ce sont les CP publiés sur des sites dédiés aux CP qui ont fait plongé certaines requêtes. Ce qui est invraisemblable, c'est que la page est pénalisée sur une requête mais remonte sur d'autres requêtes...

Bref, les conclusions pour ma part sont un peu rapides, mais je pense dans la même lignée que la majeure partie d'entre nous...

Haltes aux CP publiés sur des sites d'article en ligne. Google a fait le ménage... et surtout pour les ancres contenues dans les CP...

Pour la structure du site... WordPress, Joomla, etc. Je n'y crois pas trop... En tout cas, ça va être facile de faire du négative SEO pour péter en 2 la concurrence... mais alors très très très très très facile.

oh yes !

Mercccci ! Quand même... ;)

strategik

@Olivier: Une question précise (au cas où tu aurais fait le test): si on utilise un acccordeon de texte (shortcode "spoiler" chez wordpress) risque t-on une pénalité ?

(Je pense au risque que "Pengouin" le prenne pour une tentative de "hidden text"...)

Olivier Duffez

désolé je n'ai pas testé d' "acccordéon" (avec 3 C ça doit être un gros accordéon !)

Jolivet

Dans l'ensemble, je suis assez d'accord avec ce que tu proposes : optimisation avec modération, le keyword stuffing est en effet beaucoup plus sanctionné depuis penguin, les mauvais CPs semblent plus pénalisants que les mauvais annuaires, les partages sociaux semblent "aider" de plus en plus, même si ça n'est pas non plus la solution miracle, loin de là...
En bref, on en revient toujours au même, le référencement naturel, c'est varier ses ancres, varier ses sources, varier ses qualités de liens tout en ciblant une thématique... Tiens, qu'est-ce que je fais ici moi pour mes chambres d'hôtes ?... ;-) On dirait un manchot au pays des pandas !

Arthur

Excellent article, un grand merci Olivier.

Je crois beaucoup au référencement social à terme, non plus "décidé" par les webmasters en établissant des partenariats / échanges de liens avec d'autres éditeurs, mais décidé par les visiteurs / internautes (like, partage, tweet, etc.)

Jaggi

Au final, comment être mieux positionné que mes concurrents sur un mot clé si je dois désoptimiser mes pages web et si je ne peux plus placer des backlinks contenant le mot clé dans l'anchor texte?

Toutes les anciennes pratiques sont maintenant condamnées. Quelle nouvelle stratégie SEO faut-il adopter?

Olivier Duffez

@Jaggi : non ça n'a pas vraiment changé, ça fait des années qu'on dit qu'il faut varier les ancres, les sources de backlinks et tout ça. Ce qui a changé c'est que ceux qui ne suivaient pas ces conseils sont désormais invisibles dans Google.

NosyWeb

Merci Olivier pour cet excellent article (comme toujours :-) ).

Cependant attention !
Tu dis "Pengouin" ce n'est pas "Pingouin" et pourtant tu dis "Autres ressources pour vous aider à vaincre le pingouin :-)"
Et oui... tu t'es fais avoir, ha ha ! :-P (ok, je sors ==>>)

Olivier Duffez

@NosyWeb : les français utilisent les 2 termes (sans doute malheureusement surtout pingouin) donc je m'adapte...

lantic

Bonjour, Inoxydable vous dites :"Nous avons refait quelques bons annuaires et désoptimisé quelques paramètres". Le changement c'est opéré en combien de temps ?
Pour ma part je en sais pas qui faire, je n'ai pas l'impression d'avoir sur optimisé mes pages, c'est un peu la cata.

tutela

Article vraiment suprenant.. peut-etre beaucoup de pièges à eviter pour un debutant comme moi

merci

Iron Star

Article intéressant qui va me donner du travail ! Car plusieurs de mes sites ont effectivement chuté, bien que d'autres, sans raison apparente, ont pris des places.

Je reste assez dubitatif sur l'efficacité de ce nouvel avatar venu de la banquise "googolienne", car sur les sites qui ont monté certains sont carrément "hors charte" alors que sur ceux qui ont descendu, il y a des sites 100% google friendly... affaire à suivre.

patrick

Juste un petit mot pour préciser que détenant plusieurs sites (donc un réseau) notre petit Penguin ne m'a pas sanctionné. Le tout étant comme toujours d'être modéré dans ce que nous faisons : quelques liens entre les sites mais pas de façon exagérée.

Si on regarde bien, Panda, Penguin et autres 'nouveautés' de Google ne font rien de plus que sanctionner les excès.

L'excès d'optimisation tue l'optimisation... ;)

Maxime

Bonjour,

Merci pour ces conseils, ayant été touché par panda, j'avais fait quelques modifications et j'en était finalement sorti.

La, penguin m'a pénalisé mon réseau de sites (non lié entre eux), il est vrai que j'utilisais des cp, des annuaires, des blogs (à moi avec du vrai contenu). Donc clairement mes anchors sont optimisés (même si le ratio est largement équilibré).

Une chose qu'on n'a pas trop abordé (sur le forum également) c'est que faire maintenant ?

Est ce que l'on doit (essayer) de supprimer les liens considérés comme mauvais (sachant que c'est presque impossible) ?

Doit on créer des nouveaux liens pour obtenir un ratio correct de bon/mauvais lien ?

Le problème c'est désormais, certaines pages de mes sites sortent en 2 ou 3 ème page (même en recherchant un paragraphe complet (15 - 20 mots).

Je suis donc un peu perdu, je ne sais pas comment réagir...

lionel

Bonjour Olivier,

Je souhaiterais avoir ton avis sur la "triplette bourrin" qu'évoquait LaurentB dans un de ces billets.

Penses-tu réellement qu'une page contenant une expression-clé similaire, utilisée dans l'url, title et h1 peut-être pénalisée ? Alors que cette pratique n'est pas forcément un manque de pertinence.

amicalement

Olivier Duffez

@Lionel : déjà, je ne crois pas à l'impact de l'URL (c'est très faible ou alors c'est indirect). Ensuite, je conseille souvent d'avoir un titre légèrement différent entre le title et le h1 (chaque balise a ses contraintes et ses particularités). Enfin, si le reste de la page n'est pas vide (cad si l'optimisation ne repose pas essentiellement sur cette triplette) alors franchement je ne vois pas de problème.
Mais c'est vrai que ceux qui construisent leurs pages avec toujours des mots identiques dans {URL, title, H1} se dirigent vers la suroptimisation SEO.

Emmanuel

Comment Google maintenant discerne un site de CP d'un annuaire ? Les deux s'assimilent de plus en plus et pour preuve de nombreux site de CP proposent des annuaires et inversement.

D'après vous, google pénalise les CP car le sujet est souvent isolé, hors thématique et non précis. C'est le même cas avec les annuaires pourtant, il n'y aurait pas incohérence là ?

J'en viens donc à penser que c'est la structure des annuaires moins optimisée qui permet de ne pas être trop affligé par la pénalité du manchot.

Olivier Duffez

@Emmanuel : je ne suis pas sûr que la structure des annuaires soit moins optimisée. D'ailleurs ils sont en général mieux organisés sur le plan des thématiques, car un travail important de l'annuairiste est de créer et maintenir une arborescence logique de thématiques et sous-thématiques.
Par contre pour Google, les annuaires et les CP ont en commun de fournir facilement des liens pour les webmasters et référenceurs :-(

Blogger

Donc il ne devrait pas y avoir de problèmes pour les personnes qui suivent honnêtement les règles du jeu, ça fait plaisir. Car avec Google Panda, précédente mise à jour de l'algorithme de Google, un de mes sites avait perdu la plupart des visiteurs provenant de la recherche Google.
Sinon j'ai une petite question: on parle dans l'article que les balises h1, h2 contenant trop de mots clés peuvent sanctionnés le site. Je ne comprend pas très bien la logique puisque ces balises sont sensés être des sous-titres et donc reprendre celui-ci qui doit être révélateur par rapport aux mots clés de la page. Une âme généreuse pourrait-elle me dire ce que je dois faire si je reprends systèmatiquement le titre dans mes sous-titre?
Merci pour cet article et bonne soirée.

willgoto

Il serait peut être un jour utile d'ouvrir un débat pour fixer le juste vocabulaire pour qualifier les actions de google de type panda, penguin, action manuelle et autre.

Il y a les verbes pénaliser, sanctionner, déclasser, blacklister et sans doute d'autres. Ils ne sont pas tous équivalents.

Il me semble que Penguin ne fait que remettre des sites suroptimisés à leur "vraie" place.

Olivier Duffez

Très bonne suggestion willgoto !

Judicael

Bonsoir,

En ce qui me concerne, j'ai un site (joomla) qui est touché (sur une dizaine), alors qu'il ne l'était pas lors de l'apparition de Panda.

Je pourrais éventuellement l'expliquer par l'utilisation d'échanges de liens de manière un peu too much il y a quelques temps. Sinon je ne vois pas trop.

Salutations

Ahmed

Désolé Olivier si je ne me suis pas bien exprimé, je parle de ces parties :

- 1er point de "Les ancres des backlinks".

- 1er et 2ème points de "La qualité des sites backlinks".

- 1er et 2ème points de "Les liens achetés et les réseaux de sites backlinks".

Mais tout dépend du "trop", un chiffre ou un pourcentage par rapport au total des BL du site en question ?

Olivier Duffez

@Ahmed : tu dis que tu n'es pas d'accord mais pourtant tu dis qu'un site peut s'en sortir s'il varie les ancres : je dis exactement la même chose, non ?

Nico

Je mets mon petit grain. Juste pour dire que je pense que si un site de CP a un texte assez bien fichu et qui en plus est informatif (utile), Google n'a pas de raison de le déclasser... Ils ne les positionnent pas sur de l'ultraconcurentiel de toute manière, donc ce n'est pas un problème pour lui...

Maintenant, pour ce qui en est de valoriser les backlinks, ils faut encore faire des tests.

Le fait est que de très nombreux sites ayant fait 100% de CP (ou presque) se portent bien, et que certains n'en n'ayant pas fait du tout sont tombés. On peut faire des suppositions les concernant, mais je ne vois pas totalement ce qu'ils viennent faire dans cette discussion en fait...

Bien sûr, rien ne veut un bon article utile sur un blog de sa thématique, mais comme cela est débattu souvent sur le forum WRI, ce n'est pas possible à mettre en place et/ou rentable pour de nombreux cas.

Par contre, +1 sur les ancres texte. Pas de chance pour ceux qui avait fait de la SEO off page :-/

Ludo

tu dis "Avec Panda, Google ré-évalue tous les sites environ une fois par mois pour estimer s'ils remplissent ses exigences. Entre temps vous avez beau améliorer votre site il ne peut rien se passer."

J'aurai tendance a rajouter que dès que les corrections sont apportées, il ne faut pas oublier de régénérer et soumettre a google un sitemap, pour l'inciter a re-crawler toutes les pages : car s'il ne les a pas revisité, il ne ré-évalura rien du tout et la pénalité perdurera.

Olivier Duffez

Pourquoi pas, mais en général quand on a besoin d'un sitemap pour faire crawler le site, c'est qu'il a un problème de structure (mauvais maillage interne)...

Ahmed

Bonjour Olivier,

Merci pour cet article, je partage l'avis pour une grande partie, surtout celle du contenu. Par contre pour les liens entrants, certains points je ne suis pas tout à fait d'accord la dessus et ceci d'après mon expérience.

Les sites qui ont été épargnés par cette mise à jour, certains ont même gagné des positions depuis Google Pingouin présentent ces aspects au dessous :

- textes ancrés variés, mais se ressemblent : location voiture tunisie, location véhicule tunisie, locations voitures pas chers, etc.. mais pointent vers différentes pages profondes du site. Et d'autres hors cette expressions, du style des pseudos, le nom du site, prénoms de personnes, etc...

- Des liens sur plusieurs types de sites variés, depuis des sites thématiques au bons PR + dofollow (environ 70% des soumissions) à d'autres beaucoup moins bons PR0 nofollow disons 30% des soumissions.

- Beaucoup de liens entrants depuis les annuaires des flux RSS.

- Mais surtout trop de liens entrants des réseaux sociaux. constaté notamment avec un blog wordpress dont le flux RSS est brisé, mais qui gagne trop de liens à travers les partages sur G +, Facebook et Twitter et se positionne rapidement des fois de façon instantanée. Rien qu'un article aujourd'hui pour l'expression "référencement application mobile" occupe la 9ème position sur Google.fr

Olivier Duffez

Désolé Ahmed, je n'ai pas compris avec quels éléments de mon article tu n'es pas d'accord ?

Mick

"trop de backlinks dont l'ancre (le texte de lien, anchor text) contient exactement (ou presque) la requête phare de la page de destination."

C'est quand même un point gênant ça et notamment pour les NDD à mots clés !
Si demain je me lance dans le ecommerce (juste dans le ecommerce) pour vendre des roues de secours par exemple. Je vais quand même pas appelé mon site blabla.com juste pour faire plaisir à GG quand même !

J'en envie d'appeler mon site rouedesecours.com pas pour faire du BH mais juste parce que c'est une règle de base sur le plan marketing. Mon nom s'identifie à mon activité.

Si demain, je fais ça tous mes liens "naturels" sur la requête de mon nom de domaine me mettront dans les choux...

GG voulait changer le web, ben ils vont finir par y arriver !

Olivier Duffez

@Mick : le pb spécifique des NDD à mots-clés est abordé dans le forum et il semble que Penguin ne les sanctionne pas plus que ça.
Par contre je ne partage pas du tout ton point de vue sur le plan marketing, car au contraire on conseille de créer des marques et d'investir dessus pour que les consommateurs s'en rappellent. J'estime que c'est une vision à très court terme que de créer des sites dont le nom n'est pas une marque mais une succession de mots-clés.
Ne pas avoir de marque est gênant pour d'autres aspects que le SEO, notamment AdWords ou les contraintes juridiques.
Mais chacun fait comme il le sent !

Mathias

@Olivier Duffez : Pas de souci avec le fait que les commentaires soient là pour discuter au contraire même je suis pour, ma question est plus orientée sur le fait de l’intérêt désormais du champ url dans les commentaires . Ne devient il pas dangereux de le renseigner ? J'aimerai connaitre ta position en tant que pro sur champ, puisque si je mets une anchor text ultra optimisé c'est mauvais pour google, si je mets juste un prénom ou un pseudo avec une url en décalage avec la thématique du site ou je pose un commentaire, c'est aussi mauvais pour google. Du coup ce champ devient obsolète puisque même si je le fait juste pour information sans aucun but ref nat, google lui peut mal l’interpréter. Même si ce n'est pas un champ obligatoire il est malgré tout bien présent. Que ce passerait il si tu l'enlevais? Verrais tu le nombres de tes commentaires baisser? Ca c'est un test intéressant à faire.

Olivier Duffez

@Mathias : je t'ai déjà répondu il me semble. Je pense que ce n'est pas gênant de faire des commentaires avec le pseudo ou le nom du site comme anchor text. Je vais relire mon article et le corriger si j'estime que j'ai été trop catégorique sur ce point.
J'ai déjà testé beaucoup de choses sur ce blog avec les commentaires (tout follow, nofollow tant qu'on n'a pas posté N commentaires, etc.) et je trouve sympa de laisser un champ URL. Par contre j'applique des règles qui sont décrites dans mes CGU (le lien est près du formulaire de commentaires).

Fred

Je pense que la grande cause de pénalité est une sur-optimisation des pages en interne, trop de mots clés répéter, dans les , mais aussi dans le texte.

Janolapin

Donc le problème c'ets bien le "SEO Over-optimization" comme MC l'a initalement dit avant de se reprendre pour se corriger en "webspam"...

Un laapsus? Un acte manqué ? Un message secret?

Janolapin

Ce qui ressort le plus de tona rticle, c'ets le mot "trop". Faut-il comprendre que rien n'est interdit.. à condition d'être bien proportionné?

Olivier Duffez

@Janolapin : je dirais plutôt que c'est pour expliquer qu'un algo de ce genre est toujours la résultante de plusieurs critères pondérés. C'est l'expérience (et les bons outils) qui peuvent aider à faire du cas par cas.

majjane

Merci pour tout ces infos .

je confirme vos suppositions , parcque un de mes sites a été déclassé a cause de ce que vous venez de citer

Mathias

"trop de backlinks venant de commentaires ou signatures de forums avec soit un anchor text ultra optimisé, soit un pseudo pas trop optimisé mais sur un blog totalement hors thématique."

Dans ce cas là il faudra retirer le champ [site web (URL)] pour les commentaires car il ne sert plus à rien, voir il risque de dé-servir. Où les passer en no-follow ( et encore apparemment ils sont quand même suivis). Que devient alors l’intérêt de ce champ? Faut il être sur la même thématique du blog pour laisser l'url de son site ?
par contre OK pour la réflexion "anchor text ultra optimisé"
Je repose donc la question avec l'arrivé du Manchot
- Que devient alors l’intérêt de ce champ [site web (URL)]que l'on trouve quasiment sur tout les commentaires de nombreux blogs ?

Olivier Duffez

@Mathias : ce champ sert à renseigner le nom (ou le pseudo pour ceux qui veulent préserver leur vie privée) pour savoir qui s'exprime. Car l'objectif des commentaires est bien de discuter !
Mais tu as malgré tout raison car en toute logique, s'il y a un champ URL pour parler de son site, il faudrait qu'il y ait un champ pour donner le nom de ce site.
Quoi qu'il en soit, il faut prendre du recul sur le SEO et ne pas croire que tout est prévu pour les intérêts du SEO !

franckm

Pour l'optimisation on-site, penses-tu que les redirections 301 successives page A=>Page B=>Page C puisse être inclues comme facteur de pénalité dans pingouin ?

Il y avait une discussion là dessus ce matin sur le forum et un de mes sites impactés est justement dans ce cas. Les pages étaient au début en extension .html, depuis un an changé en .php et depuis deux semaines passées sous wordpress.

Olivier Duffez

non franckm, je ne pense pas que ce soit une pénalité Penguin, par contre c'est déconseillé.
Il faut faire une redirection 301 directement des .html vers les nouvelles URL sous wordpress, en plus des redirections des pages .php vers wordpress

emi

Merci pour l'article.

De mon côté, je mettrais une pièce sur les BL spammy.

Je pense avoir respecté les consignes générales de Google sur mon site, mais il y a un annuaire non sollicité qui représente près de 50% des BL d'après GWT. Bien sûr, je n'ai pas reçu de réponse de la part du webmaster suite à ma demande de contact... Très frustrant !

Matthieu

Bonjour Olivier,

merci pour ce dossier qui permet de voir un peu plus clair sur cette mise à jour.

Une question cependant : quand tu parles à plusieurs reprises de "trop de backlinks", qu'entends-tu par là ? 100 - 200... ? C'est en effet une notion qui revient souvent mais sans plus de précisions.

Peux-être vises les blasts ou autres techniques d'ajout de liens en masse ?

Argonaute

J'ai un exemple avec mon site lié ci-dessus qui s'est fait pénalisé par Pingouin : les pages les plus pénalisées restent les fiches assureurs qui ne reçoivent quasiment aucun lien de l'extérieur.
Il y a eu un chouilla de suroptimisation interne (le même mot-clé dans les h2, désormais enlevé), mais pas un manque de contenu ou un contenu non quali (selon moi).
Pour ces pages, je pense donc que la pénalité est due soit à la suroptimisation interne (comme tu l'indiques au début), soit au fait qu'il y ait trop de liens vers la page d'accueil et pas assez vers les pages intérieures du site (finalement, un type de pénalité vieille comme Google mais dont le curseur a du être revu à la baisse).

Ah oui, et j'ai quand même un gros doute sur la suppression immédiate de la pénalité en cas de correction des critères fautifs...

Sitanim

L'utilisation d'ancres de liens sur-optimisées (mots-clé contenus dans l'URI de destination, dans les balises H1, etc) au sein de site identifié/apparenté à un réseau destiné à "pousser" du lien est pour moi le signal le mieux identifié (et pénalisé) par Penguin.

Toulousaing

Je viens de faire un test sur l'un de mes derniers CP
sur le mot clé "armored stack"
Le lien vers communique-de-presse-gratuit.com sortait en 1er, il sort aujourd'hui en 15e position.
Pour info.

Aquaportail

[mode désabusé]
Je m'insurge contre la dénomination de "filtre Penguin" pour cette nouveauté googlienne, car le filtre Penguin existe en aquariophilie!!! Que va devenir le petit fabricant de ce filtre si on lui pique les premières places dans les recherches? Encore un dommage collatéral, je suppose...
[/mode]

Perso, je me suis fait dégommé une page et je reconnais qu'il y a suroptimisation des ancres des ... 18 liens -dans GWT- vers cette page! Bouh, je suis un méchant spammeur black hat! Surtout que 7 liens sont faits par des sites à systèmes automatisés (style compilation de données alexa, pr, etc) sur le titre de la page dont je ne suis pas responsable du tout. En revanche, pour les 11 autres liens restant, les ancres sont à peine variées, c'est de ma faute. D'un autre côté, ça me prive de ... 15 VU/jour! lol Je ne vais pas m'affoler. ^^ Pour info, la page, unique en son genre (même Wiki est tout nul à côté) pèse 7200 caractères.

fe

Bonjour,

Moi je ne me suis jamais inscrit sur des sites de CP et pourtant mon site vient d'être fortement pénalisé à cause de cette mise à jour !
Incompréhensible ..

Olivier Duffez

@feu d’artifice : sur quelle requête et pour quelle page ? n'as-tu pas "bourriné" sur les ancres des liens vers ta page d'accueil ?

Alex

6 à 8 CP par jour et pas d'impact négatif chez moi. Par contre les ancres sont très variées

SANZ

Et ba moi, c'est catastrophique pour un de mes clients...

Chute de la 3° place à la 200°eme place sur un mot clef, où je vois maintenant Sarkozy sur 2 résultat de la première. Le site est en plus propre, pas de template, aucune erreur W3C et CSS...

Pas de liens achetés... et là c'est vraiment du n'importe quoi. Je n'y comprends rien. Je n'ai pas constaté non plus d'anomalies statistiques dans la création de BL.

Là franchement, je comprends rien... je vais essayer de redemander l'examen de la page, mais sans y croire forcément ! Que faire ??

J'ai juste remarqué dans Google Analytics l'infobulle penguin comme beaucoup d'entre vous !

Largeron

Bonjour,

L'article de Danny sullivan (gourou "seo" outre atlantique) sur searchengineland d'hier sur le moteur outre atlantique fait un comparatif Google vs Bing (très visuel facile à lire même pour les non bilingue) sur des requêtes génériques très susceptibles d'être visées par la sur-optimisation (gagner de l'argent en ligne, offre de crédit, site d'avis appareil fitness, chaussures, information autisme). Il en ressort des changements importants, pas toujours pertinents (dans le sens "les contenus qualitatifs tirent leurs épingles du jeu) mais parfois oui, donc quoi en penser ? Selon lui, Google qui suit un double objectif dans cette mise à jour (plus de pertinence, moins de spam) n'est pas atteint, et pense que cet "update" sera vite suivi pas un nouveau changement prochainement.

Goudie

Et bien moi je me suis pris une bonne gifle sur pratiquement tous mes sites, uniquement des sites à contenu original, et j'y connais rien du tout au BH... pas cool. :-(

ZeNobral

Le problème qui se pose est que pénaliser les sites de CP va surtout tuer les référenceurs white hat, car c'est très certainement la principale technique de linking qu'ils utilisent aujourd'hui... contrairement au black hat aguerris qui peuvent créer des sites et blogs quasi à la volée.
Ensuite de quelle manière cela va-t-il être traité? Est ce que les sites ayant des liens venant de sites de CP pénalisés vont perdre le bonus octroyé par ces liens? Ou carrément être pénalisés?
Car si réelle pénalité il y a, alors Dark vador a trouvé son étoile noire : récupérer les sites de CP pénalisés et faire des blasts de CP vers ses concurrents.

Je reste donc assez sceptique sur la capacité de cette mise à jour à sauver le white hat, même si, évidemment, on peut discuter très largement du coté "naturel" de l'utilisation des CP pour le référencement.

Olivier Duffez

@ZeNobral : je n'ai pas l'impression que les sites de CP soient si pénalisés que ça, mais c'est peut-être trop tôt pour faire le point. Cela dit ça ne serait pas logique qu'ils ne soient pas pénalisés (si Google considère leurs liens comme toxiques). Mais en effet tout ça soulève bcp de questions notamment sur l'impact du NSEO

gylles

Bonjour,

Personnellement pas de gros changements sur mon site principal, j'y vais mollo à chaque fois sur les cp et autres blogs, pas trop d'optimisation non plus sur les mots clés du site et a priori pas de gros changements en bien ou en mal.J'essaie de varier également un maximum mes ancres. On verra dans quelques jours.

Yoann

@Sébastien, tu vas un peu vite, certains sites n'ayant utilisé aucune techniques BH sont pénalisés. Pas de CP, mais quelques annuaires (Le top 30 d'après la liste bien connue). Le reste c'est des liens non achetés, mais échangés avec d'autres sites, le tout dans des proportion très faibles, une petite dizaine de liens, pas plus !
Alors oui des sites de BH vont tomber, mais malheureusement pas seulement. Cet exemple concerne une entreprise leader de son marché en france et dans quelques pays d'europe qui ne fait pas de vente en ligne.

Olivier Duffez

Yoann : peux-tu fournir l'URL du site concerné ? si tu ne peux pas je le comprendrais

Ancres optimisées SEO

Ce nouveau filtre antispam Google signe clairement la fin des ancres optimisées pour le référencement ! Ne postez plus les intitulés SEO de vos liens n'importe où !

Sébastien

Pour Jonathan. Je pense que ce genre de remarque (je cite : "Pour un bon référencement, il va falloir faire du nseo sur nos concurrents maintenant") montre bien que les BH pure et dure peuvent être assimilés à des mercenaires prêt à tout pour gagner de l'argent voire un peu de notoriété douteuse...
Je ne veux pas défendre le grand GG mais lorsque tu dis "Google a inventé le ref à l'envers" moi je dis "ce sont les BH qui ont inventé le ref à l'envers".
Pour finir, je pense que cette modification de l'algo de GG va faire tomber certains sites qui n'avaient aucune légitimité, et c'est tant mieux. Par contre certains passeront au travers des mailles du filet (pour l'instant) et d'autre vont subir des pertes de positions simplement parce qu'ils auront mal choisi leur site de communiqué de presse.

En tout cas en dirait bien que le changement est en marche ...

Thibault

Bonjour à tous,
il n'y a pas de doute, l'update a eu lieu cette nuit pour la France. Je confirme, mes sites les plus optimisés seo avec trop de netlinking ont bien reculé, les moins optimisés ont conservé leur bonnes positions. A suivre.

Gilles

On parle beaucoup des CPs qui seraient pris pour cible par ce filtre... Je suis un contr-exxemple alors parce que j'en ai réalisés quelques-uns ces derniers temps, ça m'a été bénéfique et aujourd'hui, pas de dégringolade sur mes positions, c'est même fortement positif !
Je pencherais un peu plus pour une corrélation BLs/réseaux sociaux...

Jonathan

Pour un bon référencement, il va falloir faire du nseo sur nos concurrents maintenant ?? Si faire des liens dans des sites de CP est negatif alors on va faire des liens pour nos concurrents de facon a ce qu'ils se font pénaliser ;-) Google a inventé le ref à l'envers lol

Valery

Pour moi cela fait assez mal, mon site principal qui est en place depuis 7 ans et relativement stable depuis plus d'un an, sans avoir recours au splog ni même site de CP, a été rétrogradé en page 3 et plus sur mes requêtes.

Je suspecte les ancres de mes liens qui sont très redondantes car le référencement est assez ancien et à l'époque, c'était un plus ...

référenceur

ca semble clairement assez ciblé BH tout ce qui s'est fait dégomé cette nuit. sur-opti, nb de BL frolant le scandale, ... De mon point de vue, aucune modif dans les SERPs car aucune strat BH en cours.

Jonathan

Je pense qu'on ne peut pas dire que toutes les techniques de référencement son white ou black, il doit bien y avoir des techniques que l'on pourrait appeler gray hat

Olivier Duffez

En effet Jonathan. Tout comme il est bien difficile de définir précisément si telle ou telle techniques est white ou black.

Editeur de CP

Bonjour,

Je note surtout une grande fébrilité alors que rien n'est vraiment officiel : Google / Matt Cutts parle-t-il de vrais sites de CP ?

Les exemples qui sont montrés sur Blogger ne sont pas des communiqués mais bien du charabia ou encore des textes rédigés par des enfants de 10 ans qui expliquent comment boire un verre d'eau...

Je ne pense donc pas que Google s'attaque aux outils (annuaires,cp,digg-likes,réseaux sociaux...), mais bien aux spammeurs qui les utilisent.

Yogloo

Personnellement, j'ai pris ma petite claque... Mais après tout, cela va me forcer à améliorer le confort utilisateur ! Le seul truc qui m'embête, c'est que je ne suis même pas sur que cela fonctionne si on fait tout beau tout propre...

Yoann

Ce matin je note parmi mes sites de gros changements de positions.
Certains gagnent des places sur toutes les requêtes que je suis d'autres au contraire perdent brutalement 10/20 places sur des requêtes stables depuis de nombreux mois.

lionel

Bonjour Olivier,

Matt Cutts va essayer de définir les limites entre le référencement white hat et le référencement black hat. Je ne sais pas si cela va être si simple. A mon avis, Google va s'attaquer aux CP, digg like et splogs comme jamais cela n'a été effectué auparavant.

amicalement

Les commentaires sont fermés