Portrait Olivier Duffez

Olivier Duffez

Créateur de WebRankInfo,
consultant en référencement

La suroptimisation du référencement naturel combattue par un filtre de Google

Est-ce simplement une annonce de plus ou bien Google prépare-t-il réellement un filtre de détection des sites "sur-optimisés" d'un point de vue référencement naturel (SEO) ? En tout cas Matt Cutts a laissé échapper quelques infos. MAJ du 26/04 : conseils complétés, et informations mises à jour suite à l'officialisation de ce filtre par Google le 24/04.

Cet article fait partie des archives de WebRankInfo : certes, il est ancien, mais complet et détaillé pour son époque. Si vous cherchez d'autres informations, faites une recherche sur le site ou participez au forum. Contactez-moi si besoin.

Google avait annoncé travailler sur un filtre contre la suroptimisation du référencement

Matt Cutts

C'était le 10 mars 2012, au cours d'une conférence SXSW où Matt Cutts (Google) et Duane Forrester (Bing) répondaient aux questions de l'auditoire. Matt Cutts se permet alors d'indiquer que son équipe travaille depuis plusieurs mois sur un projet visant à repérer les sites qui font de la suroptimisation de leur référencement naturel (over optimization or overly SEO). Il pense pouvoir sortir son nouveau filtre (faut-il appeler ça un filtre ?) d'ici quelques semaines ou quelques mois.

Depuis cette annonce, les spéculations explosent ! Quelles techniques d'optimisation du SEO deviendraient ainsi "too much" aux yeux de Google ? Les référenceurs ont en ce moment la désagréable impression que Google cherche à les couler définitivement :

D'un autre côté, finalement cette annonce n'apporte rien de nouveau : fondamentalement, Google a toujours dit vouloir mettre en avant les contenus les plus pertinents pour l'internaute. Peu importe que la Matt Cutts soit optimisée ou non (retrouvez mes conseils pour la balise title).

Dans la première version de cet Matt Cutts, paru le 19 mars 2012, j'écrivais :

A moins que Google s'attaque enfin au nettoyage des techniques artificielles d'acquisition de backlinks ? Là en effet ça pourrait faire de très gros changements pour les sites qui abusent de backlinks "faciles" et peu naturels.

Et justement je pense que c'est une composante importante (pour ne pas dire majeure) du filtre de Google. D'ailleurs l'actualité qui a suivi a montré que je visais juste (avant même l'officialisation de l'update, voir ci-dessous). La nouvelle pénalité Google pour cause de mauvais Matt Cutts est tellement importante (stratégique) que je l'aborderai dans un prochain Matt Cutts spécifique.

L'annonce officielle du SEO Webspam Update

Cet Matt Cutts avait été écrit initialement en mars 2012. Je l'avais ensuite mis à jour le 24 avril pour affiner les conseils, quelques heures avant que Matt Cutts annonce officiellement la mise en place de cet update. Je vous laisse consulter mon article dédié à cette annonce, mes conseils ci-dessous restant tout à fait applicables.

Comment éviter la pénalité de sur optimisation ?

Je pense qu'il faut s'engager vers une optimisation la plus variée possible, en utilisant toutes les facettes du référencement naturel d'aujourd'hui. Voici mes conseils...

Optimisation technique

Concevez une bonne architecture de site, organisez bien vos contenus, faites en sorte de ne pas changer vos Matt Cutts sans arrêt (le moins possible d'ailleurs).

Vérifiez les technos utilisées (elles doivent être "compatibles SEO"), assurez-vous de faciliter le crawl et optimisez la vitesse de chargement du site.

Bref, tout ça peut se travailler sans crainte de suroptimisation. Ouf !

Optimisation de l'éditorial

Là il faut faire attention ! Il existe des techniques très efficaces de travail du référencement éditorial, conciliant les contraintes des internautes et des moteurs de recherche. Mais si on bascule dans une sur-optimisation des contenus, ça peut devenir contre-productif : incompréhensible par les internautes et inefficace en positionnement Google ou Bing.

D'après ce que je vois sur le forum ou dans mes formations (et parfois chez mes clients), il y a encore énormément d'idées reçues sur la façon idéale de rédiger pour le référencement. A mon avis le filtre de Google inclut certains critères liés à l'éditorial (je ne parle pas que de fichu indice de densité).

Optimisation du netlinking

C'est ici que l'algo de Google fait le plus mal ("a fait" pour certains qui sont déjà pénalisés) mais il faut bien avouer que Google avait beaucoup de retard sur le sujet. L'objectif du filtre de Google est ici de repérer les liens artificiels (factices comme ils disent dans les messages envoyés via Matt Cutts).

En gros, il s'agit des liens obtenus uniquement pour booster le référencement. Je reviendrai prochainement en détails sur ce sujet, mais en attendant appliquez à 100% ce conseil : variez vraiment beaucoup les types de liens (j'insiste sur cet aspect depuis bien longtemps dans ce guide). Ou alors posez-vous ces premières questions :

  • est-ce moi qui agis directement pour avoir ces liens ou bien est-ce le webmaster du site qui me fait le lien ?
  • y a-t-il des chances que des internautes aient envie de cliquer sur le lien ?
  • et s'ils le font, vont-ils trouver à coup sûr ce qu'ils s'attendaient à trouver ?
  • ai-je utilisé des techniques qui non seulement sont automatiques mais aussi génèrent des gros volumes de backlinks ?

Les principaux types de liens jugés artificiels par Google : liens achetés bien sûr mais aussi liens issus de sites de CP (communiqués de presse), de digg-like, etc. Google vise ici directement certaines techniques que l'on qualifie de black hat.

Pour plus d'infos, relisez mes conseils sur le netlinking.

Optimisation des aspects sociaux

Peut-être que dans certains cas (car ce n'est pas applicable à tous), il faut une reconnaissance sur les réseaux sociaux pour confirmer le SEO traditionnel : c'est l'enjeu du "référencement naturel social".

Conclusion sur ces conseils

Evidemment, celui qui a toujours respecté 100% des consignes de Google n'est pas vraiment concerné : il doit même sortir gagnant de ce filtre. Mais y a-t-il tant de sites qui entrent dans cette catégorie ? Chacun doit donc faire une analyse de son site, avec le plus de recul possible. Le "piège" le plus simple à éviter est celui de l'optimisation éditoriale et le plus dur est celui du netlinking artificiel... Si vous avez besoin de l'aide d'un professionnel du SEO, contactez-moi pour un audit.

D'une certaine façon, si votre référencement est anormalement optimisé sur un aspect et très peu sur les autres, ça pourrait être repéré par Google ? Que pensez-vous de cette idée (développée par le site SEJ) ?

Cet article vous a-t-il plu ?

Cliquez pour voter !

Si vous avez des questions, posez-les dans le forum WebRankInfo.

Si vous préférez du consulting, j'en propose sur mon site WebRankExpert.

79 commentaires

john

C'est abusé ce que l'on trouve parfois sur les premières pages de google en tapant un mot clé. Dans beaucoup de cas les sites ne correspondent pas du tout à la recherche de l'internaute. Il faut aller en 3 ou 4ème page pour enfin trouver un site en rapport avec le mot clé.

Hafid

C'est abusé ce que l'on trouve parfois sur les premières pages de google en tapant un mot clé. Dans beaucoup de cas les sites ne correspondent pas du tout à la recherche de l'internaute. Il faut aller en 3 ou 4ème page pour enfin trouver un site en rapport avec le mot clé.

Detectimmobilier

Au vu des résultats, la pertinence n'est surement pas de mise, on trouve en 1ère page :
plusieurs pages d'un même site,
des descriptions 3 ou 4 fois dupliquées,
des sites en sommeil
des annuaires qui ne prennent pas d'inscription
......
j'en passe et des meilleures.....

Rémi

La fin du métier de référenceur ? Peut-être pas !
Un gros chamboulement ? peut-être !
Un web plus homogène et pertinent ? Surement !

Trouvannonces

Bonjour,

Il est clair que les concurrents ne sont pas toujours des sites de la thématique envers les mots clés recherchés par l'internaute, il y a encore ici, des abus de spam, soyons le plus naturel possible pour ressortir au mieux, et que la mise à jour de pingouin puisse faire un peu de bien aux sites internet qui ne font pas de spam..

ClaireG

Merci pour cet article et les vidéos partagées !
Depuis ce matin je me promène sur votre site et sur vos articles Olivier et j'en apprends toujours plus dans ma manière d'optimiser mon référencement et de corriger mes erreurs ! Je suis toute jeune embauchée dans une agence de communication après un long stage et j'ai appris par moi-même les techniques d'une stratégie web de référencement pour répondre à une stratégie proposée à un client.
Merci pour tout !

Agence web id meneo

J'ai coutume de dire que ceux qui réussissent dans la vie ce ne sont ni les gens les plus beaux ni les gens les plus intelligents mais les plus malins.
Il va falloir devenir de plus en plus malin pour naviguer avec Google et ça, ce n'est même plus une question d'investissement...

Annuaire Français

Pour info, je n'ai eu aucune sanction avec les sous-domaines, même un leger UP avec pinguen.
Ce n'est pas forcément représentatif car il me semble que j'ai des sanctions légères et un trafic en dessous de la normale. Probablement le dépassement des 100 liens par pages auquel je vais remédier.
Mais en tout cas, pas de sanction sur le passage de l'animal à ce jour...

Iceranking

Le nouvel algorithme a causé de gros dégâts sur des sites avec plusieurs sous-domaines. Est-ce que vous pensez que les sous-domaines ont été pénalisés avec Penguin ?

Olivier Duffez

@Iceranking : je n'ai pas vu de corrélation forte entre la présence de sous-domaines et la pénalité Penguin. Si un site avec des sous-domaines s'est fait pénaliser, n'est-ce pas parce qu'il a utilisé de nombreux sous-domaines dans l'optique d'une optimisation du référencement avant tout ?
Peut-être qu'en donnant des exemples on pourrait aller plus loin dans l'analyse ?

web agency

Oui, je crois malheureusement bien qu'il y a du vrai dans ton analyse. Déjà, sur analytics les clients ne comprennent plus pour quelle raison absurde les keywords ne sont plus présentes et de se retrouver avec des pourcentages très élevés de "not set" ou "not provided" ... GG doit bien avoir quelques idées derrière la tête pour revendre ce service dans un futur proche (je tombe dans le HS, veuillez m'en excuser !).

CA-Booster

@ web agency : Aujourd'hui, il faut expliquer au client pourquoi son site a perdu des visites...
Demain, il faudra lui expliquer pourquoi le coût par visite via le référencement naturel est aussi cher qu'en payant, et avec moins de garanties. Parce que c'est bien joli de rendre le métier du SEO "passionnant" mais le temps de recherche et de retouches et linking "à la mano", c'est le client qui le paie. Et lui, il n'est pas prêt à payer plus cher que son CPC moyen...
Voici donc la stratégie de Google: rendre le SEO moins concurrentiel par rapport à AddWord.

Judicael

Bonsoir à tous,

Qu'en est des commentaires sur les blogs. Cela pourrait il pénaliser le blog ou le commentateur ?

Merci de vos avis.

Salutations

Olivier Duffez

Comme toujours il faut modérer les commentaires et dans ce cas je ne vois pas de problème. Vous pensiez à quels problèmes pour le blog et/ou le commentateur ?

Muriel

Google valorisera de plus en plus les contenus utiles aux internautes. Optimiser le référencement pour Google, fournir les bonnes informations et une expérience utilisateur agréable à l'internaute ne semblent pas incompatibles. L'internaute n'est pas une contrainte, il est le véritable public d'un site.

web agency

Belles paroles "tonton ref", entre-temps qui explique à son client le fait d'avoir perdu la moitié de ses visites ... alors que le site ne fait usage d'aucune sur-optimisation ? Les effets de bords de Google sont terribles dans ce cas, et la lenteur de réaction de Google est désastreuse.

Florian

Je blogue sous WordPress et je suis conscient d'avoir sur-optimisé mon site avec des backlinks et des contenus enchiris en mots-clés pour obtenir un bon positionnement dans les résultats de recherches sur un nombre important de requête et j'en paye le pris fort depuis la mise en place de ce nouveau filtre par Google.

Je me retrouve depuis peu derrière certains sites qui sont mal rédigés, mal structurés, peu présentables et qui ont peu de backlinks (quelques échanges de liens croisés uniquement). Ma home a perdue quelques places sur certaines requêtes très importantes à mon activité. Certains de mes articles se retrouvent complémentement perdus dans la masse des résultats et ne sont plus accessibles par l'utilisateur. Devant mes articles, se retrouvent des résultats qui sont tout à fait inutiles à l'internaute vis à vis de la requête effectuée. Certains de mes /tag/ se retrouvent devant mes articles, alors que ces pages ne contiennent aucun contenu. Comment pouvons nous considérer que Google mets tout en oeuvre pour proposer radicalement à l'utilisateur l'information qu'il recherche ?

Pour remédier à ce problème, dans un premier temps je pense alléger mes contenus de certains de mots clés répétés pour que la rédaction soit la plus naturelle possible.

Est-ce une bonne idée ?

Dans un second temps, quand je m'aperçois que certains sites sont passés devant moi et qu'ils n'ont aucun backlink et un PR 0, pensez vous qu'il faut que je modifie mes URL afin que ces liens n'existent plus ?

fredodo13

Bonjour à tous,
Marre des états d’âme de google et de ses changements d’algorithme tous les mois, google est devenu trop puissant.
Je pense que le blackhat peut-être considéré comme une technique comme une autre et à porter de tous après tout....

Pour ma part et heureusement pour moi, mon site est toujours 1er sur ma requette par contre mes concurrents que j'estimé très bien fait ont dégringolé pour avoir à la place un article de wikipedia (je vois pas l'interêt!).

@Oliver, alors désormais il faut varier les ancres finalement ? à moins que que l'ancre correspond au nom de domaine du site après tout qu'est ce qu'il a plus de naturel ?
Ou limite il faut faire un gros popup à l'entrée de nos sites avec marqué : "plz ne faites pas de lien vers mon site!!".
Apres tu parles de mettre un lien avec ton nom et tu dis que c'est naturel... oui ok mais avec 10 liens vers WRI avec la même ancre et sur la même page c'est plus trop naturel!

Bonne journée

Olivier Duffez

@fredodo13 : tu écris

@Oliver, alors désormais il faut varier les ancres finalement ?

c'est peut-être de l'humour ? Car ça fait des années qu'on conseille de varier les ancres, relis mon tutoriel du netlinking qui insiste énormément sur l'impératif de tout faire varier.

Tonton ref

Ne crions pas à la mort du référenceur, plus les updates seront stricts, plus notre travail sera ample. Notre métier évoluera, comme toujours et c'est ça qui le rend si passionnant. Avec tous ces filtres justement, qui pourra encore se passer d'un conseiller en visibilité Web ?

Emmanuel

Comme beaucoup d'entre vous j'ai abusé de CP. La question que je me pose est est-ce que cela maintenant une négative SEO ou tout simplement annihile les effets antérieurs offerts par les CP ?

Concrètement pour les sites qui ont plongé, faut-il essayer de les récupérer par des CP ou justement éviter.

MasterImpact

oui, ce qui c'est passé hier pour moi c'est le désordre, aucune logique derrière, on voit des sites bien linkés et naturellement se dégrader alors que des sites qui n'ont rien à voir avec tt ces conseils de ref prennent les premières positions..alors on croisent les bras les référenceurs!!

Soul

La maj de hier est quand même assez violente, pas mal de sites propres ont été tout simplement virer et des sites mois propre rank bien, je trouve que ce n'est pas du tout une réussite. Et aucun lien que vous faite est naturel...

Octavius

Mais le javascript ne fournis pas d'informations particulières sur le contenu à indexer, il s'agit essentiellement d'un codage descriptif et "esthétique", donc peu utile pour le référencement. Quand à l'AJAX, c'est juste un concept qui agence plusieurs langages... Donc le javascript. Mais ok pour les sections. On peut en fait dire que Google considère les formats génériques des sites, sans transformation lié à l'intervention humaine (bref, sans input)...

Dominique Levesque

Oups, merci beaucoup. J'ai l'impression qu'une séance de rattrapage sera nécessaire !

Dominique Levesque

Lors de la formation que j'ai suivi avec Olivier en décembre, tu avais suggéré de, lorsque que cela s'y prête, scinder un site en plusieurs sous-domaines pour optimiser le référencement, tout en utilisant une redirection 301 pour les pages actuelles. Ce que je m’apprête à faire, gagnant ainsi plusieurs milliers de liens en une seule opération.
J'hésitais à le faire, mon site étant déjà un sous domaine.
La lecture de cet article m'en dissuade : il me semble jouer à l'apprenti sorcier et que le remède pourrait se révéler pire que le mal.
Que faut-il en penser maintenant ?

Olivier Duffez

Non Dominique, je n'ai pas dit que scinder en plusieurs sous-domaines pouvait optimiser le référencement. En tout cas ce n'est pas une "technique" ou une "astuce".
Je ne sais pas dans quel cadre on en avait parlé avec toi, peut-être dans le module sur Panda ? Dans ce cas on peut scinder son site en sous-domaines à condition de s'assurer de bien séparer le bon grain de l'ivraie. Sinon ça ne sert strictement à rien.

FinanceAZ

Salut Olivier, ton article est très intéressant, tout autant que la vidéo présentée par Rand Fishkin de chez SEOMoz. Depuis plusieurs mois je fais justement attention à différents points soulevés dans sa présentation. C'est notamment le cas des échanges de BL directs, ou encore des liens depuis des plateformes de mauvaise qualité.

Octavius

"L'état actuel des capacités des moteurs" ? Vous parlez de l'algorithme ? Je n'arrive pas bien à comprendre ce que vous entendez par "SEO compatible"... Un site c'est du code. Le seul moyen de ne pas être "SEO compatible" serait de ne pas coder en HTML, PHP, CSS, Javascript. Mais auquel cas vous entrez dans des langages de traitement... Et ça ne s'affiche pas dans un navigateur, un langage de traitement.

Olivier Duffez

Par exemple Javascript peut être en frein - ou pas, selon les scripts et les moteurs.
Idem pour AJAX, les sessions, etc.

olivier

Moi, je fais comme Olivier, j'utilise mon prénom pour ancre (et même celui des autres!)

Pénalisé fortement ce matin, je recherche de l'info et je trouve quoi : Google veut faire peur. C'est gagné ! Mais qui y gagne ? Je ne comprends pas cette logique dans ce domaine comme dans tout domaine (la paire de baffes est une erreur, toujours).

Octavius

Qu'est ce que c'est une technologie "SEO compatible" ? Vous faites référence aux normes W3C ?

Olivier Duffez

Non pas au W3C mais à l'état actuel des capacités des moteurs à crawler et indexer les contenus.

Chasseur immobilier

@Olivier :
Bien sur que les liens c'est moi qui les fais, je n'ai pas encore la notoriété suffisante pour engendrer de nombreux articles spontanés, excepté récemment dans le Journal du net et la Vie Immo, mais ça viendra, en attendant c'est le seul moyen...
C'est une question de temps, par la suite, comme toi, je pourrais me permettre de renseigner ma marque en pseudo et même en tête de ma balise Title.

Jean

Le grand problème avec le filtre de liens artificielles c'est qu'il ouvre la porte à de nouveaux techniques Nseo.

un échantillon ce poste sur trafficplanet http://trafficplanet.com/topic/2369-case-study-negative-seo-results/
ou des blackhat en profite de ce nouveau filtre pour donner une raclette aux concurrents !

Olivier Duffez

En effet Jean, c'est un sujet de discussion important, que je compte aborder dans mon prochain article.

Lesannuaires

@Olivier Duffez. Je ne sais si tous ces sites ont abusé du netlinking, mais pour certains ce n'est pas le cas. En fait, j'ai l'impression que l'important pour Google est surtout de faire passer le message qu'il a du pouvoir... Mais les méthodes punitives sont souvent un aveu d'impuissance et sources d'injustices...

Pourtant Google a les moyens de positionner un résultat en fonction de son contenu, son originalité, etc ... sans attacher trop d'importance au linkage. Alors pourquoi, punir aussi sévèrement, alors qu'il serait bien plus logique de simplement ignorer le poids des liens à partir d'un certain seuil, quand ceux-ci semblent un peu trop artificiels .. ? Des liens d'ailleurs dont personne ne peut contrôler l'origine... Je pense par exemple au vieux sites, comme mon annuaire pour qui WMT annonce 145,359 links alors que j'ai du en échanger 5 ou 6... Donc une punition injuste qui s'est encore accentuée avec Panda.

Olivier Duffez

@Lesannuaires : moi non plus je ne sais pas s'il y a eu des abus de netlinking, mais c'est ce que je suppose pour expliquer ce que tu nous indiques (des pénalités sur cette requête). Il est clair que Google pourrait simplement ignorer les liens factices, mais en effet l'objectif est (entre autres) de faire peur pour que l'usage de techniques artificielles de netlinking diminue.

chambre d'hotes Jolivet

Ah non, il y a aussi chasseur d'appartement !!! ;-)
Moi je suis pas certain que Olivier Duffez fasse plus naturel...;-)

Olivier Duffez

@chambre d'hotes : mettre mon prénom et mon nom dans le champ auteur d'un commentaire, je ne vois pas bien ce qu'il y a de plus naturel !!!

Chasseur immobilier

Effectivement car c'est mon métier et mon expression clé je ne vois pas pourquoi je procéderais différemment, est ce bien plus "naturel" de varier les ancres pour travailler sur la longue traîne ?.....

Olivier Duffez

@Chasseur : parce que tu pars du principe que tes backlinks c'est toi qui les fais. Mais justement, les liens naturels, ceux que Google incite à créer en tout cas, ne sont pas forcément créés par le propriétaire du site qui les reçoit. Dans ton cas, surtout pour des liens vers la home, il devrait y en avoir une très grande partie qui utilise ta marque ou des variations de ta marque.

Chasseur immobilier

Oui je vais finir par l'aimer ce Bing, car c'est exactement ce qui se passe en ce moment, des pages filtrées pour je ne sais quelle raison par Google sortent "normalement" sur Bing...

Olivier Duffez

Je te vois sans arrêt faire des liens dont l'anchor text est "Chasseur immobilier", c'est tout sauf naturel !

Lesannuaires

Le problème des ces punitions appliquées sans contrôle se situe au niveau de ce qu'on pourrait appeler les dégâts collatéraux .. Il y a trop de sites qui disparaissent du jour au lendemain de leur requête principal sans aucune raison valable. Il suffit de regarder la requête sur le mot "annuaire" pour voir que la plupart des répertoires de qualité ont été envoyés au delà de la 40em page ... Et le plus remarquable, c'est que Bing sur une requête aussi polluée s'en tire bien mieux que Google ...

Olivier Duffez

Et ces sites n'ont-ils pas suroptimisé leur netlinking sur cette requête ?

serishirts

Oubliez pas que google c'est une société qui est là pour faire de l'argent, donc toutes les techniques de SEO sont pour eux plus ou moins artificielles.
Ce que google veux c est qu'un site qui est en 1ere position se doit d'etre populaire point barre, pour pouvoir faire raquer les autres un max.
Avec le seo ont peu etre bien placer sans payer les pubs google et ca ils aiment pas et c est surement pas pour rendre le net plus propre ^^.
Juste une question de thune et vu leurs moyens ils peuvent y arriver.
C'est flippant quand même...

Yorik

En tout les cas récemment j'ai vu une énorme différence sur mon mot clé principale (forex), des sites sur-optimisé au niveau du backlinck mais ayant un contenu minable se sont fait jeter de la première page (ce qui m'a permis d'y apparaitre :D).

Pour moi cela concerne donc principalement l'acquisition de backlink, qui est devenu tellement bête et méchant que la qualité du site ne rentre plus tellement en compte dans certain cas (enfin depuis samedi la page 1 est nettoyé de ce genre de sites).

J'ai en tête un exemple assez parlant (forexland.net) qui en moins de deux mois était passé d'inexistant à la troisième place en passant même devant wikipédia alors que le contenu ne valait rien. Et là il a disparue d'abord quelques jours, puis est revenu, puis a disparue encore une fois, et jusqu’à présent complétement.

Ce site avait un nombre de BL vraiment impressionnant par rapport aux autres sites du mot clé.

En tout les cas cela n'est pas un mal à mon gout !

Siti Palermo

Une fois de plus GG se joue des effets d'annonces car concrètement cela ne veut rien dire !

lolo38340

on se demande comment cela va finir !!! car pour les petit e-commerce cela est très déroutant.

Vos réponses

Les filtres Google sont pour moi toujours une bonne nouvelle ! Le jour où un site ne pourra ranker qu'en ayant un contenu intéressant, propre, un profil de visites qualitatifs, avec un taux de rebond faible, un temps de visites long, des liens de qualité etc... Ce jour là, ça ne voudra pas dire qu'on ne fera plus appel à nous, ça voudra dire au contraire que le métier de référenceur sera encore plus pointu et intéressant !

Lentilles de couleur

Moui, comme d'habitude on peut s'attendre à tout et à rien...

J'ai une question : je vois ici dans l'article et dans certains commentaires parler de "netlinking artificiel" et d'obtention de liens faciles. Comment d'après vous Google peut détecter ça ? (c'est une vraie question).

Car d'un côté l'algo a évolué et peut détecter notre profil de liens, la vitesse d'acquisition, les périodes de creux et bien d'autres choses certes mais les pratiques de "netlinking artificiel" ont évolué également. On ne se fait plus 1000 backlinks/jour pendant 1 mois et basta, on fait ça "naturellement". On peut obtenir des liens follow/nofollow, des liens de mauvaise et bonne qualité, des liens de différentes plateformes/sources. Comment l'algo peut vraiment faire la différence à ce niveau ? C'est bien la question que je me pose.

Véhicule utilitaire

Si Google apporte toutes les réponses, les internautes n'auront pas besoin de visiter les autres sites web. Dans ce cas là, les sites web ne pourront plus financer Adwords?

Chasseur d'appartement

Il semblerait que certaines modifs d'algo aient été déjà mises en place concernant notamment les ancres multiples # .....

belcanto

Le SEO a toujours été l'art de ne pas basculer de l'autre côté de la crête des vagues (les surfeurs me comprendront). La position de cette crête varie au grès des courants et des changements d'algorithmes de Google. Il faut garder le pied marin. En clair/ savoir une fois de plus s'adapter en observant, en réfléchissant, en testant, en apprenant et en s'adaptant plutôt que de vouloir bêtement appliquer des recettes vite éculées. Pour ma part, je verrais bien une importance encore plus grande donnée à la cohérence sémantique des contenus d'où sont originaires les liens...

Bruno

Eh ben wikipedia est très mal sur ce coup là !!

Olivier Duffez

Wikipédia ? Au contraire, car ce site n'optimise pas outre mesure son SEO...

Immo-One

Cela suit la logique initiée par Panda : la qualité avant tout. Fini la génération automatique de pseudos phrases bourrées de mots clés n'ayant ni queue ni tête. Place à la construction de véritable contenu pertinent et travaillé.

@Jean-Michel, Certes le référencement naturel est gratuit dans l'absolu. Mais il ne faut pas se leurrer, cela demande certaines analyses et compétences de professionnels. Il y a certainement des abus sur des devis mais globalement, mieux vaut investir sur cette technique au lieu de baser toute sa croissance d'entreprise uniquement sur les Adwords. Au final, les Adwords, si on y goûte trop, deviennent un poste de dépenses considérable.
Mathieu

Jean-Michel

Bonjour,

suis-je le seul à trouver que cela devient bien trop compliqué pour le commun des internautes ? Et onéreux ? Quand je pense qu'on parlait à une époque du référencement naturel comme du référencement "gratuit" (par opposition à Adwords et cie pour le référencement payant)...
Quand on voit aujourd'hui les devis proposés par les agences spécialisées SEO on est pas loin de l'antagonisme !
Et certains résultats de recherches reflètent selon moi un vrai manque de pertinence et une réelle injustice pour certains annonceurs...

Jean-Michel

Anémone de mer

La suroptimisation du linking pourrait être détectée comme artificielle par une longue période de non-obtention de lien après un acquisition rapide et courte de liens externes de toute nature. Quoique là, on irait à l'encontre des faveurs accordées par GG aux sites, je cite, à contenus ultra-frais : ces sites/pages obtiennent des BL sur une très courte période puis n'en obtiennent plus.

Mais encore une fois, GG fait des annonces sur le linking à propos du classement dans les serp, ou des arguments techniques, mais toujours rien concernant le contenu et sa qualité. Quand on voit les pages en "ébauche" de wikipedia truster les premières positions avec 3 lignes (inutiles dans 99% des cas) devant d'excellents sites, véritablement informatifs, c'est risible.

Doit-on vraiment se résigner à faire des pages pauvres mais passer beaucoup de temps sur le linking pour acquérir du traffic?

immobilier-internet

Ça fera pas de mal et laissera une chance aux sites qui sont biens travaillé, mais pas "sur optimisé".
Google donne vraiment du boulot au référenceurs professionnels et OUT les référenceurs du dimanche.

Olargues

@Drupal, Matt Cutts commence par expliquer que dans un monde idéal, on n'aurait pas de coach comme il les appelle pour optimiser le référencement car tous les sites seraient tellement bien fait qu'on n'aurait pas besoin d'optimiser.
C'est une annonce importante effectivement. Ca va chauffer sérieux sur WRI ! Sur ce que j'ai compris, Matt Cutts insiste sur la moyenne entre une sur-optimisation et une sous-optimisation du référencement, signifiant qu'ils travaillent sur un algorithme identifiant la valeur d’optimisation moyenne et calculant la différence pour une sur ou sous-optimisation. Il a d'abord dit que le filtre sortirait dans quelques mois pour tout de suite corriger en disant dans quelques semaines. La conférence est très intéressante. Alors je vais écouter la suite...

Drupal

Google veut faire disparaître le reférencement naturel ?

Last Video

En ce moment il ne se passe pas une semaine sans que google promette des changements dans son algo qui visite directement ou indirectement le travil des référenceurs. La chasse aux sorcières est lancées...

Plurimedia

D'après mes constatations, tout référencement "non naturel" s'expose déjà à des pénalités de la part de Google.

La vraie question est : Est-ce que le phénomène va s'amplifier dans les mois qui arrivent ?

Je pense que c'est une certitude car la stratégie actuelle de Google va plutôt dans le sens de la fermeté ...

Valbou Photographie

Il semblerait effectivement que le linkbaiting soit une cible de choix pour Google. Avec probablement une tolérance réduite (tolérance zéro ?) à la proportion de texte masqué via display:none et autres text-indent:-5000px.
Si Google fait effectivement une mise à jour de cet ordre ce sera peut-être 20% de changement sur la long tail mais 80% sur la short tail !
Vivement la mise à jour ^^ peut-être que Google retrouvera sa pertinence sur les requêtes de plus de 7 mots clés en français...

jeux

Assez perplexe ce filtre de suroptimisation, à quand la belle époque où il suffisait que des backlinks pour le referencement lol... !

Quelles sont selon vous les suroptimisations qui peuvent être touchées par ça ? les com blog ? lien forum...?

Oobby

ho ca fait peur

Blog Paradiseo

Ce que disent de nombreux commentateurs des derniers propos de Matt Cutts (ex Vanessa Fox vient aussi de publier un article), c'est que ces nouvelles pénalités ou filtres pourraient notamment visés les profils de backlincks trop artificiels ex trop d'échanges de liens etc.
De nombreux filtres et pénalités déclenchés algorithmiquement sont déjà en place depuis un bon moment (évident pour le KW stuffing et probablement aussi pour certains types de profils de liens) mais maintenant les écrans radar de Google pourraient balayer plus loin et analyser encore un peu plus les BL (le point faible historique de l'algo)ou abaisser les seuils de déclenchement des filtres, pour soit disant remettre tous les sites offrant un contenu pertinent sur un même pied d'égalité !?

PS: Serait intéressant de répertorier tous les types de pénalités Google connus (ex un site positionné dans le top 5 sur la requête "referencement" vient de se prendre une +50 (ou qq. chose y ressemblant) d'après ce que j'ai compris à cause d'un "réseau" de liens un peu trop ... artificiel. J'ai vu aussi sur des requêtes relativement concurrentielles des sites à très faible notoriété (et vraiment très peu de BLs) remonter (du moins pour qq temps, le temps de tester les réactions des utilisateurs ??) en page 1

visite panoramique

D'après la vidéo du bas, il n'est pas nécessaire de se soucier de notre quantité de nofollow, c'est déjà une bonne chose qui correspond à ce que l'on pensait déjà.
Par contre, on risque de ressortir le sujet du meilleur indice de densité !

Nico

Ah oui « d'ici quelques semaines ou quelques mois »... J'avais lu « d'ici une semaine ».

Continuons de travailler avec les guidelines de Google. Qui sait... Avec cette amélioration, ça portera peut-être enfin ses fruits...

Nico

Quels sont les sites, autres que Blogspot et Youtube qui vont bénéficier de cette nouvelle mise à jour ? Donc, on s'attends à voir du mouvement d'ici quelques jours...

Olivier Duffez

@Nico : ça n'a pas l'air d'être pour dans qq jours. Ca nous laisse le temps pour tout sabrer :-)

lionel

Bonjour,

Je me demande sur quels critères ils vont fixer les limites. Imaginons qu'une page Web contenant les mêmes mots-clés dans l'"url", la balise "H1" et dans la balise "title" soit pénalisée. Je ne comprendrais pas forcément la démarche puisque vis à vis du lecteur, prospect où client c'est plutôt une visibilité cohérente.

amicalement

Olivier Duffez

@Lionel : ça m'étonnerait qu'ils visent ce genre d'optimisation. Il y a 1000 fois plus d'abus dans le netlinking par exemple.

lereferenceur

Il serait normal que seuls les liens venant d'articles et des réseaux sociaux aient un réel poids.

Vacances

Pour ceux et celles qui désirent se faire une opinion du caractère abusif de certains référenceurs, tapez les mots clés "locations vacances" sur Google.fr. Vous aurez droit à une belle brochette ;-) Des fois je suis sur un site et je me dis "non !? il a osé faire ca ?"
Vraiment je me réjouis que Google vienne donner un petit coup de balai.

Les commentaires sont fermés