Google est ton ami... si si, j'te jure...

WRInaute accro
Je viens de terminer la visualisation attentive du HO Google auquel ont participé, entre autres, notre ami Olivier Andrieu et notre hôte Olivier Duffez.

Nos deux lascars et vieux roublards du SEO francophone savent de quoi ils parlent... et en parlent sans détours, ce qui n'est pas le cas des deux *whatever* de Google qui ont dirigé (le mot est fort) ce hangout empreint si non de fausses vérités, au moins d'une abondance (sans jeu de mots) de langue de bois.

En extrait choisi, la question d'Olivier Duffez à propos des chances qu'a un site ouvertement pénalisé par un filtre principal (Penguin en l'occurrence) de sortir de sa pénalité après correction (vraisemblablement un désaveu*), et la réponse évasive et vide de sens des Googlers [EU]...


* Olivier, peut-être peux-tu nous donner plus de détails et de chiffres (sans citer de noms) sur ce cas-client précis ?
 
WRInaute accro
ce qui n'est pas le cas des deux *whatever* de Google qui ont dirigé (le mot est fort) ce hangout empreint si non de fausses vérités, au moins d'une abondance (sans jeu de mots) de langue de bois.

Et ca t'etonnes ?....

:mrgreen:
 
WRInaute accro
Furtif a dit:
ce qui n'est pas le cas des deux *whatever* de Google qui ont dirigé (le mot est fort) ce hangout empreint si non de fausses vérités, au moins d'une abondance (sans jeu de mots) de langue de bois.

Et ca t'etonnes ?....

:mrgreen:

Ca fait 10 ans que je côtoie cette sphère de pseudo-érudits, en me gardant bien d'en faire partie... donc non, ça ne m'étonne pas. Il suffit de faire deux pas en arrière et d'avoir deux neurones connectés pour comprendre ce qui est, et ce qui n'est pas.

Le vrai SEO (pas le "référencement" à deux balles) est devenu depuis 4/5 ans un véritable acte de résistance, constitué de méthodes passives (#white) et agressives (#black), ou d'un mélange des deux (#grey), mais il n'est fondamentalement plus question de respecter des "guidelines" aveuglément.

D'ailleurs, si tu lis ce qui ce raconte outre-atlantique (et que tu sais lire entre les lignes), tu comprends vite que notre métier est constitué de deux "clans": les lèche-bottes "certifiés", et les contre-courants "efficaces".

Comme disait C.H. Revson,

Dans nos usines, nous fabriquons des cosmétiques.
Dans nos boutiques, nous vendons de l'espoir
.
 
WRInaute accro
Je partage sans reserve ton avis :)
et depuis mes debut en 1997.... j'ai toujours lu entre les lignes...

:lol:
 
Olivier Duffez (admin)
Membre du personnel
ça a dû se voir que plusieurs fois je n'étais pas convaincu par les réponses, en effet
de là à traiter ça de bullshit (ton commentaire G+), je ne pense pas que ce soit la bonne façon de faire avancer les choses...

pour ta demande d'exemple, malheureusement j'en ai plein. J'ai par exemple eu un nouveau client le jour de Pingouin 1, qui a perdu 70% de trafic SEO Google pile poil le jour de l'annonce officielle de Pingouin 1.0 :
site-pingouin-1.png

Pour ma part, il ne fait aucun doute qu'il est touché négativement par le filtre Pingouin (je n'ai pas utilisé le terme "pénalisé" pour ne pas rentrer dans la polémique).
Il avait 95% de liens foireux (il n'était au courant de rien de ce que faisait le "référenceur", comme ce gars se faisait appeler) et un contenu bourré de mots-clés.
J'ai viré ou désavoué les 95% de liens, on a refait 100% des contenus, on a obtenu quelques bons liens : 2 ans après, le site n'a pas du tout bougé. Pendant ce temps, on a créé un autre site et aujourd'hui il a 10 fois plus de trafic qu'avec le site initial qui se traine.

PS 1 : j'ai publié un résumé de ce hangout
PS 2 : je poursuis la discussion sur Google+ https://plus.google.com/+OlivierDuffez/posts/GMSVHBWgkrg
 
WRInaute accro
En fin de compte si on y réfléchit bien, la pénalité à un certain stade va au delà de la pénalité algorithmique.

Je m'explique, si elle était uniquement algorithmique il serait logique de voir des mouvements positives après avoir fait des changements pour redevenir google friendly.

Hors d'après ce qu'on constate il semble impossible de sortir d'une pénalité algorithmique (en tout cas les plus grosses). Ce qui signifierait qu'à un moment donné on nous met sur la touche (de façon plus ou moins définitive), et qu'on entre plus dans le cadre de l'algo en tant que tel.

C'est toujours cette hypothèses (qui semble se confirmer) de flag (étiquette) qui enfin de compte nous interdit d'essayer de revenir dans le droit chemin. Ce qui est totalement injuste.

Après j'ose espérer que cette fameuse étiquette sera retirée au bout d'une certaine période (2 ans, 4 ans...) , un long laps de temps afin de montrer patte blanche. Mais j'y crois pas trop.
 
WRInaute passionné
Je viens de regarder à mon tour et je partage bien évidemment l'avis de HawkEye sur l'abondance de langue de bois. C'est bien triste car les questions posées sont toutes très intéressantes et auraient méritées des réponses plus claires afin de faire avancer le débat.

J'en connais maintenant deux qui pourraient faire de la politique. C'est vraiment dommage...
 
WRInaute accro
C'est bien triste car les questions posées sont toutes très intéressantes et auraient méritées des réponses plus claires afin de faire avancer le débat.

Le but c'est de faire en sorte que tu ne te rappelle meme plus la question que tu as posée... De la veritable info qui serait utile aux webmaster, il y a longtemps que maitre gogole a viré contradiction, propagande et intox...

Meme M.C. a été pressé comme un citron, au point de prendre de longues vacances... faut souffler un peu...

:mrgreen:
 
WRInaute accro
- Lorsqu'on se prend -40, -60 voir -80% le jour d'une MAJ de Panda ou Pingouin comment peut-on dire que c’est peut être un autre algo? Y aurait-il un autre animal sauvage qu'ils nous cacheraient et qui serait à l'origine de tous nos problèmes??
Je me suis pris 2 grosses pénalité, une le jour d'un Panda, et l'autre le jour d'un Pingouin... Mais ça doit pas être eux

- Lorsqu'on est touché par le filtre Pingouin suffit de travailler notre contenu pour progresser dans les serps :roll: euh... Lorsqu'on bosse son contenu, ses liens etc, qu'on fait du nettoyage, et qu'on plonge toujours... ils expliqueraient ça comment?

- Le NSEO n'a jamais été prouvé :roll:, non mais ohhhh
Comme le précise bien Olivier dans son article (dommage qu'il ne leur a pas dit directement), même si d'autres points du site étaient négatifs (il y aura toujours des choses à dire sur un site...), le NSEO peut le faire basculer vers la "pénalité"... C’est tout simplement impossible qu'un algo puisse déterminer avec 100% de réussite quand il s'agit de NSEO et les liens à ne pas prendre en compte
- Le DC bien géré? J'espère qu'ils parlaient bien uniquement du DC interne? (quoi que, il me semble que google a aussi la gâchette facile question "pénalité" pour du DC interne, à confirmer). Sinon question DC externe on est bien loin de la perfection!

On les sens pas à l'aise concernant la question sur l'attente d'une MAJ pingouin (pendant plusieurs mois) pour "espérer" en sortir. Ou sur la question, si les webmasters doivent persévérer ou abandonner et créer un autre site.
Idem concernant la question sur le NSEO avec les millions de liens. Et même pour des centaines ou milliers, comme si on avait tous que ça a faire de les désavouer.

Dommage que personne n'ai demandé :

- si on était catalogué comme spammeur de façon définitive une fois touché par le filtre Pingouin. (Ce qui expliquerait l'impossibilité d'en sortir)
- Concernant le changement de nom de domaine et le suivi de la pénalité
- Est-ce que c'est le site qui est "sanctionné ou l"'auteur"

Même si il y aurait eu de toute façon des réponses de politiciens.
 
WRInaute accro
comme si on avait tous que ça a faire de les désavouer.

C'est la ou Gogole montre ses limites...
le mec demande rien, tranquille, il est "victime" d'un NSEO, et c'est a lui de demontrer qu'il n'y est pour rien ?
a lui de desavouer les liens ?
de faire le boulot de gogole a sa place ?
Et le mec se retrouve penalisé comme un sagouin ?
un peu trop facile..

La, je me dis qu'on commence a marcher sur la tete...
Sois Gogole a prit un coup de chaud, sois la victime du NSEO, n'est pas aussi victime, ni Blanc/blanc que ca...

:D
 
WRInaute accro
En dehors du côté un peu hésitant des Googleurs, moi ce que je comprends c'est que :
- le filtre ne touche pas directement le site, mais va générer un scoring dans 1 à x des 200 facteurs et plus
- ce scoring n'est pas mis à jour régulièrement
- l'ensemble des autres scores est mis à jour régulièrement

Donc si tu bosses uniquement sur les éléments du filtre, tu attends que le scoring soit recalculé
Si tu bosses comme un malade sur le reste, tu vas améliorer l'ensemble des 200 facteurs et plus suffisamment pour pouvoir compenser ton mauvais scoring bébête noire.

Par ailleurs, la présence d'un mauvais scoring "bébête noire" déclencherait une réévaluation plus complète du site sur la totalité des autres facteurs, ce qui plomberait encore plus fortement les sites marqués qui étaient limites par rapport à d'autres critères.

Ce dernier point étant une hypothèse, mais je reste persuadée que tout site n'est pas évalué en totalité tout les jours.
 
WRInaute accro
En tant que revenant dans le référencement après deux ans loin de cet univers, j'ai suivi attentivement cette séance de questions-réponses. Voici ce que j'ai retenu de ce qu'a dit Google:

  • * le "negative SEO" n'existe pas. Son existence n'a jamais été constatée par Google.
    * plutôt que de désavouer des pages, désavouez des domaines entiers
    * le moteur de recherche de Google n'a pas d'info sur les clics des internautes
    * utiliser http est mal; il faut utiliser https
    * il existe des pénalités infligées par des humains de Google; ces pénalités peuvent être levées par ces mêmes humains.
    * il n'existe pas de pénalités algorithmiques; il y a 200 critères qui servent à déterminer le positionnement dans les SERPs et ce que certains prennent pour une pénalité est un changement d'algorithme. Tous les critères ne sont pas réévalués au même rythme.
    * Google ne nous dit pas tout parce que des informations seraient exploitées de façon inappropriée par certains
    * le contenu interne dupliqué ne nuit pas au référencement. Google décidera lui-même de la page canonique
    * Disallow dans robots.txt n'interdit pas l'indexation

Mes commentaires:

- Concernant le "negative SEO" et le désaveu des pages, je m'interroge sur l'utilité de l'outil de désaveu. Puique le "negative SEO" n'existe pas, à quoi sert cet outil ? De plus, il est clair que cet outil n'est utilisé que par les référenceurs. Quelque part désavouer un lien ou un domaine, c'est dire à Google: ne fais pas confiance à ce domaine. Enfin bon, si Google dit que le "negative SEO" n'existe pas, Google ne peut pas retirer de points à un domaine désavoué.

- Je suis étonné de la remarque sur les clics des internautes qui seraient sans effet sur le moteur de recherche. Ai-je bien compris ?

- Pourquoi tant de haine envers http ? Quel est l'intérêt d'utiliser https partout ?

- Concernant les "pénalités algorithmiques", je plussoie le commentaire de Marie-Aude.

- Ce que Google a dit sur le "duplicate content" et sur "Disallow" n'est pas nouveau. C'est curieux qu'on continue à reposer ces questions.

Jean-Luc
 
WRInaute impliqué
Sur l'aspect "langue de bois" de la communication de Google, ce n'est pas une surprise. Rappelez-vous la discussion dans ce forum sur le même sujet en 2008 lors des premières communications des Google boys.

D'autre part, il serait sans doute bon que la communauté du référencement prenne un peu de recul sur sa profession et se remette en cause. Car que se passe-t-il actuellement?

1. Tout d'abord, tout le monde cherche des résultats à court terme et dans ce but est pendu à tout balbutiement venant de Google, de Matt Cutts et autres experts. Quant à la satisfaction du public, cela passe au mieux au second plan. En fait, la satisfaction du public telle que l'entend un référenceur n'a que peu de choses à voir avec le réel besoin du public.

2. Les SERPs ont toujours constamment changé. Or, le traumatisme des Pandas et de Pinguins a été tellement grand que référencer, c'est maintenant parler de pénalités, de pinguin et de panda, même si le mouvement n'est en rien lié à cela ou ne l'est que par ricochet (par suite des mouvements de sites touchés). Et sur ce traumatisme, on remet des couches et des couches à tort et à travers.

3. Les référenceurs sont appelés au secours et bien sûr commencent par dénigrer le travail du référenceur précédent. Bien sûr, il y a des cas flagrants de référenceurs incompétents qu'il est bon de voir éliminer du marché. Mais mis à part ces cas, le netlinking n'est pas une science exacte.

D'une part, ce qui pouvait être vrai hier ne l'est pas nécessairement aujourd'hui. Comparez ce qui est Google friendly à 10 ans d'intervalles, si vous en doutez.

D'autre part, effets à court terme et effets à long terme d'une politique de référencement, cela peut être très différents. Il y a même pas mal de politiques de référencement tout-à fait classiques, (pas black hat), voire conformes aux directives de Google, qui, par leur nature, procurent certes un succès à court terme mais peuvent avoir des effets pervers à terme (ce qui peut être dans des mois mais aussi dans des années) souvent perdus de vue .

Tout cela permet à chaque bon (je ne parle pas des autres) référenceur de dire que sa stratégie est la bonne et que celle du prédécesseur était mauvaise et de la détruire. Pourtant, l'un n'a pas plus raison ou tort que l'autre.

4. On emploie de façon excessive les indications et outils donnés par Google. La grand mode des dernières années, c'est des défaire le netlinking des sites. OK, mais très souvent, on le fait à tort et à travers.

Que Google donne la possibilité de désavouer les liens, et voilà les référenceurs (malgré les nettes réserves de quelques-uns des plus en vue d'entre eux) se jettent sur l'outil et on désavoue à la pelle même en l'absence de negative SEO. C'est comme si ils avaient peur de paraître incompétents s'ils ne conseillaient pas à leur client de désavouer des liens parce que Google a mis en ligne l'outil.

On fait aussi supprimer des liens à tort et à travers. S'il y a bien quelque chose en matière de référencement qui est difficile à cerner complètement, c'est bien la qualité d'un lien. Oui bien sûr, en théorie, et en pratique dans les cas extrêmes, c'est très facile, mais quand il s'agit de la masse des liens "moyens", les avis peuvent fortement diverger.

Après tout, même un (apparent) super lien comme celui vers Apple sur la homepage de Google lors du décès de Steve Job pendant 24 h, était-il un bon lien ou pas ?

On désavoue, on supprime les liens à tort et à travers et puis on s'étonne que rien ne change dans le positionnement du site et on rejette la "faute" sur Google !

Bref, pour votre site, pensez-moins à Google qu'au public.
 
WRInaute discret
jeanluc a dit:
- Concernant le "negative SEO" et le désaveu des pages, je m'interroge sur l'utilité de l'outil de désaveu. Puique le "negative SEO" n'existe pas, à quoi sert cet outil ? De plus, il est clair que cet outil n'est utilisé que par les référenceurs. Quelque part désavouer un lien ou un domaine, c'est dire à Google: ne fais pas confiance à ce domaine. Enfin bon, si Google dit que le "negative SEO" n'existe pas, Google ne peut pas retirer de points à un domaine désavoué.

C'est un long débat passionnant mais j'en profite pour témoigner.

J'ai été "victime" de NSEO sur l'un de mes sites e-commerce (thématique cigarette électronique, étonnant tiens... dans un secteur apprécié des méchants référenceurs black hat).
L'attaque a été assez "violente" avec de gros volumes de liens générés, à ce jour plus de 2 300 noms de domaines dénoncés (oui oui, je parle bien de domaines et pas de liens).
Pour couronner le tout, quelques attaques DOS qui m'ont obligé à changer d'hébergement pour une infrastructure beaucoup plus costaud; C'est bon désormais on est armés.
Pour info, jamais le WT ne nous a signalé des liens "frauduleux" ou "artificiels" appelez ça comme vous voulez :mrgreen:

J'ai perdu à ce moment là des positions principalement sur ma homepage sur mes mots clés les plus stratégiques, recul en bas de première page puis deuxième... la descente aux enfers !
Heureusement nous avons rapidement identifié ces liens et les avons dénoncé au fur et à mesure.
Depuis, nous avons regagner (assez rapidement) nos positions et avons repris notre marche en avant mais je vous confirme que cela nous a fait perdre beaucoup de temps, et de belles positions.

Bonne soirée,
R.
 
WRInaute accro
Merci pour ce partage mais c'était vraiment une conversation bien-séante !
Complètement aseptisée et très loin d'être réellement informatif !

Ils se voulaient convivial, utiliser le tutoiement pour lier une pseudo-amitié... franchement... un peu de sérieux?!
Je serai curieux de savoir si dans un "pub", ils auraient eu ce même langage aseptisé ! :lol:

Quand ils parlaient que google ne pouvait pas tracer le nombre de clics sur un article... ils ont pas honte de ce genre de réponse?
Comment peuvent-ils espérer être pris au sérieux !

[humour]
"Don't be evil"
[/humour]

Lamentable ! :cry:
 
WRInaute accro
Par contre après réflexion et après avoir vu la vidéo... je me souviens de la question d'Olivier au sujet d'une perte de trafic suite à la mise à jour de Pingouin.
Elle marquait le ton pour certifier qu'il ne fallait pas forcément faire une corrélation entre cette maj de Pingouin et la chute de trafic.

J'aurai tendance à la croire pour plusieurs raisons:
1/ le pouvoir de google sur la manipulation a toute de même ces limites car c'est filmé... et une multinationale comme celle-ci ne va pas s'amuser à se tirer une balle dans le pied en racontant haut et fort des mensonges aussi énormes ! Il ne faut pas oublier que ceux sont des personnes choisies officiellement... donc largement diffusée et représentant la société !
2/ A force de faire la chasse aux sorcières, on fini par manquer de discernement et à accuser sans savoir !

Avec le recul... je dirai effectivement qu'il y a eu ou il y a encore des maj mais elles sont globales !
Ce n'est pas une maj de Pingouin ou Panda ou je ne sais quoi mais un ensemble de maj qu'ils décident de mettre en production !

Donc chaque maj laisse supposer que c'est Panda, etc... mais en réalité, aux dires de ses googlers, c'est un ensemble de maj algorithmiques !

Et c'est la raison pour laquelle malgré, retirer de mauvais BL, améliorer son contenu anti-DC, etc... le site ne remonte pas !
==> tout simplement (si je puisse dire) parce que peut-être 5/10 critères jusqu'à là, mis en touche, a fait en faite son apparition et cela vient brouiller les pistes !

Donc si on a fait son ménage dans les liens NSEO et changer son contenu DC alors faut arrêter de perdre son temps la-dessus et chercher vers de nouveaux horizons !
Il faut faire des batteries de tests !

En définitif, oui... son site a peut-être chuté à l'annonce de la mise en ligne de Panda, Pingouin mais c'est un arbre qui cache la forêt !
Google ne le dira pas et c'est là, tout l'art de la manipulation... il joue avec la vérité...
Oui Panda a été lancé... Oui Pingouin a été lancé, etc... des sites ont chuté mais êtes-vous certain que c'est précisement à cause de ces bestioles?

C'est une stratégie largement utilisée quand on veut passer sous silence quelque chose... on fait diversion !
Et c'est bien dit dans la vidéo : "on ne peut pas être trop transparent pour éviter que cela soit détourné !"
Et c'est réussi, puisque la majorité des sujets tournent autour de :
1/ mon site a chuté => certainement Pingouin ==> cherche dans tes BL alors !
2/ mon site a chuté => certainement Panda ==> cherche dans tes contenus alors !
3/ mon site a chuté => et si c'était autre chose, jusqu'alors inconnu ou passer en arrière plan??

Puisque malgré vos travaux de nettoyage... aucun résultat dans les serps, donc... le problème est ailleurs !

Je commence à en être persuadé.
 
WRInaute accro
passion a dit:
Puisque malgré vos travaux de nettoyage... aucun résultat dans les serps, donc... le problème est ailleurs !

Si tu chute lors d'une MAJ Pingouin ou panda tu peux être certain que tu as un gros probleme au niveau des BL ou de ton contenu. Donc même si tu as d'autres soucis sur ton site, il y a quand même de fortes chances que tes liens ou ton contenu ont été les facteurs qui ont déclencher le filtre global destructeur sur ton site. Ensuite ces 2 algos une fois touché par le filtre font surement ressortir les moindres petits problèmes liés a ton site. Et c’est certainement pour cette raison que changer les liens ou modifier son contenu ne sont pas forcément suffisant pour sortir de cette "pénalité".

L'analyse de Marie-Aude est plutôt intéressante. Maintenant faut prendre en compte que cela puisse prendre beaucoup de temps avant qu'il y ai à nouveau une analyse globale du site afin de recalculer son niveau en fonction de tous les changements effectués. Après je reste quand même persuadé qu'une fois touché par le filtre pingouin, tu es catalogué comme spammeur et que cette étiquette t’empêche de remonter malgré toutes les améliorations que l'on pourrait faire sur nos sites. C’est sur ce point que j'aurais bien aimé avoir une réponse de Google.
 
WRInaute accro
Si tu chute lors d'une MAJ Pingouin ou panda tu peux être certain que tu as un gros probleme au niveau des BL ou de ton contenu. Donc même si tu as d'autres soucis sur ton site, il y a quand même de fortes chances que tes liens ou ton contenu ont été les facteurs qui ont déclencher le filtre global destructeur sur ton site. Ensuite ces 2 algos une fois touché par le filtre font surement ressortir les moindres petits problèmes liés a ton site. Et c’est certainement pour cette raison que changer les liens ou modifier son contenu ne sont pas forcément suffisant pour sortir de cette "pénalité".

Désolé mais je ne suis pas d'accord avec ça.
Je ne travaille pas chez GG mais dans toutes les boites auxquelles j'ai pu travailler et encore maintenant, on ne met rien en prod si les tests n'ont pas été tous OK !
Donc je vois mal une boite comme GG, lancer de nouveaux filtres au point d'impacter des centaines de milliers de sites web pour ne pas dire + au niveau mondial et entendre dire des gars : "euh... désolé m'sieurs 'dames... on a lancé un truc mais c'est pas encore vraiment au point alors le temps qu'on développe la suite bah... faudra faire avec !"

Biensur que Panda et Pingouin sont à mettre dans la ligne de mire puisque c'est officiellement de nouveaux filtres donc il faut en tenir compte mais écoute au moins la femme (google) de la vidéo.
On fait de nombreuses maj de nos algos... ce n'est pas parce que votre site chute au lancement de Pingouin que votre site en a été touché !
Pour ma part, c'est un arbre qui cachait la forêt.

Toujours dans une optique de brouiller les pistes, oui Panda et Pingouin influe sur leur domaine respectif mais si tu as fait le nécessaire et que rien ne s'améliore et bien pour ma part, c'est les autres maj qu'ils ont passé en douce au moment de lancer les 2 P.

Comme elle disait aussi:
vaut mieux une pénalité manuelle que par l'algo
Et c'est vrai parce manuellement tu peux y remédier mais sinon, tu dois éplucher ton site à la recherche d'autres solutions !
Il a été aussi clair :
Le fichier de désaveux est pris en compte au bout de quelques jours
Et ton site ne bouge pas?

Ton contenu anti-DC ne fait rien bouger?
Alors que GG est capable d'indexer en temps réel des messages de réseaux sociaux et là, du contenu statique, il lui faudrait des temps immémoriaux pour que le site remonte?

AMHA, faut chercher ailleurs et arrêter de tourner en rond !
 
WRInaute accro
passion a dit:
Désolé mais je ne suis pas d'accord avec ça.
Je ne travaille pas chez GG mais dans toutes les boites auxquelles j'ai pu travailler et encore maintenant, on ne met rien en prod si les tests n'ont pas été tous OK !
Donc je vois mal une boite comme GG, lancer de nouveaux filtres au point d'impacter des centaines de milliers de sites web pour ne pas dire + au niveau mondial et entendre dire des gars : "euh... désolé m'sieurs 'dames... on a lancé un truc mais c'est pas encore vraiment au point alors le temps qu'on développe la suite bah... faudra faire avec !"
Eh bien moi je suis parfaitement d'accord avec ça, et cela ne veut pas dire que le truc n'est pas parfaitement au point.
Pour moi, ça veut dire que c'est un système de scoring, pas un filtre spécifique.
Je t'invite à lire http://www.lumieredelune.com/encrelune/levee-penalite-google,2014,07 pour voir comment ça peut marcher comme très précisément de cette façon en étant très au point.

passion a dit:
Biensur que Panda et Pingouin sont à mettre dans la ligne de mire puisque c'est officiellement de nouveaux filtres donc il faut en tenir compte mais écoute au moins la femme (google) de la vidéo.
On fait de nombreuses maj de nos algos... ce n'est pas parce que votre site chute au lancement de Pingouin que votre site en a été touché !
Elle n'a pas parlé de nouveaux filtres, elle a parlé des filtres et de l'algo, et des deux cent et plus facteurs.

passion a dit:
Le fichier de désaveux est pris en compte au bout de quelques jours
Et ton site ne bouge pas?

Ton contenu anti-DC ne fait rien bouger?
Oui, ton score global est toujours passé en dessous de la ligne...

passion a dit:
AMHA, faut chercher ailleurs !
Non, je ne pense pas.
 
WRInaute accro
Bah alors, si je suis ton raisonnement... tu peux mettre la clé sous la porte et licencier tes employés alors !
Parce que GG use et abuse de sa position de leader pour ne pas se préoccuper de ses utilisateurs avertis !
Parce que ce "stand-by" peut durer indéfiniment !

Désolé mais je ne pense pas que cela soit dans la politique de GG de se mettre volontairement le web sur le dos !
Ce n'est pas commercial même sous prétexte de favoriser l'utilisation de adwords !
 
WRInaute accro
passion a dit:
Bah alors, si je suis ton raisonnement... tu peux mettre la clé sous la porte et licencier tes employés alors !
Si tu ne fais rien d'autre, oui. Après tu as d'autres solutions, d'autres pistes...

passion a dit:
Parce que GG use et abuse de sa position de leader pour ne pas se préoccuper de ses utilisateurs avertis !
Je crois que Google se précoccupe de tous ses utilisateurs, et particulièrement plus de ses utilisateurs de search que des webmasters... l'important pour lui est d'abord que les utilisateurs soient satisfaits des résultats de recherche.
 
WRInaute accro
passion a dit:
Désolé mais je ne pense pas que cela soit dans la politique de GG de se mettre volontairement le web sur le dos !

Pour google ca ne lui pose aucun probleme car les seuls qu'il se met à dos c’est les webmasters qui n'ont pas été google friendly ou qui ne sont plus compatibles avec les nouveaux filtres.

Et je crois que tu n'as pas bien compris mon message précédent.

Ce qu'on peut comprendre c’est qu'il faut bosser à tous les niveaux pour espérer passer en dessous de la ligne rouge afin d’éventuellement refaire évaluer notre site dans son intégralité et espérer une amélioration de "son score ". Ce qui ne veut pas dire que les BL ou ton contenu n'ont pas été la cause majeure de la réévaluation de ton site et de sa chute.

Après mon hypothèse c’est qu'on est bien touché principalement par nos BL (pour pingouin) et qu'on est étiqueté comme spammeurs. Et c’est surtout pour cette raison que les changements que nous pouvons effectuer sur nos sites n'ont aucun impact. Google nous laisse aucune chance. Les réponses dans la vidéo sont du vent en grande partie.
Sans cette étiquette, il paraitrait à la base plus logique de se sortir d'un filtre algorithmique. Si il suffisait d'améliorer son site (contenu, bl etc.) ont aurait du voir beaucoup plus de sorties de pénalité, ce qui n’est pas le cas.
Suffit de regarder le témoignage d'Olivier sur la 1ere page de ce Topic.

Pour résumer si on a sévèrement morflé mieux vos bosser rapido sur d'autres sites. Google ne dira jamais ouvertement qu'il est impossible ou presque de sortir d'une lourde "pénalité" algorithmique du pingouin (même si en fin de compte c'est sous entendu dans la vidéo).
 
WRInaute accro
Bonjour

J'ai de la chance : Je n'ai jamais souffert de la mise en place de filtres.

Mon site est ( d'après moi ), très bien positionné, mais je n'ai ( ce qui est peu pour un site de Turf ), que 800- vu/jour en moyenne.

Ce bon positionnement s'est fait progressivement, mais j'ai constaté la ( relativement ) légère et progressive diminution du nombre de mes visiteurs par Google, depuis que j'ai réduit entièrement ma base de données, ( et les partants du lendemain ), aux données de mon site partenaire.

Ce problème ne semble donc pas venir d'un filtre.

En ce qui concerne le caractère parfois statique des pénalités des filtres, je pense que Marie-Aude a raison : La multiplicité des critères de positionnement, et la nécessité pour Google, d'avoir un algorithme automatique à partir de données relativement partielles, a probablement eu pour effet sur l'algorithme, de le rendre un peu trop conservateur.

Je pense qu'à une époque on recommandait de placer sur son site, les scripts Google Analytics, ( maintenant Universal Analytics ), pour donner plus d'indications à Google, sur l'intérêt de son site auprès des internautes.

Dans mon cas, celà semble avoir joué ( peut-être temporairement ), en ma défaveur, à cause du fait que mes visiteurs n'avaient plus entièrement toutes les courses ( par exemple PMH, ou spécifiques à Zeturf ).

Donc, je pense que placer Universal Analytics sur son site, peut aider au positionement de son site.

Respectueusement.

Jean François Ortolo
 
WRInaute accro
passion a dit:
Ils se voulaient convivial, utiliser le tutoiement pour lier une pseudo-amitié... franchement... un peu de sérieux?!
ou peut-être aussi parce que le distinguo tutoiement/vouvoiement n'existe pas en anglais ?

Après, c'est vrai que pour la majorité des webmasters, quand son site est en 1° page (voire place), c'est juste "normal", car gg a reconnu son intérêt. Que pour arriver à cette place là, il a du repousser les sites présents initialement, ça n'est que normal. Par contre, quand son site perd cette place chèrement acquise, c'est dû à une pénalité ! :lol:

Et, évidemment, la pénalité ne peut être liée qu'à des éléments externes, donc on supprime moult liens, soit directement par le webmaster des sites en question, soit par l'interface gg.
Pas de remise en question sur le contenu propre du site. :roll:
Se pose-t-on la question de savoir si c'est "naturel" pour gg, d'avoir quasi tous les liens sortants avec comme ancre "voir le site", par contre les liens internes et entrants sont suroptimisés sur des expressions concurrentielles

tous les liens sortant sont en nofollow, sauf certains (ceux de notre réseau ou ceux payés par d'autres sites). Pensent-ils que gg ne voit pas la supercherie ? Avez-vous essayé de lire à haute voix le contenu d'une de vos pages (très) optimisée seo, par exemple celle qui contient 25 fois le mot clé sur lequel on cherche à se positionner ?

En fait, il n'y aurait que les BH qui seraient objectifs : ils savent qu'ils jouent avec le feu, que ça peut pêter du jour au lendemain, mais ça ne fait rien car ils travaillent sur plein de sites en même temps

Et si on pensait un peu aux internautes, hein ?
Un exemple : sur le site du nouvel obs ou d'un autre journal de ce type, je ne me rappelle plus lequel, ils affichent des vidéos, dont certaines dépassent les 10' et des fois on en trouve plusieurs sur la page. On part du principe qu'on n'a pas ouvert plusieurs onglets (ce qui n'est pas le cas pour moi !). Donc je clique sur le lien, je parcours la page et je mets en marche la vidéo. J'en suis à 10' (sur 15') et hop, la page se rafraichit. Il faut donc que je retourne sur la vidéo et que je retrouve l'endroit où j'en étais. :twisted:
Le rafraichissement n'est pas ou actualiser le contenu, non, juste pour augmenter artificiellement le nombre d'affichages.

L'expérience utilisateur est-elle bon ou non, d'après vous ?
 
WRInaute accro
Leonick a dit:
Après, c'est vrai que pour la majorité des webmasters, quand son site est en 1° page (voire place), c'est juste "normal", car gg a reconnu son intérêt. Que pour arriver à cette place là, il a du repousser les sites présents initialement, ça n'est que normal. Par contre, quand son site perd cette place chèrement acquise, c'est dû à une pénalité ! :lol:

Quand on parle ici généralement de pénalité on ne parle pas d'une perte d'une ou 2 positions durement acquises mais généralement de chutes vertigineuses de pages (mots clés) dans les serps (voir parfois quasi disparition). Prend toi -90% de visibilité et tu comprendras que le mot pénalité est loin d'être déplacé. :wink:

Le plus dure à avaler ce n’est pas pas forcément la pénalité en elle même, mais c’est surtout de ne pas pouvoir en sortir et d'avoir l'impression d'être un clou (on se fait bien enfoncer d'un grand coup de marteau puis plein de petits coups et pour essayer de sortir ce clou, c’est la vrai galère).

Évidemment qu'on est généralement pas pénalisé pour rien (même si ca fout les boules du jour au lendemain de passer de très bon site à grosse bouse, après plusieurs années). D'ailleurs y a t-il vraiment beaucoup de sites de totalement clean? Finiront-ils tous par être pénalisé un jour?
Évidemment qu'il faut rectifier les points négatifs et améliorer son contenu pour l'utilisateur et arrêter de sur optimiser au niveau SEO (bl, en interne etc.), encore faut-il que maintenant ça puisse servir à quelque chose.

les discours du style, "tu n'as que ce que tu mérites" sont un peu dure à avaler :wink:
 
WRInaute accro
noren a dit:
Quand on parle ici généralement de pénalité on ne parle pas d'une perte d'une ou 2 positions durement acquises mais généralement de chutes vertigineuses de pages (mots clés) dans les serps (voir parfois quasi disparition)
de toutes façons, en dehors de très gros volumes de recherches, passer du haut de la page 1 à la page 3 c'est avoir complètement disparu. Qui va chercher au delà de la page 3 en dehors des webmasters qui, eux, vont vérifier jusqu'aux pages 30 ou 40 !
quand notre site passe d'une position 120 à la 3° position, il a bien pris la place d'un autre et ce bon là n'est as plus normal que le contraire
noren a dit:
les discours du style, "tu n'as que ce que tu mérites" sont un peu dure à avaler :wink:
ça n'est pas ce que j'ai dit, je disais seulement qu'à force de penser qu'on a tout bien fait, les corrections ne seront jamais effectuées sur les bons éléments. Chaque élément "limite" passe séparément, sauf qu'à force d'avoir plein d'éléments limites, cela fait basculer du côté obscur. C'est, à mon avis comme le cholestérol : la valeur maxi dépend de plusieurs paramètres qui font que pour toi c'est ok mais pas pour moi, alors que ton taux est un élevé que le mien et mon médecin me surveillera plus, même une fois que je serais redescendu en dessous de cette valeur max.
Pour gg ça doit être pareil ! du genre si ton coeff global reste en dessous de 1,5 c'est ok, dès qu'il passe au dessus, tu as une vérification manuelle qui va donner un nouveau coeff qui servira au calcul global, mais ce nouveau coeff manuel ne sera recalculé pas quand tu repasseras sous les 1,5, mais il faudra que tu repasses sous les 1,2, par exemple. Ce qui fait que l'inertie est plus forte pour revenir d'une pénalité. En plus, les vérifications suivantes de ton site se font avec leur liste précédente, ils revérifient tous les points, même ceux qui passaient bien avant et ils ont peut être même une liste plus complète pour sortir de la pénalisation que pour y entrer :?
 
WRInaute accro
Oui je pense aussi que cette histoire de coef ou de score (voir propos de Marie-Aude) est fort probable (voir plus haut). C’est d'ailleurs ce qui semble être indiqué dans la vidéo (plus ou moins). Même si, je reste persuadé qu'une fois catalogué comme spammeur, le coef (score) n'est peut être plus valable ce qui expliquerait le peu de sorties de google pingouin (cf en première page le témoignage d'Olivier).
 
Nouveau WRInaute
Je suis loin d'avoir votre expérience mais un peu d'observation et de bon sens me font dire que ces 2 personnes ne pouvaient pas répondre aux questions pour la simple et bonne raison qu'elles n'en savaient pas plus que vous.

Imaginez un peu une boite comme gg donnant des infos sur le fonctionnement interne de l'algo avec ses filtres et le fonctionnement des pénalités à 2 trentenaires... ils peuvent quitter google et aller direct à Hong-Kong créer leur boite de SEO et gagner bien plus d'argent qu'aujourd'hui sans rien risquer pénalement. On ne peut pas garder un secret autant convoité si trop de monde le possède. Le meilleur exemple est Apple qui n'arrive pas à tenir le secret sur son nouvel iphone 6... On sait déjà tout.

AMHA les personnes étant courant du fonctionnement global de l'algo se comptent sur les doigts d'une main. Les autres ont quasiment les mêmes infos que vous. On ne peut donc rien attendre de ce genre d'interview
 
WRInaute impliqué
Je te rejoins Domlike, ca me semblait plus des amateurs que des personnes connaissant le sujet en profondeur.
Ce sont juste des évangélistes à 2 balles...

C'est même à se demander qui connait encore le fonctionnement de l'algo chez Google.

Ceux qui ont déjà développé savent très bien qu'un code/algo de plus de 10 ans est très difficilement maintenable et quand on en arrive à pondre des patchs et autres filtres par dessus pour corriger les résultats, c'est plus le début de la fin que des améliorations... Sans parler du turn over dans les équipes..

Il en sont arrivés à un point où il faudrait sans doute tout remettre à plat mais ils n'osent pas.
C'est sans doute pour ça que plus personne n'ose appuyer sur le bouton "Penguin" depuis un moment de peur que tout n'explose ;-)
 
WRInaute accro
Je ne me permettrait pas d'être aussi affirmative, et sur le côté "à deux balles" qui me parait bien méprisant, ni sur le côté "qui connait encore le fonctionnement"

Ayant travaillé dans une boite qui a commencé à construire son propre système en 1974, pour le migrer 25 ans plus tard vers un ERP bien connu, je peux vous garantir que même si c'était très difficile à détricoter, il y avait beaucoup de gens qui savaient encore comment ça fonctionnait, malgré le turn over. Evidemment, le fait de devoir livrer des clients et envoyer des factures ça aide

De plus, bien que le diplôme ne fasse pas le cerveau, il prouve néanmoins qu'on a un QI a un peu plus de deux balles, et la capacité de s'en servir. Le parcours de Zineb Ait Bahajji est plutôt brillant, https://www.linkedin.com/in/zinebaitbahajji et celui de Vincent Courson n'est pas vraiment celui d'un sous fifre. Disons que traiter un Centralien d'évangéliste à deux balles, ça fait juste ridicule.

La protection des secrets "industriels" passe autant par le savoir faire que par les principe.
Que serait l'algo de Google sans son savoir faire en gestion de base de données, en performance, en gestion de salles informatique, bref en capacité à mettre en oeuvre ? Pas grand chose, parce que quand l'algo aurait fini d'être calculé, on serait six mois ou un an plus tard...

On peut parfaitement connaître les principes de fonctionnement et les comprendre sans avoir le détail de la formule. C'est d'ailleurs un grand classique de l'industrie du parfum, où il ne suffit pas de connaître les ingrédients d'une formule pour arriver à la reproduire, le listing de plusieurs milliers de lignes qui va avec est tout aussi nécessaire.

D'ailleurs, ça me rappelle une histoire de gens qui ont racheté à prix d'or une usine de gaufres fourrées à la crème, et qui n'ont rien pu en faire, parce que le détenteur du tour de main était parti. Ils avaient toutes les formules pourtant.
 
WRInaute impliqué
Le côté "à 2 balles" était apposé à "évangéliste" et à leur prestation du jour uniquement. Je ne me permet pas de juger toute leur carrière, ni leur diplôme...
C'est juste sur la prestation que je me permettais d'émettre un avis... Sur le reste j'imagine que dans leur boulot ils sont compétents... sinon ils ne bosseraient pas chez GG.
Désolée, si je vous ai vexé mais je les ai trouvé moyen, ils vont sans doute s'améliorer s'il y a d'autres hangout qui suivent....

Mais quand on les entend hésiter sur le choix du "bon" mot à utiliser pour rester dans les éléments de langage "autorisés" par la maison mère, tourner en rond pour éluder les questions jusqu'à que l'intervenant par politesse se taise (voir Olivier D., et tout ce qu'on pouvait lire sur son visage) on voit qu'ils sont encore loin du niveau de Matt Cutts en évangélisation et langue de bois.

Quand je vois ensuite comme Zineb donne à peu près raison à Olivier sur son post GG+...

Et maintenant que tu nous mets le CV de Zineb sous les yeux, vous verrez que ca fait à peine un an qu'elle travaille chez GG.
Ce qui peut permettre de penser qu'elle doit encore être loin de ceux qui savent vraiment comment fonctionne l'algo...

Et pour en revenir à l'algo : il s'agit d'un algo à base d'intelligence artificiel, de logique flou et de machine learning avec certainement de l'auto apprentissage et une boucle de correction humaine donc on est loin de la logique et de la régularité d'un ERP et de l'informatique de gestion.
Une fois que les fameux 200 signaux sont envoyés dedans pas sûr que quelqu'un sache prédire avant la sortie comme ça va se passer, même si on peut peut-être analyser après coup (c'est d'ailleurs un peu ce que dit Zineb...)

Par contre Marie-Aude, l'analyse que tu as faite sur lumieredelune, me parait intéressante dommage que ces hangout ne soient pas à ce niveau....
 
WRInaute accro
Jeanne5 a dit:
Le côté "à 2 balles" était apposé à "évangéliste" et à leur prestation du jour uniquement...ils sont encore loin du niveau de Matt Cutts en évangélisation et langue de bois.
Là on est nettement plus d'accord :) :)

Jeanne5 a dit:
Une fois que les fameux 200 signaux sont envoyés dedans pas sûr que quelqu'un sache prédire avant la sortie comme ça va se passer, même si on peut peut-être analyser après coup (c'est d'ailleurs un peu ce que dit Zineb...)
Ce qui n'est pas nouveau non plus, ni un signe de "je ne maitrise pas". C'est le principe de base du scoring et data-mining ; toujours dans cette même société qui changeait son ERP, on travaillait sur des fichiers segmentés de plusieurs millions d'enregistrement. La mise en place d'un scoring se faisait toujours par test successifs, tu identifiais les facteurs par rapport à un échantillon neutre, et quand tu mettais "ensemble" tu testais les pondérations par rapport au réel. Et tu recommençais à chaque scoring... certes nos algos étaient nettement plus simple que Google, mais on avait juste un petit Sun E 5000 et une cellule de trois personnes
Leur processus de validation à eux passe par les Google Raters

Jeanne5 a dit:
Par contre Marie-Aude, l'analyse que tu as faite sur lumieredelune, me parait intéressante dommage que ces hangout ne soient pas à ce niveau....
Je te remercie, peux envoyer mon blog avec une recommandation à Google ? ^^
 
WRInaute occasionnel
HawkEye a dit:
Le vrai SEO (pas le "référencement" à deux balles) est devenu depuis 4/5 ans un véritable acte de résistance, constitué de méthodes passives (#white) et agressives (#black), ou d'un mélange des deux (#grey), mais il n'est fondamentalement plus question de respecter des "guidelines" aveuglément.

D'ailleurs, si tu lis ce qui ce raconte outre-atlantique (et que tu sais lire entre les lignes), tu comprends vite que notre métier est constitué de deux "clans": les lèche-bottes "certifiés", et les contre-courants "efficaces".

+ 100000 - Tout est résumé clairement. :wink:
Ce condensé est vraiment la réalité d'aujourd'hui.
 
Discussions similaires
Haut