Mise à jour Google Pingouin 3.0 d'ici fin 2014

WRInaute impliqué
Plus qu'une peur c'est surtout un soulagement pour tous ceux qui attendent depuis 1 an, lorsque l'on a un modèle économique basé sur internet cela ne pardonne pas ! ce retard serait aussi dû à de nombreux faux positifs selon certaines sources US, et donc des correctifs en cours sur le filtre.
 
WRInaute accro
j'espère vraiment qu'ils vont revoir a la baisse leurs sanctions. Leur pingouin c'est un vrai raz de marée dans les serps avec effet boule de neige. Bien plus violent que le panda
 
WRInaute passionné
Je pense que l'algo Penguin 2014 fera plus mal.

Je ne vois pas pourquoi la sanction diminuerait, d'une part …
D'autres part, je pense que les developpeurs ont du se pencher dessus, peut être pour eviter des sanctions non merités mais je doute, plutôt pour mieux déceler les tentatives de triche, plus finement, avec un spectre donc élargi…

du moins, ca me semble la logique ...
 
WRInaute accro
Après un nettoyage lourdingue outre-atlantique, je prévois en Europe:

- la chute de quelques centaines de sites de CP pas suffisamment discrets
- un drop sur quelques annuaires old-school
- la pénalisation officielle de 2 ou 3 réseaux de liens (dont au moins un polonais)
- une belle dégringolade de quelques centaines de sites linkés à la mords-moi-le-noeud depuis 2 ans
- une remontée de sites linkés "soft & clean"

... en tout cas, c'est ce que j'espère :mrgreen:
 
WRInaute accro
Espérons également que GG saura "récompenser" les sites qui ont fait des efforts pour entrer dans le droit chemin, même si le nettoyage n’est pas encore terminé. Et surtout qu'il ne sanctionnera pas une fois de plus les sites déjà pénalisés.

Avec mes -90% de trafic GG, je trouverais ca pitoyable d'enfoncer encore le clou alors que j'essaye d'améliorer les choses
 
WRInaute accro
Mais arrêter de voir Google comme une institutrice qui distribue des bons et des mauvais points. C'est un algo, un scoring, tu es dedans ou tu es dehors
 
WRInaute accro
@Marie-Aude : Si on a bel et bien une étiquette en tant que spammeur, le scoring n'aurait aucune importance. Et dans ce cas ca rejoindrait l'idée des bons et mauvais points (se faire retirer l'étiquette ou non).
Lorsqu'on regarde les sites pénalisés algorithmiquement par Pingouin qui n'arrivent pas a sortir de cette pénalité (tous ou presque <-- pas de témoignage pour le presque), j'ai quand même des doutes sur cette notion unique de scoring. Avec une etiquette de spammeur, le scoring je pense que tu peux te le mettre derrière l'oreille :wink:
 
WRInaute accro
Tu échafaudes des hypothèses, et Olivier et Hawkeye t'ont déjà dit que ta façon de voir les choses (étiquette de spammeur) ne correspondait pas à une réalité

Les sites n'arrivent pas à sortir de Pingouin parce que l'algo n'est pas mis à jour fréquemment... et qu'il y a un scoring, qui fait plonger les sites faibles.
 
WRInaute passionné
@noren, je suis de l'avis de Marie Aude, Google, c'est pas des sanctions au cas par cas avec un comité de jugement.
C'est une machine avec des programmes (filtres) étudiés a partir de cas de "triche" ou "d'abus", des ratios étudiés, testés sur les cas ennuyeux pour google et appliqués a l'ensemble du web. Ce qui parrait simple ne l'est absolument pas, je galère assez avec mon moteur en developpement pour en parler un peu alors même que je ne suis pas confronté au spam (ou je suis l'idiot du village peut-être).

Ce que veut dire Marie Aude, c'est que Penguin est un ensemble de calcul, tu tombe dedans ou pas, tout simplement.

Vu que depuis ses début, et a juste raison, Google a fait la différence avec la pertinence et la confiance basée sur la notoriété et les liens, essentiellement, et il se bat de toute ses forces pour que la notoriété venant des liens ne soit pas "artificielle", mais naturellement construite sur des liens servant a "enrichir et conseiller" les internautes utilement.

Dans ces liens, Google tient compte de tout (des sites moyens, anciens et nouveaux, faible pagerank et élevé voir l'article d'Olivier ; https://www.webrankinfo.com/dossiers/strategies-de-liens/techniques-netlinking …).
, et penguin établis une moyenne par type probablement, et si une moyenne est au-dessus des limites raisonnables, la sanction est appliquée automatiquement.
 
WRInaute accro
Je comprend très bien la notion de scoring

Voici un article intéressant de Laurent Bourrely :

http://www.laurentbourrelly.com/blog/1637.php

Il fait ici mention de "confiance". Confiance ou flag on pourra facilement y trouver des similitudes.
D'après ce que je comprend dans cet article, c'est qu'en plus d'essayer d'améliorer ton scoring (plus de contenu de meilleur qualité, et liens propres), tu devras en faire plus pour regagner la confiance de GG (sous en tendu, je trouve, pour qu'il te retire le boulet que tu traines)

Malgré ce que vous dites, je n'ai vu aucun témoignage pouvant aller dans votre sens et laissant penser que ce flag (boulet) n'existe pas.
 
WRInaute passionné
@noren, tu as surement raison, le "BOULET" est assurément implémenté dans les "notations d'une site", peut être de manière historique. Il n'est pas difficile de stocker un très grand nombre d'informations sur un site en programmation, de manière très légère et très facilement accessibles. On pourrait croire qu'il faut de gigantesques bases de données, des quantité de champs innonbrables pour chaque détail, mais non. Il suffit d'un seul champ par exemple pour stocker des centaines d'informations sur un site :
champ alpha 255 caracteres: chaque caractère correspond a une note (0-9 puis A-Z) + eventuellement les caracteres spéciaux ce qui permet pour un seul caractère de fixer une note de 0 à 50 minimum (il suffit de fixer une nomenclature).

En prenant l'exemple suivant, imaginon un seul champ avec toutes les notes du site : 7693H2DS92JD7B39D43H3B°383B3UK3BOSU …etc sur 255 caracteres au total.
Il suffit de lire le 18ème caractere par exemple, qui correspond au nombre de fois que le site a été sanctionné dans sa vie, dans cet exemple , le 18eme caractère est 4, donc 4 fois épinglé par un algo majeur. SI google a décidé que 2 fois était le maxi avant de sortir de la pénalité en moins d'un an, Ton boulet, il est là !!!!

Ce n'est qu'un exemple imaginaire bien sur, mais un site a probablement une notation actuelle impacté par un historique.
Cela pourrait confirmer ou etailler la thèse que même en ayant corrigé de mauvais BL, certains sites "n'ayant aucun boulet" sortent plus vite d'une sanction que d'autres qui ont cumulés dans le temps des sanctions lourdes …

Sur cette hypothèse, il faudrait tout reconstruire sous un autre NDD sans redirection et reconstruire aussi le linking de A à Z … ou attendre la sortie de pénalité...
 
WRInaute accro
longo600 a dit:
Sur cette hypothèse, il faudrait tout reconstruire sous un autre NDD sans redirection et reconstruire aussi le linking de A à Z … ou attendre la sortie de pénalité...

En tout cas je part toujours sur cette hypothèse et c’est d'ailleurs pour ça que je prépare d'autres sites.
Sur mes sites pénalisés il me semble actuellement impossible d'apporter une réelle valeur ajoutée pour regagner la confiance de GG (pour des raisons techniques entre autre, et d'envie également).
Donc autant repartir sur des bases plus saines, en espérant que ça morde. Et faire profiter de cette valeur ajoutée à de nouveaux projets.
 
WRInaute accro
noren, ce que tu expliques, si c'est la façon dont Longo l'explique n'est rien d'autre qu'un scoring....

Un scoring peut parfaitement inclure des éléments "historiques", c'est même la base, en marketing ça s'appelle "récence, fréquence, montant"... "fréquence de mise à jour, nombre de fois où on a trouvé du seo pourri, ancienneté du seo pourri, qualité du seo récent" etc...

Nul besoin pour cela d'imaginer une distribution de "bons points"

En revanche, en dehors d'une batterie de critères objectifs (qui se suffisent à eux-mêmes, comme la "signature" du site, le style, la structure, les liens entre des sites, le type de référencement, etc) inutile d'y rajouter une identification plus qu'aléatoire du propriétaire
 
WRInaute accro
Je ne faisais aucune allusion au propriétaire :wink:

Je dois être un peu bête :( mais je n'arrive absolument pas à comprendre pourquoi même avec le scoring, il ne pourrait pas y avoir un critère bloquant (ou du moins très handicapant) empêchant quasiment toute remontée d'un site.
Exemple tu as "2" au critère "spams". Il pourrait très bien servir dans leur calcul à diviser par 2 ton scoring final . Autant dire que pour essayer ensuite de passer au dessus du palier pour être visible , ca risque d'être difficile.
Et comment savoir si le critère "spam" est réévalué positivement même si on améliore notre profil de lien. Rien n'interdit a gg de le laisser comme tel une fois que tu as spammé pour ce site.

Il doit forcément y avoir un truc qui m'échappe dans vos explications. :?
Le scoring est peut etre quelque chose de très précis que je ne saisis pas.

Un scoring (dites moi si je me trompe) peut être calculé de x façons, je n'arrive vraiment pas à voir en quoi même avec la notion de scoring, ça irait à l'encontre d'un éventuel flag ou autre élément bloquant. Peu importe comment le "flag", "la confiance" ou je ne sais quoi est représenté, que ça soit avec un critère dans le scoring qui a une grosse influence ou autrement, le résultat reste le même : Des sites qui ne pourront plus revoir le jour ou bien trop difficilement.

Il y a forcément quelque part dans leur algo et scoring un élément qui rend bien plus difficile a un site pénalisé (ayant eu des mauvais points à certains critères) de s'en sortir. D'ailleurs j'utilise à nouveau, volontairement "mauvais points". On peut ne pas aimer ce terme et pourtant lorsque GG calcul ton scoring il ne fait justement que te donner des bons ou mauvais points dans les différents critères.

Si il n'y a pas d’élément bloquant (flag etc.) je ne vois donc toujours pas comment ça se fait que les sites pénalisés algorithmiquement par pingouin ne s'en sortent pas. Tous seraient à ce point si mauvais et irrécupérables? Tous ne feraient pas les choses correctement pour sortir de cette pénalité? ça serait étonnant.
A moins qu'il y ai de nombreux cas de sorties de pénalité pingouin (algorithmiquement) mais que personne ne souhaite en parler?

Oui, pour voir son scoring remonté il faut des MAJ du pingouin , qui sont rares. Mais depuis le temps il y en a eu quelques une des MAJ, et toujours pas de témoignages crédibles à se mettre sous la dent.

Et pourquoi une pénalité manuelle et algorithmique? le scoring devrait très bien gérer ça? Pourquoi faire une telle différence?

Comment comprendre que certains ont "la chance" de pouvoir montrer patte blanche (comme de gentisl petits élèves) parce qu’ils sont pénalisés "que" manuellement. Alors que d'autres sont obligés de rester dans leur m*rde.
 
WRInaute passionné
Marie-Aude a dit:
En revanche, en dehors d'une batterie de critères objectifs (qui se suffisent à eux-mêmes, comme la "signature" du site, le style, la structure, les liens entre des sites, le type de référencement, etc) inutile d'y rajouter une identification plus qu'aléatoire du propriétaire
@Marie Aude, je n'ai pas tout compris dans le détail, mais je vois ou tu veux en venir. Effectivement, je pense que Google a de nombreux critères pour stocker le maximum d'informations sur un site, dont notament le code html hors contenu a mon avis, peut-etre en utilisant simplement le filtre DC (duplicate content - contenu dupliqué pour les novices) en Duplicate Code cette fois… Et je crois que Google n'aime pas trop ça, du moins, un code HTML d'une page sanctionné pourrait aussi subir la sanction, même si il est créé sous un autre NDD, mais c'est très conditionnel. Mais Google n'est pas dupe j'en suis certain sur la réutilisation d'un template sur le même shémas qu'un autre...

Comme le dis Marie Aude, la "signature" du site tient surement en compte les données du propriétaire (ip connexion du compte voire numéro de machine peut être, etc.).
 
WRInaute passionné
noren a dit:
Comment comprendre que certains ont "la chance" de pouvoir montrer patte blanche (comme de gentisl petits élèves) parce qu’ils sont pénalisés "que" manuellement. Alors que d'autres sont obligés de rester dans leur m*rde.

Ca, personne ne peut le savoir hélas, c'est le secret de Google. Il n'y a que le constat. Pour les "recette" qui permettent de sortir de la pénalité, Olivier a développé une stratégie dans ses articles et formations. Après, qui sait Google n'a pas effectivement établis un "scoring de durée de pénalité" sur une donnée du type :
/ "irrévocable =1
/ révisable prochaine MAJ = 0
/ limité a 3 mois =2
/ fixe un an=3
etc …

C'est peut etre le 167eme caractère de l'exemple que j'ai donné sur les données du site …

A ce petit jeu, on peu aussi imaginer une valeur sur la portée de la pénalité :
/ limité au site =1
/ étendu aux sous domaines =2
/ étendu au propriétaire=3 (tous tes sites reconnus comme t'appartenant par google)
/ etendu aux liens externe pointant niv1=4
/ étendu aux liens externes pointant et sortant niv1=5 etc…

Encore une fois, on a une meilleure idée du comment lorsque l'on programme, car tout se trouve dans le programme de google, ses centaines de filtres constitués de plus ou moins grands et petits programmes qui s'enchevêtre et se succède.

En résumé, ce n'est que des calculs purement mathématique ...
 
WRInaute accro
@longo600 : c’est ce que je comprend, et c’est pourquoi je ne saisis pas qu'on puisse penser que cette notion de flag ou autre élement bloquant est erronée.

je vais quand même faire quelques recherches sur le scoring, ca semble quelque chose d'assez pointu et précis à la base, et je ne voudrais pas dire trop d’âneries :mrgreen:
 
WRInaute passionné
Sur la méthode précise employée par Google, on est tous dans la même soupe = noyé dans le flou total…

Sans compter la valeur supposée existante que Google a je crois confirmé :
/intouchable = 1 (liste blanche)


Je doute qu'il n'y ais pas une "liste noire" de propriétaire ...
 
WRInaute passionné
ahhh qu'il est loin le temps ou en quelques heures, ont finissait par trouver le dénominateur commun du pourquoi et comment des sites se classaient 1er dans Altavista, Lycos, Voilà, Aol, yahoo, google … (1998-2002) … nostalgie ^^lol
 
WRInaute accro
longo600 a dit:
Comme le dis Marie Aude, la "signature" du site tient surement en compte les données du propriétaire (ip connexion du compte voire numéro de machine peut être, etc.).
Je n'ai jamais dit ça, au contraire. Pour des tas de raisons...

noren a dit:
Je ne faisais aucune allusion au propriétaire :wink:
Euh si, tu en as parlé, même si c'est sur un autre fil, c'est au centre de ta réflexion

noren a dit:
Je dois être un peu bête :( mais je n'arrive absolument pas à comprendre pourquoi même avec le scoring, il ne pourrait pas y avoir un critère bloquant (ou du moins très handicapant) empêchant quasiment toute remontée d'un site.
ça peut parfaitement être le cas, je n'ai pas dit le contraire

noren a dit:
Et comment savoir si le critère "spam" est réévalué positivement même si on améliore notre profil de lien.
Pourquoi ne le serait-il pas ? La problématique de fond c'est la fréquence de mise à jour de l'algo. Attendez qu'il soit passé et on verra bien
 
WRInaute accro
Marie-Aude a dit:
Euh si, tu en as parlé, même si c'est sur un autre fil, c'est au centre de ta réflexion

Je n'ai pas dit que je ne me posais pas la question. (je m'en pause d'ailleurs énormément depuis que je suis pénalisé et ds la m*rde :mrgreen: )
Mais ici on parlait de flag (étiquette) sur un site, pas pour le proprio (enfin j'espère ne pas avoir sous entendu autre chose). Que le flag puisse être également lié au propriétaire et pas seulement au site est un autre débat
Mais pour le proprio d'après Olivier et les 2-3 témoignages dans ce topic, le propriétaire ne semble pas être touché, c’est déjà ça.
J'aimerais pouvoir lire autant d'affirmations et de témoignages crédibles en ce qui concerne les sorties possibles d'une pénalité pingouin et pas voir uniquement des théories.
Avec ce pingouin l'espoir est mis à rude épreuve.

Marie-Aude a dit:
Pourquoi ne le serait-il pas ? La problématique de fond c'est la fréquence de mise à jour de l'algo. Attendez qu'il soit passé et on verra bien

Oui c’est la meilleur chose à faire. On pourra à nouveau en débattre en suite. Même si je ne sors pas de ma pénalité, ça sera toujours encourageant de voir que c’est possible.

On se donne rendez vous au prochain Pingouin :D
 
WRInaute discret
Avec Google et ses pinguoins, ça charcute pire que dans un abbatoir !

La date sera t-elle au jour du noël ? :D

Bonne journée à tous :)

Cordialement,
 
WRInaute passionné
Ca c'est une info qui va faire trembler la planète !!!

Je suis curieux de voir le résultat … Bien que de ce coté là, j'ai 100% la conscience tranquille, je suis comme tout le monde … un peu inquiet de faire partie des dommages co-latéraux ...
 
WRInaute accro
N’ayant pas encore pu tout nettoyer, j’espère ne pas me prendre une claque supplémentaire. Ca serait vraiment injuste d'être plusieurs fois sanctionné par le pingouin alors qu'on essaye de corriger le tir.
J'ai deja l'impression de me prendre en pleine face chacune des MAJ.

C’est peut être rassurant de voir que l'outil de désaveux est réellement pris en compte. J'attends avec impatience des témoignages de sorties de pénalités après cette MAJ.
Quoi qu'il en soit, ça sent la très grosse mise à jour et ça fait franchement flipper... (bravo gg :roll: )

PS : en ce qui me concerne panda ou non, j'ai encore eu droit à -20% de trafic GG sur le peu restant, depuis septembre. J'approche douloureusement du zéro absolu.
 
WRInaute passionné
Perso je l'attends celle-ci, je n'ai eu que des ennuis depuis la sortie de Pingouin en 2012... baisse des visites naturelles, pénalité pour liens factices, suppression/modification de centaines de liens...

C'est la 1ère fois où je suis (du moins j'espère!) être 100% clean devant le Pingouin. Plus de pénalité, plus de milliers de liens sans intérêts, site amélioré techniquement et mieux pensé pour l'internaute... Je n'ai fais aucun lien moi-même depuis la fin de notre pénalité, je n'ai pas non plus de backlink vraiment "fort" vers mon site mais au moins, cette fois-ci, je ne risque pas de passer pour un "spammeur" alors j'espère que ça apportera du bon :)

Si c'est l'inverse, je crois que j'arrête définitivement de m’intéresser au SEO :roll:
 
Nouveau WRInaute
@lambi521: Si tu n'as pas fait d'autres liens, n'espère même pas remonter dans les SERPS dans ce cas, il faut bien que tu remplaces les liens que tu as désavoué ou supprimé....
 
WRInaute passionné
@voun45 : Ce que je voulais dire, c'est que je n'ai plus fait de liens comme je faisais avant: régulièrement, manuellement, optimisés et qui m'ont valu une pénalité pour liens factices il y a 2 ans (une certaine agence SEO y était pour beaucoup aussi à l'époque...)

Depuis la purge complète de mes liens et la fin de la pénalité, je suis passé de plusieurs milliers de liens pourris à quelques centaines, mais de meilleure qualité. Les seuls que je refais de temps en temps, c'est lorsque j'inscris la société sur des annuaires de pros, de grossistes, de gens du domaine... C'est plus "corporate" et beaucoup moins axé "requête de mots clefs", mais ça compte, ça augmente la notoriété du site aux yeux de Google, sans spammé sur les requêtes commerciales.

Bref je ne vois pas ce que Pingouin pourrait me reprocher cette fois-ci, à part p-e une faible quantité de backlinks par rapport à mes concurrents, mais au moins c'est beaucoup plus propre que la dernière fois :)
 
WRInaute accro
Par contre Olivier que faut-il comprendre par

Les ingénieurs de Google auraient cherché à "ravir" les webmasters et les utilisateurs

Peut-on espérer un radoucissement de l'ago?

D'ailleurs j'en profite pour pauser une question, dans l'article suivant on peut lire ceci :

https://www.webrankinfo.com/dossiers/strategies-de-liens/backlinks-sitewide

La création de liens qui n'ont pas été publiés ou attestés par le propriétaire du site sur une page (liens également connus sous le nom de "liens artificiels") peut être considérée comme une infraction à nos consignes. C'est le cas par exemple des liens largement diffusés au bas des pages de différents sites.

Hors, les liens diffusés en pied de pages sont généralement bien des liens publiés et diffusés consciemment par les propriétaires du site (partenariat etc.). je ne comprend donc pas le : "C'est le cas par exemple"
 
WRInaute passionné
mike69400 a dit:
Moi je pense qu'il est là depuis hier ..... comme à chaque dernière mise à jour de ces algo, il les annonçai seulement quelques jours après .... Énorme baisse pour notre site et c'est pas du panda ... en espérant que l'on remonte à la fin de cette mise à jour ...... et qu'elle ne dure pas 1 mois !

Effectivement, il ne faut pas trop s'inquiéter de baisse plus ou moins fortes les premiers jours. Je constate que lorsque l'on a une MAJ complete sur une base de données qui "détaille" un très grand nombre de paramètres, la "moulinette" prend d'autant plus de temps que le site est gros. Je viens de le faire sur mon moteur, malgré la puissance de mes 3 machines, la moulinette prend 12h, et j'ai bcp moins de critères que Google, je parles même pas de la quantité de sites.

Je n'ai pas non plus 2 millions de serveurs comme eux non plus … Mais voilà, je prend ainsi conscience au moins de certaines difficultés, contraintes, et "rigeur" minimale pour aboutir a présenter un contenu "acceptable" pour l'utilisateur. En informatique, programmation, on peut presque tout faire, mais pour obtenir un résultat, il y a des méthodes incontournable et les contraintes qui vont avec.

En résumé, ce que je veux dire, c'est que la MAJ Pingouin nécessite de calculer la quasi totalité des liens de la planète …
alors en théorie (ca n'engage que ma logique), les petits sites seront plus vite traité que les gros, les petits qui doivent monter passeront un temps avant les gros qui doivent aussi monter (ou baisser) …

Au final, petites et grosses frayeurs pour les petits et gros sites !!! :mrgreen:

PS: aucun changement chez moi en comparaison à la semaine passée … même heure par heure, sur 20 000 visites / jour.
 
WRInaute passionné
Petit rajout sur les liens après réflexion …

Pourquoi Google ne tient pas compte des liens interne dans pingoin a mon avis :
- Le volume de calcul liens internes serait probablement trop important et inutile pour l'objectif visé. Un site comme le mien atteins presque le milliard de liens interne pour un total de 8 million de pages (environ 100 liens par page…) .
 
WRInaute passionné
Je me suis toujours demandé comment c'était possible d'avoir un site à plusieurs milliers de pages, mais alors plusieurs millions. Qu'est ce qui peut bien avoir comme contenu dans 8M de pages ?!
 
WRInaute discret
En tout cas ce matin j'ai eu beaucoup de changements dans les résultats que je suis. Je ne sais pas si c'est lié à Pingouin, mais je ne reconnais pas certaines pages de résultats. A suivre
 
Nouveau WRInaute
je contacte aussi des variations mais pas sur des sites impactés par pinguoin et qui devraient sortir de pénalité.
Bref je ne pense pas que ce soit puigouin
 
WRInaute passionné
Annuaire-portail.fr a dit:
Qu'est ce qui peut bien avoir comme contenu dans 8M de pages ?!
Comme tous les annuaires d'entreprise, des cordonnées ou plus selon que l'etablissement enrichi sa fiche ou non.

Comme google le fait avec son annuaire intégré dans les serp, ils ont créé automatiquement des fiches vide GG+ pro pour tous les établissements , en espérant que certaine de ces entreprises les enrichissent...
 
WRInaute accro
Le 02 octobre, j'ai eu +150% de trafic !
Trop tôt pour en tirer des conclusions mais peut-être enfin une maj qui va rectifier des erreurs?
 
WRInaute discret
Quelques changements mineurs observés ce matin sur la longue traîne mais rien de bien flagrant ... Ce n'est peut-être même pas lié à Pingouin ...
 
WRInaute discret
Je ne pense pas que ce soit Penguin (ou alors il était plus petit qu'annoncé), reste à savoir ce qu'était ce mouvement (2 jours en Serpo à 6, ce n'est pas tous les jours).
 
WRInaute passionné
Je viens de noter des bizarreries sur le volume horaire, en général, par heure c'est quasi identique au même jour de la semaine précédente, depuis 10h ce matin, j'ai des grosses fluctuations, +10% ou -15% selon les mêmes heures de Lundi dernier …

J'ai soit de légères baisses d'habitude (visiteur / heure), soit légère hausse, quasi jamais l'un puis l'autre ...

Ca semble bouger dans les datacenters de Google (pas vérifié par mot clé).
 
WRInaute discret
Chez moi ça bouge pas mal, au moins +50% hier en "données corrigées", aujourd'hui ça semble être retombé un peu mais toujours en hausse tout de même.
 
WRInaute discret
Si j'ai bien compris c'était souvent mauvais pour ceux qui augmentaient beaucoup juste avant ou en début de MAJ, mais bon qui sait ce qu'il en sera cette fois ci !
 
WRInaute accro
Exact généralement quelques jours avant de me prendre des pénalités pingouin ou Panda j'avais de jolies remontées.
Actuellement j'ai aussi de belles remontées et ça ne présage rien de bon.

C’est comme si il y avait une pré-MAj afin de faire ressortir les spammeurs pour mieux les identifier et les sanctionner.

generalhammond, ton site est-il clean? ou as tu beaucoup de BL pas très propres?
 
WRInaute passionné
Je viens de perdre 9% de visites de Google … c'est en train de bouger … (pages vues = 1,50 page vue par session pour info).


Cliquer sur l'image pour agrandir...
 
WRInaute passionné
ah parceque ca a pas commencé encore .. pourtant à vous lire je pensais que ca avait commencé depuis plusieurs jours
 
WRInaute discret
En tout cas ça bouge beaucoup du côté des images. C'est la 1ère fois que je vous autant de mouvements sur ce domaine. A suivre.
 
WRInaute accro
@annuaire-portail.fr: j'ai toujours constaté beaucoup de mouvement avant les MAJ pingouin et panda. Si le Pingouin n’est pas encore annoncé, il n’est donc pas encore tombé. Pour le moment augmenter ou baisser peut avoir l'effet inverse lors de la sortie officielle du Pingouin, donc prudence
 
WRInaute discret
En tout cas c'est un souk sans nom. Que les requêtes que je suis, il y a une forte montée des blogs qui copient les autres sites, les livres que l'on trouve sur google books, donc mise en avant sur service de google. Et le tout change tout le temps dans la journée. Je n'ose pas imaginer ce que ça va donner avec le manchot.
 
WRInaute accro
J'ai également remarqué ça avec les google books, c’est impressionnant de voir a quel point les produits GG gagnent en puissance
 
WRInaute discret
@Noren
Il n'est pas clean clean mais pas non plus pourri au niveau des backlinks ;)
Disons que sous certains aspects je peux me faire attraper par un Penguin sévère tout de même.

Bon apparemment si c'est encore Panda, il fait pas mal de mouvement parce que ça fait longtemps que ça avait pas bougé autant de mon côté en si peu de temps ! Effectivement je constante comme @manubu que ça change pas mal durant la journée, ça monte, ça redescend etc...

edit : en tout si ce ne sont que des "test" penguin, alors quand ça va vraiment sortir ça va être assez monstrueux... dans un sens ou dans l'autre :mrgreen:

Apparemment Panda 4.1 serait fait pour être favorable au petits sites avec un contenu de bonne qualité, je considère que je pourrais être dans ce cas, donc... ?

Panda ou Penguin ?
 
WRInaute accro
L'hypothèse du panda m'étonne quand même. Il est sorti le 26/09 et ça a grave bougé qu'à partir de ce week end. Je veux bien admettre qu'il faut du temps pour tout recalculer. Mais généralement le plus gros se passe le jour même de la sortie, pas 10 jours après.

Je continu de penser qu'il s'agit de la préparation du Pingouin et qu'il risque de jouer un sacré coup de Trafalgar à tout ceux qui ont vu de belles hausses depuis ce week end.
 
WRInaute discret
Merci pour ces nouvelles rassurantes lol

Oui je suis d'accord avec toi que ce serait étonnant que le Panda traîne encore dans le coin après tant de temps !
 
WRInaute discret
Sur webmasterworld ils ne pensent pas que le manchot soit arrivé, mais plusieurs font référence à ce qu'écrit noren, c'est à une remontée dans les serps avant de se faire étaler. Quant à Panda il a bien mis plus de 10 jours avant d'être déployé.
Ce que je constate aujourd'hui, c'est une meilleure stabilité sur les images (sachant que mon trafic en est fortement lié).
 
WRInaute passionné
bon bah aujourd'hui je constate une bonne baisse -20% environ.. donc ce serait bon signe alors pour la suite. J'espère
 
WRInaute discret
Bon, après vérif sur les requêtes que je suis, il semblerait que la mise à jour panda soit terminée. Plus de mouvements. Donc, si je ne me trompe pas, les prochains chamboulements seront liés au manchot.
 
WRInaute accro
Après 4 jours de montées de mes positions, aujourd'hui retour à la case départ :evil:
Raz le c*l de GG, il joue avec nos nerz
 
WRInaute accro
J'aimerais quand même bien comprendre à quoi ça rime ces remontées pendant quelques jours pour ensuite mieux nous descendre
 
WRInaute discret
noren a dit:
Après 4 jours de montées de mes positions, aujourd'hui retour à la case départ :evil:
Raz le c*l de GG, il joue avec nos nerz
Je confirme aussi, retour en arrière. Mais ils ont maintenu certaines modifs des derniers jours. Je ne comprends strictement rien.
 
WRInaute passionné
Je ne prétent pas détenir la vérité, mais mon "gros site" (5 millions de pages) commence a remonter aujourd'hui après avoir légèrement chuté Lundi et surtout Mardi (-11% au total). AUjourd'hui, il est quasiment identique a Mercredi dernier.

Mon intuition (aussi déjà évoqué précédemment sur l'aspect informatique), c'est que les petits sites sont traités AVANT les gros sites, et que ceux qui ont montés peuvent se voir redescendus vers la fin des traitements des derniers gros sites.
Et en général, les gros sites ont plus de "pagerank" (même si l'affichage n'est plus mis a jour pour le public), et repassent donc devant les petits sites qui ont monté les premiers temps ...
 
WRInaute discret
Pas bête comme intuition. Ca expliquerait bien les changements. Je me demandais comment faisait Google pour modifier une telle masse de données.
 
WRInaute accro
Ça n'explique absolument pas ces hausses importantes de visiteurs et grosses remontées au niveau des mots clés. Pour ensuite nous renvoyer au fond des serps. Quand on parle de remontés de plusieurs pages pour certains mots clés je doute que ça soit lié a la baisse de grosses sites. Surtout quand kje vois les sites qui me succèdent ou me précèdent
Autant pour pingouin et pour mettre en avant les spammeurs je pourrais comprendre, mais pour Panda...
c’est toujours la même histoire, des hausses importantes avant la superbe claque finale.

Etonnant également que le plus gros des mouvements soit autant en décalage avec la date annoncée de la sortie du panda. Nous aurait-on menti sur la véritable date de sa sortie?

Ce qui m'étonne c'est que ce phénomène de montée puis chute n’est traitée nulle part à ma connaissance, dans aucun dossier de WRI ou d'autres sites d'experts SEO.

Et dans l'histoire si c’est encore un coup de panda c’est encore plus rageant quand on s'est déjà pris des pénalités panda et alors que depuis on a fait beaucoup d'effort pour s'améliorer... (une stabilité ou une hausse aussi minime soit elle semblerait plus appropriées que des descentes sans fin...)

je ne vois vraiment pas ou google veut en venir mais il y a une finalité pas nette dans tout ça!
 
WRInaute occasionnel
Donc, en gros, rien ne change si ça se passe comme ça. Les gros sites reprennent leur place et les petits à la leur, voire déclassés par rapport à avant.
 
Nouveau WRInaute
Bonjour

Personnellement, j'ai remarqué depuis 4 -5 jours une baisse sur 2 de mes plus gros sites environ 15% en moins en terme de traffic et ce matin retour à la normal ou au plus une petite augmentation de 5-10% environ.

Bref ce que je veux dire c'est que ce n'est aps nouveau pour moi et mes sites web que je gère, à chaque update importante de Google je remarque une baise des visiteurs ou une stabilité quelques jours avant l'annonce officielle et lors de l'update je revient à la normal ou encore j'ai une petite augmentation....

Les seuls fois où j'ai une une augmentation avec une update, malheureusement j'ai perdu beaucoup de visiteurs une fois l'update en place...

bref à suivre et bonne chance à tout le monde!
 
WRInaute accro
Et pourquoi cette hausse (avant la chute) sur quelques pages et mots clés et pas sur la totalité du site?
je n'ai rien trouvé qui pourrait différencier particulièrement ces pages et mots clés. le comportement des MAJ de google est vraiment très étrange.
 
Nouveau WRInaute
ça j'en ai aucune idée, mais ce que je sais c'est que c'est pratiquement toujours comme ça de mon côté... que ce soit du côté positif ou négatif...
 
WRInaute passionné
noren a dit:
Et pourquoi cette hausse (avant la chute) sur quelques pages et mots clés et pas sur la totalité du site?
je n'ai rien trouvé qui pourrait différencier particulièrement ces pages et mots clés. le comportement des MAJ de google est vraiment très étrange.

Je l'ai expliqué en partie dans cet réponse.

COMMENT CA MARCHE? :
Ce n'est pas UNE machine qui fait tout le travail, mais DES DIZAINES DE MILLIERS de machines qui traites les données, PAR PHASES SUCCESSIVES ;
- Crawl des pages, une par une
- Chaque page passe dans une moulinette d'algo , une par une
- Le résultat d'une page est modifié dans les stats DE LA PAGE
- Les stats DE LA PAGE sont ensuite utilisé dans le CALCUL DU SITE, au fur et a mesure que des pages sont modifiés
- L'index secondaire est mis à jour progressivement en piochant dans les DONNEES DU SITE,
- L'index PRIMAIRE est mis à jour progressivement en utilisant les données de l'index SECONDAIRE.

MAIS ON N'ATTEND PAS LA FIN DE TOUTES L'OPERATION POUR CONTINUER A METTRE CHAQUE PARTIE A JOUR, ca se fait tout le temps, continuellement ! D'ou les changements heure par heure des résultats en ligne.

Les machines ne s'arretent jamais, c'est comme une chaine humaine qui déblaie un effondrement;
Chaque partie de la zone est traité, déblayée , par des individus, qui se repassent un à un les cailloux (données traités)...

Les petites zone sont vite traité, les plus grosses le seront à la fin seulement, car elle nécessite plus de temps.

Google, c'est pareil a mon avis, car je ne vois pas d'autre méthodes possibles …

Tous les petits sites qui ont ainsi amélioré leur contenu vont passer au dessus des gros, car les gros n'ont pas encore été traité.
Puis une fois tous les traitements terminé, les gros sites vont remonter selon d'autres critères que Panda ...
 
WRInaute discret
J'observe exactement la même chose que plusieurs d'entre vous : mouvements ces 4 derniers jours (dans mon cas assez forte hausse) puis retour exactement à la normal (d'avant ces 4 jours) aujourd'hui...

Bien que google dise que c'est encore Panda, ça ressemble fortement à des tests, non ? Du genre on regarde ce que ça donne vite fait, puis on enlève et on retravaille afin de corriger ce qui n'était pas adéquat.
 
WRInaute impliqué
Pour moi, c'était plutôt baisse depuis samedi et hier quasi retour à la normale... même sur certains sites très riches en contenu et hyper-panda-friendly.... pourvu que ça dure !

Un roll-back de GG ?
 
WRInaute discret
Cela a changé dans la journée, positions (et traffic) en hausse sur la mi-journée puis retour à la normale à nouveau.

Il y a toujours eu des petites fluctuations mais à ce point c'est étonnant !!
 
WRInaute discret
Il semblerait que les data center ne soient pas syncro ce qui peut, peut être, expliquer les fluctuations que l'on voit.
 
WRInaute passionné
Entre la synchro des data center sur Panda et l'éventuel enchainement de Pinguin, les prochains jours risquent de ne pas etres monotone… Retour a la normale chez moi, pour le moment.
 
WRInaute accro
en tous cas google aime mieux mon site internet depuis que ma connexion est plus rapide, je suis passé à la fibre et le ping est très faible et la Bande passante est de 20 Mbit/s en UP en WIFI au lieu de 0.84 Mbit/s en ADSL, tous cas ça joue c'est flagrant vu que c'est la seul chose qui à changer en plus du changement d'IP et d'IP toues les 5 jours ça c'est plus chiant.
 
WRInaute accro
manubu a dit:
Il semblerait que les data center ne soient pas syncro ce qui peut, peut être, expliquer les fluctuations que l'on voit.

J'ai l'impression aussi, c’est vraiment bizarre ça fait 6 jours qu'ils n'arrivent pas à se synchroniser, résultat on reste dans l'expectative. D'un côté des datacenters nous semblent favorables et de l'autre pas du tout. Et toujours difficile de savoir lesquels prendront le dessus ou quelle sera la tendance.

Depuis 2 ans que je m’intéresse de plus près à tous ça, c’est la première fois que je vois ça :roll:
Avec ce pingouin 3.0 qui soit disant ne devrait pas tarder et ce panda 4.1 fraichement sorti...on ne sait vraiment pas ou ça va nous mener...
 
WRInaute accro
Comment savoir sur quel datacenter (ip) on est? J'aurais voulu tester si dans la journée je change souvent de datacenter.
 
WRInaute accro
ok merci

Puis de toute façon ça sert à rien que je me focalise la dessus, ça ne changera pas grand chose au final, le résultat sera le même
 
WRInaute discret
manubu a dit:

Dans ce Hangout ici : http://www.abondance.com/actualites/20141008-14336-google-signe-larret ... erank.html (désolé pour le lien concurrent :mrgreen: ) John Mueller indique que les mouvements que constatent les webmasters sont probablement dus à des test du futur Pinguin qui peuvent affecter de 1%, 2%,... 5% des résultats !

C'est donc vraisemblablement ce qu'on avait observé, comme certains l'avaient supposé !

edit :
Pour ceux que ça intéresse, il dit aussi en gros que même une fois que ceux qui ont nettoyé les mauvais liens ne vont pas forcément remonter là où ils étaient. Puisque ces liens n'avaient pas été compté correctement par Google qui les avait vu comme bénéfique, une fois supprimés on ne peut jamais atteindre la position initiale sans rien faire d'autre.
 
WRInaute passionné
generalhammond a dit:
edit :
Pour ceux que ça intéresse, il dit aussi en gros que même une fois que ceux qui ont nettoyé les mauvais liens ne vont pas forcément remonter là où ils étaient. Puisque ces liens n'avaient pas été compté correctement par Google qui les avait vu comme bénéfique, une fois supprimés on ne peut jamais atteindre la position initiale sans rien faire d'autre.

Ben oui, c'est évident, il faut pas tricher bétement, désormais, il faut tricher intelligemment :mrgreen:
 
WRInaute passionné
generalhammond a dit:
Puisque ces liens n'avaient pas été compté correctement par Google qui les avait vu comme bénéfique, une fois supprimés on ne peut jamais atteindre la position initiale sans rien faire d'autre.

Je ne sais pas si la traduction est correcte car mon anglais est trop basique, mais cette phrase est pleine d'ambiguité;

"ces liens n'avaient pas été compté correctement par Google qui les avait vu comme bénéfique"
Les liens étaient -t-ils ignorés ou pas, ou comptés en "mauvais" ? Bénéfiques mais sanctionnés???? (puisque l'on parles bien de Pinguin")…

"une fois supprimés on ne peut jamais atteindre la position initiale sans rien faire d'autre"
Si j'ai bien compris, le nombre de liens était un facteur positif (les mauvais inclus), ou si le nouveau nombre de liens correct ne correspond pas a l'ancien, la sanction reste?

L'ambiguité de Google est permanente …

Quel sens donnez-vous a cette phrase?
 
Discussions similaires
Haut