Pinguin, quelques pistes

  • Auteur de la discussion Auteur de la discussion ybet
  • Date de début Date de début
WRInaute accro
Bonjour, j'ai pas tout fini ni mis en ligne mais après 3 mois à bricoler dessus quelques explications sur les problèmes de Pinguin (j'avoue, j'essaye pas d'en sortir réellement pour l'instant mais de comprendre).
http://www.ybet.be/news-fiche.php?numero=39 on commence là, les 37 et 38 vous apprendront rien.

Début juin, j'ai analysé quelques sites touchés -http://www.ybet.be/news-fiche.php?numero=40 (et réseaux de sites). Chaque site a des structures bizarres dans ses liens (je suis pas le seul à avoir publié cette constatation seomix.fr a mis un bel article fin juin .... et à remplacé le contenu par ... acheter mon livre :oops:
Attention à ne pas utiliser cette technique de supprimer des liens. La méthode de liaison est importante mais c'est pas la seule raison (je suis même de moins en moins persuadé que ce sont les liens) Ca va juste faire quelques rappels sur les "bricoolages qui fonctionnaient. C'est un constat ... quoique les quelques analyses de sites touchés font nettement plus d'effet que les trucs Genre "varier ses liens" ... ce qui ne sert à rien pour Pinguin.
en 41, ce qu'à apporté une modification de structure mais tordue (SEO :mrgreen: ). Pourant, en réduisant les liens internes de NAVIGATION vers des pages, non seulement, c'est pas concluant mais en plus ca fait descendre les grosses pages. Et en rajoutant (cette partie n'est pas encore en ligne), non plus

Comme j'ai envoyé un MP aux membres de l'équipe il y a deux jours que j'y allais, ... j'y vais.
La suite n'est pas en ligne mais ... Déjà, Pinguin est mis à jour en temps réel. En deuxième, Pinguin ne touche pas des sites mais bien des pages (me suis assez énervé sur le forum) ou plutôt non: des most clés répétitifs sur les pages de l'ensemble du site. Je prend un exemple: le site materiel - informatique . be utilisé pour ces tests utilise en contenu microprocesseur et en lien processeur : déjà, Google reprend maintenant les deux comme identiques dans les Gras des recherches mais déclasse l'utilisation d'un même texte de lien. Processeur I7, cassé de chez cassé au passage de Ping)in puis grosse descende pour disparaître (et microprocesseur I7 ... deuxième sur GG.fr) C'est aussi pour celà que j'ai différé les premières études de quelques jours.

Pour l'instant: toutes les structures débiles de liens sont déclassantes (avec ou sans variations de liens) en interne comme en externe pour des groupes de sites .... mais de nouveau: ne pas enlever les liens. La répétition gmlobale d'un mot dans les pages d'un site déclassent au moins une page ... ensuite, c'est effet boule de neige.

Question suivante (toujours pas en ligne): est ce que des liens déclassent une page (un site): NON. En modifiant des structures de liens, me suis retrouvé avec des pages qui recevaient les mêmes liens sauf quelques uns déclassées ou classées et les "autres" liens permettent de faire passer d'autres pages: c'est pas (plus) le nombre de liens qui fait monter une page mais des Contenus intelligents.
Je sais, ca semble un peu vague tant que j'ai pas mis tout en ligne .... mais j'ai plutôt bien bossé :mrgreen: (mes potes aussi ... cette fois, je les présente pas ... c'est plutôt moi qui ait tiré l'équipe . sauf ZEB qui n'est que le papy qui n'a pas de site sanctionné par Pinguin mais finalement nous a donné ses idées ... pour l'instant)

On comlmence par le début pour l'instant: supprimer tout doucement les mots clés qui "vous intéresse" dans le contenu et un peu dans les liens. Dans mon exemple ci-dessus, micro est souvent utilisé dans le contenu et sans micro dans les liens

J'adore ce site (le mien), il est tellement bricolable que je fais ce que je veux :wink: (ca change des CMS mais c'est en PHP) Pour l'instant, .... ce que je conseille, c'est de ... lire ce qui est en ligne pour avoir une idée. Je pense qu'un paquet ont fait les mêmes essais que moi sauf que je les ais structurés et répertoriés (et le site le permet): supprimer des occurences de mots dans les pages (! supprimer) mais pas forcément dans les liens: c'est ce qui nous a descendu encore plus en avril.
Là je vais bosser à la fête des artises de Chassepierre comme bnénévole comme depuis prêt de 25 ans ... J'aurais guère de temps ce week-end.
PS, je remercie tous ceux qui m'ont donné les adresses de leurs sites touchés, chacun a reçu un mail avec ce que je voyais via Pinguin. Quelques sites sont repris dans l'analyse mais la majorité m'a demandé de ne pas donner le nom de leur site: du coup, pas de liesn vers les sites, ni vers le site touché (j'en ais fait dans le post le minimum).

On va avoir cette bestiole .... mais ... ce ne sont pas des liens externes genre eannu ou autres qui déclassent des pages (ou des requêtes): c'est déjà une mauvaise nouvelle pour le BH ... et une bonne pour les sites standards.
Une bonne lecture et un bon Week-end. Ceux qui veulent le tableau Excell depuis le début, tant que c'est pas par curiosité peuvent me le demander par MP.
Patrick
 
WRInaute accro
J'ai ajouté une suite hier soir http://www.ybet.be/news-fiche.php?numero=42.
je suis en avance sur ce que je publie mais les mettre en texte permet aussi de mettre les idées en place donc j'attends avant de donner des indications sur la suite même si j'en ais déjà donné quelques pistes dans différents posts)

1. Constat début Juin: tous les sites touchés ont mis en place des structures de liens hors standards: en ligne pour les (très) petits sites et en arbre - pyramide pour les gros pour passer de n'importe quelle page à n'importe qu'elle autre: 1 click pour les sites de moins de 20 pages, 2 pour 200: page1 -> catégorie2 -> page 2, 3 pour moins de 5000: page 1 -> catégorie2 -> sous-catégorie 2 -> fiche2. En plus, cette méthode ne se résume plus à un site mais peut en reprendre plusieurs. Exemple avec deux séries différentes de sites qui utilisent tous des structures en ligne par nom de domaine mais mettent un lien de toutes leurs pages vers l'entrée de chaque autre site.
MAIS: des sites avec des structures bizarres ne sont pas forcément touchés, ni des réseaux de sites -> C'est une des condition

2. PINGUIN agit en temps réel, le temps qu'il réindex les pages qui pointent vers une page pénalisé ET la page: la page est repositionnée ou dépositionnée. Sans modifier la structure complète des liens du site, impossible de la faire sortir. En plus, il y a des effets "boule de neige", une page déclassée ou reclassée va intervenir sur les pages vers les quelles elle envoit des liens.
3. Mettre des liens ou en recevoir n'est pas pénalisant (en respectant le point 1). Par contre en retirer massivement
(cf le post de Winsiders pour les liens externes) mais j'ai à peu prêt la même constatation en interne: Fait descendre la page. Par contre en interne, des pages avec des liens externes diversifiés sont moins pénalisés lors des modifications internes (boule de neige) que celles qui n'en n'ont pas .... Ca fait trois mois que je répète sur les posts liés à Pinguin de ne pas supprimer les liens externes qui pointent vers les sites
4. Pour essayer de "sauver" une page touchée: ajouter des liens en nombre ne sert à rien (y compris en changeant radicalement le terme du lien). Sachant que Pinguin n'est qu'une partie de l'algorythme en supprimer n'est guère plus malin.

5. Les pages qui envoient (en interne ou en externe) ne sont pas pénalysées. Ce sont celles qui reçoivent. Pourtant Il n'y a pas réellement une ou plusieurs pages pénalysées en recevant "au conditionnel" des mauvais liens qui couleraient les autres pages. C'est un ensemble. Pour réellement faire du BH en envoyant massivement des liens: c'est rapé. Pourtant il y a le point 3.

6. En complément du point 5. Les raisons de déclassements sont majoritairement internes (sauf si vous avez bricolé comme au point 1 entre plusieurs sites). C'est là qu'il faut regarder

Pour materiel-informatique.be (le site touché), me faudrait pas 10 jours pour récupérer 2/3 des visiteurs rien qu'en supprimant les liens de navigations à gauche et à droite en reprennant strictement une structure en arbre. Ce qui m'empèche de le faire c'est d'abord parceque j'aimerait bien comprendre, deuxièmement ce type de site fleurte toujours avec des taux de rebonds entre 70 et 80 % et là ca serait encore pire mais troisièmemt (c'est la raison la plus importante pour moi), les liens de navigation permettent aussi des visites sur des pages nettement plus rémunératrices en adsence :wink: et pas qu'en arrivant en direct de Google, aussi en passant d'une page à l'autre

Si le point 1 est une des raisons, j'ai probablement la deuxième raison (et c'est encore en interne)
 
WRInaute accro
J'aurais préféré édité mais c'est pas possible ici. J'en ai déjà parlé dans des réponses: la deuxième cause sont des "mots qui tuent). On connaît tous le bourrage de mots clés dans une page ... en sachant que ça fonctionne pas réellement. Sur un paquet de recherches, je me suis aperçu que des mots souvents repris dans les pages du site ne passaient que rarement avec d'autres mots (Pinguin ne semble dans ce cas pas les prendre en compte quand ils sont dans les liens). C'est la partie suivante: on va mettre du ketchup sur le Pinguin avant de le bouffer (chacun son tour) :mrgreen:, y compris ce qui m'a finalement fait comprendre une autre petite partie.

Tiens en corrigeant une page sanctionnée, deux qui recevaient des liens de celle-ci sont passés devant Wikipedia sur une norme dsl. Comme quoi, repasser tous le site est possible en une dizaine de jours à condition de corriger l'entièreté du site. D'autres de l'équipe testent deux pistes sur l'entièreté de leur(s) site(s): ce sont deux réseaux dans strictement la même thématique. Dans mon cas, le site permet de faire n'importe quoi (en bien comme en pire :? ), je teste par partie trois pistes. Que des mots soient déclassés d'accord, mais pourquoi: liens vers la page avec les mêmes anchors, contenu blindé de chéez blindé (même en relisant certaines pages, je me suis dis que ces pages étaient uniquement faites pour la faire monter sur ... un mot tellement ca devenait illisible) ou Title + H1 .... C'est en gros les trois directions actuelles.
Ceux qui ont des sites touchés et souhaitent essayer d'en sortir (attention ce sont des pistes, c'est pas LA SOLUTION pour Pinguin: rien ne dit qu'il n'y a pas d'autres raisons ... ou même que je me plante complètement :oops: ) peuvent me contacter par MP, une petite analyse du site (pour certains çà à pris une bonne demi-heure, il en faut moins de 10 ' généralement), + des corrections à effectuer en fonction des tests actuels ... j'en suis pour l'instant une petite dizaine.

Et on évite les phrases passe partout genre regarde mon concurrent, il fait la même chose. Petit exemple en MP hier soir pour des sites de traductions: le site touché, les deux - trois mots bourrés dans le contenu et le concurrent ... tout en liens. Pinguin, c'est anti-suroptimalisation mais c'est pas forcément fait intelligemment par Google (ça explique aussi le paquet de sites ringards qui se positionnent en ne mettant que des liens dans leur .... contenu probablement).
PS: je sais, depuis Pinguin, c'est "ca reste secret que le site Z s'est fait déclassé", aucune URL n'est donnée sur le WEB, pas en MP pour les non-membres de l'équipe et à peine pour les autres. Ca devient de la parano pour ... beaucoup trop de webmasters.
PS2: pas la peine de corriger n'importe comment et pas trente correections en même temps, dès le passage de Google, petite descende puis (généralement) remontée puis ca stagne si la correction est propre. Faut entre 10 et 15 jours pour voire les résultats effectifs (en montée comme en descende quoique dans le deuxième cas, c'est souvent nettement plus rapide). :oops:
 
WRInaute accro
J'ai pas trop le temps de mettre en ligne un article sur mon site ni de rentrer dans les détails mais quelques constations sur ces derniers mois. Même si j'ai levé un peu le pied, je continue.

1. Les sites touchés par Pinguin bougent dans les positions pages par pages lors des mises à jour de PANDA (et pas un peu). En clair, Google a depuis des mois rassemblé Pinguin et Panda: les deux sont maintenant liés.
2. Ce sont les Title trop cours, sans mots de liaisons (genre référencement -> Le référencement) qui posent de gros problèmes . Encore plus si le Title est identique au H1. Je vous conseille sur vos pages de désoptimaliser le H1 et ... d'optimaliser le Title ... en les allongeant: ajoutez des mots de liaison, et quelques mots superflus pour vous mais pas pour l'algo.
3. Le problème qui se pose est qui déclasse quoi: ou plutôt une page envoit un lien, c'est elle qui est déclassé ou c'est la page qui recoit (en partant du principe, ce que je pense que des pages sont nocives ... EN RAPPELANT que, du moins pour les constations faites au cours des tests, le problème est INTERNE et pas externe). Après 6 mois, aucune des deux :roll: mais bien la méthode de faire des liens. En gros, une page peut très bien passer en envoyant des liens vers dans pages déclassées ou ... l'inverse.
4. C'est peut-être le plus gros. Dans le site de test, materiel-informatique.be ... il y a de tout comme liens internes: des navigations, des contenus et des bas de pages de contenu en annexe. Ceux qui semblent poser le plus de problèmes ne sont pas les liens de navigation, ni les liens de fin de contenu (on va appeler ca en footer) mais bien les liens de contenu. Je dis pas que ces constatations s'adaptent à tous les sites (il y a toujours les mots qui fachent des précédants posts dans les contenus) mais c'est une piste supplémentaire.

Bref, pour ceux qui sont déclassés par PINGUIN ... et PANDA avec du contenu standard, quelques pistes pour en sortir sont:
Title et H1 a désoptimaliser (principalement le title) en ajoutant des mots (quitte à dépasser les 20 mots d'aillieurs), pas le même title que h1 (encore plus si c'est vraiment juste deux ou 3 mots clés). Vérifier les liens entre pages (ou entre sites du groupe) dans le contenu (pour cette partie, j'ai un petit test en cours pour confirmer :mrgreen: ).

PS: pour les utilisateurs de free, je sais, le site utilisé pour les tests vous est toujours innacessible :mrgreen: mais Si free annonce qu'il remettra peut-être le blocage dans quelques semaines, moi je laisse le blocage en attendant. (comme sur d'autres de mes sites ou parties de sites).
Bonnes chances contre ces bestioles venues du NOOORD comme disait Galabru dans les chti
 
WRInaute discret
Un grand merci à Ybet qui partage pas mal d'infos avec la communauté.
Chapeau l'ami, en espérant que ses conclusions pourront nous aider.
 
WRInaute accro
Je pense que ceux qui se sont fait déclassé par Pinguin (et pas Panda) cherchent encore des idées. Je viens de mettre (quand même) une partie des tests sur ybet: http://www.ybet.be/news-fiche.php?numero=48 . J'ai zappé la partie août - janvier finalement (j'ai donné les indications ici).
DC est effectivement une piste mais ... pas tout à fait. La techniques des liens non plus (désolé de contredire tout le monde, ou presque)
J'ai quand même repris un peu le clavier pour mettre en ligne une partie un peu plus à jour :oops: en attendant le 15 mars, date à retenir sur WRI, pas seulement à cause des annonces de Google sur l'intégration de Panda à l'algo (on le savait déjà), une grosse mise à jour de Pinguin (ah bon) mais surtout parceque c'est l'annif d'Olivier (ses cousins, maraines, oncles et tantes l'appellent parfois WRI :roll: )
 
Olivier Duffez (admin)
Membre du personnel
ybet a dit:
le 15 mars, date à retenir sur WRI, pas seulement à cause des annonces de Google sur l'intégration de Panda à l'algo (on le savait déjà), une grosse mise à jour de Pinguin (ah bon) mais surtout parceque c'est l'annif d'Olivier (ses cousins, maraines, oncles et tantes l'appellent parfois WRI :roll: )
:oops: :oops: :oops:
 
WRInaute occasionnel
ybet a dit:
Encore plus si le Title est identique au H1. Je vous conseille sur vos pages de désoptimaliser le H1 et ... d'optimaliser le Title ... en les allongeant: ajoutez des mots de liaison, et quelques mots superflus pour vous mais pas pour l'algo.

Bravo Ybet pour tes tests :wink:

Je retiens la piste citée ci-dessus; en effet, je n'y ai jamais pensé. Généralement, lors de la rédaction d'un article, mes balise H1 sont toujours identiques à la "Title". Une mauvaise habitude sans doute. Pourquoi pas, en effet, c'est une piste importante à essayer.

Je teste ta piste :mrgreen:
 
WRInaute accro
philyd a dit:
Je retiens la piste citée ci-dessus; en effet, je n'y ai jamais pensé. Généralement, lors de la rédaction d'un article, mes balise H1 sont toujours identiques à la "Title"....

Contenu

Dans le principe il me semble que ce filtre a été lancé dans une optique "anti spam". Spam de quoi la question reste entière quoi qu'il en soit les résultats d'Ybet montrent que la notion de "spam text" peut avoir une influence.
De plus la sanction "à la page" peut aller dans ce sens.

De mon côté je suis un fervent de la triplette du bourrin puisque mon CMS me fait des url + h1 + title a partir de l'unique titre que je donne à la création (sans parler des anchors des liens onsite). Donc toutes mes pages sont impactées et pourtant je ne suis pas pénalisé. Ou formulé autrement si jamais la triplette était seule responsable ou une grosse responsable de ce genre de pénalité aujourd’hui je compterais les visiteur sur les doigts d'une main de manchot .... (pour un pingouin c'est normal me direz vous) mais c'est pas le cas.

Alors ou est la différence ? j'attends par mp qque urls d'Ybet a analyser pour voir si ma piste tiens la route mais je pense d’ors et déjà que ce filtre pourrait avoir des critères précis de contenu pour pondérer la notion de spam dans le contenu.

GG sanctionne depuis longtemps le KWstuffing on peut donc penser que la triplette vue les éléments qu'elle impacte va forcement peser lourd mais cela pourrait être fortement pondéré par la pertinence rédactionnelle du contenu et sa taille...
A contrario Ybet a généralement des pages très fournies mais pour connaitre sa façon d'écrire et son métier je pense qu'il est un bon candidat manchot par rapport aux critère que je surveille.

affaire a suivre

Linking

Ensuite je partage (encore une fois j'ai des prix en magasin depuis) l'avis d'Ybet sur le manque total de pertinence dans la piste linking / manchot.

Pourquoi ? simplement car GG a sorti juste avant une pénalité linking factice et que je vois mal deux équipes bosser sur deux systèmes aussi importants en même temps en visant des effets identiques (virer les sites sur-SEOisés).
De plus pour côtoyer des pro du "linking bio 100%" fait en usine je sais parfaitement que le linking massif n'est pas mort.
Si on ajoute que j'ai que du linking thématisé anchorisé followisé au max si possible je devrais encore une fois être mort (certes j'en ai peu et a côté j'ai du vrai bio cultivé sur le fumier blogspot ou wikipédia etc ... mais quand même) Si on ajoute à cela que je fais dans l'EMD, donc que même mes liens pourris sont anchorisés, ma survie tiens du miracle faut il que je change de pseudo pour un truc plus biblique ???

Bref les liens :cry: ...
 
WRInaute accro
part

> ZEB J'ai accepté ton commentaire (merci) :wink:

Reste cette foutu bestiole :oops:

On sait que Panda et Pinguin sont maintenant mis à jour en temps réels (dixit Google). J'y crois pas trop: des parties sont toujours mises à jour en temps réels mais .... le site reste sanctionné. En gros, des pages font du yoyo entre correction et site (ou plutôt page sanctionnée): ca dépend des mises à jours, celles annoncées ou celles que je vois comme d'autres dans les positionnements.

Maintenant, reste des pistes: ca fait quand même plus d'un mois que je corrige page par pages le DC (que j'avais laissé en en 2008 après avoir corrigé) .

1. les pages corrigées DC: pas de pages en DC qui s'étainent écroulées revenues, des pages copiées complètement sont descendues un peu et d'autres se sont écroulées avec les différentes mises à jour depuis avril 2012 ....
Ca pose la première question: pourquoi une page copiée est plus ou moins restée et pourquoi une autre a disparue. J'ai pas de réponses mais quelques constatations ....
- déjà les pages qui semblent rester, le contenu est souvent mis en citation sur les réponses des forums. Celles qui tiennent reprennent un lien ensuite vers la page.
- si en 2008, fallait pas grand chose, c'est pire. Le trackage est nettement plus complet et tient moins compte des liens vers la page (internes mais aussi d'autres sites)
- j'ai déjà parlé de sites liés (ce qui est en grosses partie mon cas mais pages vers pages). Apart les cas désignés en juin 2012 pour un paquet de sites (de nouveau je donne aucun sites fournis par MP .... je dois en avoir une petite centaine), le DC entre pages du même "groupe de sites" est spécial ... en corrigeant une page, c'est l'autre qui monte :?: En gros, je corrige une page copiée par un paquet de bricoleurs et ... c'est moi qui descend .... et sans la corriger, je reste très loin.
PS: suis un peu vicieux, tout ce qui est copié (et corrigé) de chez copié est publié autre part .... c'est pas du Black Hat, c'est ma manière de pas laisser passer des copieurs.
2. L'ensemble du site.
Reprenons la théorie des "mauvaises pages". On peut imaginer qu'une page qui reçoit des liens de pages pas correctes est déclassée: c'est une des théories lancées par des "vedettes du référencement" (et l'inverse de ce que je dis depuis le début .... comme quoi j'analyse toutes les pistes :? ). Dans l'idée, en corrigeant le DC sur des pages , celles qui recoivent des liens de ces pages devraient remonter .... eh NON
Suivant les pages du site et ses modifs, des pages montent et descendent ... j'ai des constatations mais pas de conclusions.

Pour rappel, le titre du POST est "Quelques pistes pour Pinguin". Et finalement, je trouve pas de réponses .... :oops: juste les résultats d'analyses et modifs .

PS: les sites touchés par Pinguin qui suivent mes pistes et d'autres , si vous avez des résultats: merci de me les communiquer ... on avance par le partage et ca évite de faire la même chose chacun de son coté.
 
WRInaute discret
Bravo YBet, vous êtes parmis les rares ici qui essaye de donner des pistes,mais ce que je vous reproche c'est que vous travaillez surtout apparemment sur des pages et pas sur un site complet,les pénalisations touchent surtout le site au complet pas une page ou autre du site
Même si vous avez rien trouver de concret mais vous me poussez a chercher aussi
 
WRInaute accro
goodman a dit:
vous travaillez surtout apparemment sur des pages et pas sur un site complet
Il faudrait que tu précise ce qui te faire dire çà car une dizaine de pages impactées par le manchot peuvent très bien bouffer 90% du trafic et faire penser que c'est le site qui est pénalisé.
De plus si tu as qques URL de pages qui ont pris une forte baisse de trafic lors de la mise en place du manchot je veux bien leur Url en mp pour faire deux trois tests afin de valider ou d'invalider une idée a moi merci.
 
WRInaute discret
Ce que je veux dire,c'est que YBet fait des analyses sur des pages ( un site peux contenir des centaines des pages) alors que la plus part des webmaster cherche surtout a positionné seulement l'index et je ne pense pas que le manchot a touché des sites a cause d'un referencement abusif d'une page.
Je pense que le manchot a touché les sites qui ont un nombre de lien vers l'index très élevé par rapport aux lien vers les autres pages du sites.
 
WRInaute accro
goodman a dit:
Je pense que le manchot a touché les sites qui ont un nombre de lien vers l'index très élevé par rapport aux lien vers les autres pages du sites.
Oui OK mais comme le postula de départ était que le manchot n'avait rien a voir avec le linking externe ... et que les premiers constats on été l'effondrement des positions de certaines pages précises ... c'est normal de se pencher sur cette notion en particulier. De plus si tu met en parallèle la pénalité pour lien factice qui est apparue genre 10mn avant le manchot, pourquoi penser que le linking serait la cible de deux pénalités si rapprochées.
Après oui il existe des personnes qui se concentrent sur l'accueil mais bon c'est pas le cas des gens sérieux qui ont une réelle démarche de ref dans la mesure où ils vont un peut plus loin que lire 3 pages pour travailler et faire des tests.
 
WRInaute discret
La Pénalité lien fictifs : google a pénalisé des sites pour avoir abuse des liens que google considéré fictifs( le nombre de lien importe peu )
Le manchot c'est pour les site avec un SEO disant plus agressif ( nombre de lien pas proportionnel entre les différentes pages du site, et aussi l'ancre varie peu ou pas ).
pour y remédier je ne pense pas que la meilleur façon c'est de faire des test sur des pages car ils ont été automatiquement de-positionné des que le site s'est fait pénaliser,il faut faire des nouveaux liens vers les autres pages du site pour rendre le nombre de lien proportionnel entre les pages, c'est mon point de vue
 
WRInaute accro
Oui j'avais compris ton idée et, de fait, ton point de vue, mais avant de se lancer dans une campagne de linking ver des pages profondes peut tu avancer qques test réels qui peuvent étayer ton point de vue ?

Après je suis un peut dubitatif car sur mon million de pages pas pénalisées j'ai relativement peux de BL profonds en comparaison de l'accueil ce qui aurait fait de moi un bon candidat mais c'est pas le cas ...

De plus vue la notion de référencement moyen des gens qui passent ici (sans les dénigrer) je pense que beaucoup de gens sont dans cette situation de linking "uni page" a l'accueil et je me dis qu'ils ne doivent pas être tous pénalisés. Ensuite ce linking massif de l'accueil est aussi (entre autre) un signal fort de liens fictifs il serait donc normal de penser que tous les sites touchés par le manchot aurait du se prendre une "lien fictifs".

Mais pourquoi pas ... Après sachant que la majorité a viré ses liens suite au manchot (accentuant la descente aux enfers) on peut penser qu'en en ajoutant des liens profonds on est sorti de la dite pénalité car tout simplement on a enfin un trafic profond qui se met en place.

Reste après, que même avec un dé-linking massif on a pas trop de retour sur une levée de sanction. Bref si tu développe avec des test a l'appui ton idée peut être très intéressante car en plus elle encourage la technique de dilution du linking qui me semble tout a fait pertinente pour d'autres raisons dans tous les cas.
 
WRInaute accro
goodman a dit:
Ce que je veux dire,c'est que YBet fait des analyses sur des pages ( un site peux contenir des centaines des pages)

materiel-informatique.be reprend quelques 1000 pages et chaque modifs sur une page est répertoriée dans un tableau Excel sur toutes mles pages qui envoient ou recoivent un lien de cette page en contenu, fin de contenu ou en navigation ... J'analyse également les positions sur 2 autres sites en partie linkés plus ou moins :wink:
Pourtant, tu a raison, il faut regarder le site en entier pour Pinguin.
 
WRInaute accro
Ca va être dur de donner les explications sur ce qui se passe sur ce site mais je essayer.

Petit rappel, le site utilisé pour les tests est resté en erreur SQL de 5/5 au 7/6: juste le header en contenu.
En remettant le site en route, ....
1. suis à 1/3 des visiteurs d'avanr la coupure (1/3 d'avant Pinguin).
2. toutes les pages (enfin presque remontent vers leur position .... même mauvaise :oops: ) sauf que:

1. presque que toutes les pages avec DC corrigées sont presque remontées à leur niveau ou sont remontées mais ...
2. des pages sans liens externes sont remontées à leur niveau d'avant comme d'autres avec beaucoup de liens externes. Des pages avec quelques liens externes uniquement bricoleurs (genre espèces de moteurs de recherche mais aussi toute la panoplie de pages en doc, odt, ....) sont soit remontées à leur niveau, soit pas bougées des profondeurs (malgré leur ancien : que la page était bien positionnée ou non d'aillieurs ... ca confirme en partie mon idée sur les liens externes: pas forcément une cause.
3. Les corrections de DC faites avant Pinguin 4 (le site était finalement hors d'usage) sont majoritairement posities sauf .... quelques pages .
4. (c'est là le plus bizarre). Sur les pages qui ont déjà été réindexées, un paquet continue à faire du yoyo (genre 10, 263 puis revenir à 30 puis .... monter ou descendre: comme si en réindexant, Google découvrait des pages "nocives" : descende et des pages positives (montées).

DC probablement oui mais pages nocives (peut-être par DC) aussi probables.
 
Discussions similaires
Haut