Etude des pénalités Google 2009

  • Auteur de la discussion Auteur de la discussion ybet
  • Date de début Date de début
WRInaute accro
Bonsoir,
En 2008 (en septembre :wink: ) j'avais lancé un post sur les pénalités de Google sur les sites. En 6 mois, ca avait cassé des très gros sites, des mojs gros et des petits. https://www.webrankinfo.com/forum/les-penalites-google-octobre-2007-sept-20 ... 99511.html
Comme l'année passée, on a montée une petite équipe qui travaille dans l'ombre mais cette fois avec d'autres moyens et idées.
Je vais d'abord présenter une petite partie de l'équipe actuelle puisqu'elle va s'étoffer (on est juste en train de mettre des bases de tests un peu plus larges et on attend pour la suite pour intégrer les tests en cours). Cette partie est juste ce qui se passe pour ces "sanctions" depuis l'année dernière. Je vais être honnête, l'année dernière je dormais guère en gardant les résultats avant de lacher le post (j'avais posé la question à Olivier pour savoir ce qu'il en pensait à 11 heures du soir et mis le post à ... 3 heures du matin). On va essayer cette année de discoscier les parties qui sont en cours.
Pour ceux qui sont présents dans l'équipe, il y a de nouveau L'Jee: sa principale occupation tourne autour des annuaires sur le forum mais il a d'autres sites. C'est plutôt lui qui analyse des listes de sites référencés et le dupplicate dans les annuaires, Rudddy. Principal problèmes, des sites basés sur des régions dans la même thématique, Joe Coe, peu de sites mais probablement le plus "essayeur" avec d'autres sites que celui de son profil et .... ybet qui gère quelques sites et ramène depuis des années sa (non)-science en référencement sur WRI :mrgreen: . Les nouveaux posts qui débuteront sans doutes dans les seaines qui viennent d'un ou l'autre font partie de nos petits test et constatations en communs. Donc pour l'instant, pas de résultats de ce qu'on est en train de monter ( :wink: on attend ...).
Maintenant les pénalités 2008, revues et corrigées
Les causes de pénalités de septembre 2008:

1. vente de liens soupconnés: là c'est déjà pas tristes, depuis avril mai c'est de nouveau des déclassement (et pas cette fois qu'au niveau PR pour certain avec des liens vers des casinos). Dans un prochain post, en cours d'analyse et tests, les mêmes webmasters avec des liens entre site ont pris la même baffe pour quelques requêtes jugées par GG comme concurentielles -> adword. Mais c'est pas pour aujourd'hui

2. Page dont le contenu est presqu'exclusivement des liens (internes ou externes) . L'année passée, sur le premier post, je disais que les liens internes en surnombre, la page était sanctionné. En plus, je disais que des liens vers ses propres sites n'étaient pas trop sanctionnés. Maintenant c'est faux. Trop de liens = page grisée (internes ou externes et j'avait déjà montrre l'année passée que follow ou no follow ne changait rien. L'idée de 2008, c'était rajouter du texte au-tour des liens . J'ai jouer avec çà sur materiel-informatique.be sur les pages des lettres du dictionnaire pendant des mois, passaient, repassaient disparaissent .... Finalement quasiment toutes déclassées en PR et oubliées dans l'indexe. Pas trop grave pour ce site, mais la sanction reste (et j'ai essayé toutes les dispositions en 6 mois). Je reviendrai sur ce site dans ce post.

3. structure du site avec faible contenu mais liens de navigation trop importants: Google inverse la partie contenu et navigation -> déclassement de toutes les pages avec un contenu trop faible
. là c'est plus vicieux. Google commence simplement à litéralement supprimer ces liens de navigation. J'ai pas dis que ça ne pénalisait pas les pages du site, juste que GG commence à les supprimer complètement comme liens (via GWT mais aussi comme véritables liens). En gros, mettre 50 liens internes sur toutes les pages ne sert plus à grand chose au niveau référencement, même si la structure des liens reste une base du référencement. Il faudra juste commencer à mettre des liens de la page d'accueil vers les pages secondaires qui reprennent des liens vers les sous pages (et plus les pages avec tous les liens).
4. contenu dupliqué ou copié en gros déclassement de toutes les pages sauf si une vieille page est déjà connue de Google. Ca on peut oublier. Après avoir débiuter le post, j'ai forcément mis en pratique sur le site materiel-inf.. (c'était aussi un des sites utilisé l'année dernière pour la majorité des tests) ce que j'avais en partie tester dessus mais surtout pour un autre. Pas de chance ... une page lancée depuis trois mois et cassée par un simple copieur sur un blog C'est pas toujours le cas mais un peit morceau de phrase suffit.
Pour copy scape, pour avoir passer des heures àtravailler avec ... vous pouvez oublier. GG mémorise les pages même dispârues (je l'ai essayé).
5. déclassement des pages avec des fautes d'orthographe SEO : là je pensais que cette pénalité avait disparue. C'est en grosse partie vrai mais pas tout à fait complètement. L'nnée drnière j'avais parlé d'Excell ou mon site est finalement revenu (mais c'est pas un petit non plus. Par contre, j'ai fait à l'hiver ce genre de petits tests avec des nouveaux sites tout gentils;: passé ou page complètement cassée. Par contre: déclassement des pages avec des conjugaisons fausses (genre j'ai acheter ... ), là Google ne semble plus les suivre pour pénalités (un peu comme s'il avait compris que la conjugaison de son algotrythme était un peu juste (même un gamin de 10 ans lui est souvent supérieur). De toute façon, il ne bloquait plus les black Hat mais cassait des petits sites amateurs.

Ca c'est pour (en grosse partie) les pénalités de l'année passée.

Les techniques de tests pour déclassement.
1. Je commence par le PR. C'est okax, revenu dire bonjour aux amis qui va être content.
L'année dernière, je postulait une page cassée par un passage à un PR grisé ou une page qui ne montait pas en PR. C'est toujours le cas en partie (le menu de gauche sur les nouvelles définitions de materiel-informatique repend les définitions par ordre décroissant de mise en ligne et au milieur, deux pages grisées qui sont sanctionnées (en PR et en position). Des pages grisées (et déclassées il y a 6 mois) sont restée grisées mais passent en mondial sur GG.be (c'est un site belge) mais aussi sur GG.fr :?: et une grosse partie des pages qui sont passée PR1 (sans que je suive trop) mais avant déclassée ou PR mais sans positionnement (le PR n'a jamais été non plus une source de positionnement) sont complètement absentes des résultats . Ben oui, une page grisée n'est plus forcément déclassée (encrore peut-être une source comme quoi le PR ne classe pas les pages). Petis trus quand même les listes de liens (genre navigation) interne restent grisées et inconnues dans les recherches.
2. le coup des recherches entre "". Un petit rappel. Lorque vous prenez un morceau de phrases entre "" (exemple "un petit morceau de phrases") dans les recherches Google, le résultat ne reprend que les pages qui contiennent exactemet cette phrase. En 2008, j'avais trouvé mieux :P Pour trouver la phrse en duplicate pas forcément copiée, juste le même bout de phrase, je suivait le contenu morceau par morceau et lorsqe la partie n'était plus reprise dans les résultats ... le duplicate était juste au-dessus ou carément la partie ... Fini. (l'ai encore eut une fois aujourd'hui par hasard). Ce petit test ne fonctionne plus (GG a du corriger son système en lisant le post :evil: comme oui , aut pas grand chose à Google pour changer son algorythme, un petit post sur WRI ).
3. La date du cache. Sur des pages complètement grisées et déclassées. Une recherche entre "" d'un morceau de phrase ... rien, un deuxième ... toujours rien et une heure après, GG avait retrouvé la page dans ses malettes oubliées dans le corridor pas ses bots et donnait le résultts (avec des dates de cache fausses). Là aussi, la date est toujours fausse mais pas de cache signifie pas de page dans l'index ni généralement dans le cache de la barre d'outils.
4. GWT. Un superbe outils l'année passée. Pas connue pour avoir des liesn internes et pas non plus reprise pour envoyer de liens ... (c'était relativement fastoche). GWT a été modifié il y a quelques mois. Quels changements? D'abord, la page complètement disparue (et même pas dans un cache de Google) apparaît comme recevant des liens internes (evec des liens externes, elle gagne normalement du PR même si elle est complètement sanctionnée :oops: ). Par contre, toujours pas reprise comme envoyant des liens internes ni externes. Et pas reprise dans la commande site. On avait pas regardé cette commande l'année dernière (elle est de toute façon bridée). Pourtant, pas reprise dans la commande = pas reprise dans les recherches.
Les sanctions n'ont finalement pas trop évoluées (à part les liens de sites entre sites du même webmaster - ca c'est nouveau et c'est qui semble casser des pages et des sites depuis avril: on est en route :wink: ). Par contre, les méthodes de détections (et de fait la communicatio de Google) a évoluer. Comme si Google cherchait à cacher les erreurs de son algorythme.
Pas plus optimiste que l'année dernière à la même époque (je sais :lol: ) , moins de grosses cassures de sites aussi (ca c'est rassurant dans un sens). Juste les pénalités qui n'ontguères évoluées mais la communication via cette petite barre verte (ou non :P ) qui a nettement évoluée. Quoique des pages complètement propres (y compris complètement testées au diplicate) restent désespérament grisées et pas reprises dans les résultats si elles ont l'air trop concurrentielles.

:mrgreen: l'année dernière, on a beucoup cherché pour comprendre pourquoi certaines pages passaient pas et toutes les raisons qu'on connaissaient ne correspondaient pas.... Cette année (on est à plusieurs dans le cas), des pages stratégiques sont complètement laissées de coté , comme si GG décidait qu'un site n'a pas le niveau pour crér une telle page.
:mrgreen: (2). La mise ne ligne d'une page. Un petit test de Joe Ce mais essayé sur d'autres pages.
... Pchut (c'est un autre post pour plus tard alors pas la peine que Google le sache maintenant :? ). Mise en ligne d'une page=
1. passage du robot.
2. analyse sommaire de la page
3. mise en cache via la barre d'outils mais pas dans l'index.
4. deuxième analyse
5. mise dans l'index. les parties de phrases entre "" apparaisent au minimum dans les recherches dans la barre d'outils et le plus souvent directement dans Google si la page n'est ps cassée par le point suivant
5. déclasement provisoire (ou non), parfois 2 places, parfois 15 parfois .... (je veux pas casser le moral)
6. reclassement si la page semble clean (la réputation du site intervient également) suivan une position plus définitive.

... déclassement si détecté en faute quelques semaines plus tard avec une analyse plus approfondie.

Ouf, j'ai terminé :lol: , mais on va poursuire dans les semaines qui viennent avec d'autres post sur d'autres sujets ou similaires . D'ailleurs le reste de l'équipe va probablement rajouter aussi ses constatation sur le sujet.
 
WRInaute discret
Re: Pénalités Google 2009, on recommence

Bon courage Ybet :wink:
vu l'équipe avec qui tu travail je suis sure qu'il y'aura d'excellents résultats comme les années précédents..
on attend :mrgreen:
 
WRInaute passionné
Re: Pénalités Google 2009, on recommence

ybet a dit:
... comme si GG décidait qu'un site n'a pas le niveau pour crér une telle page ...

C"est tellement vrai ...


Merci Ybet et ton équipe pour le travail effectué :wink:
 
WRInaute impliqué
Re: Pénalités Google 2009, on recommence

merci pour ce post

n'y a t-il pas les liens externes à prendre en compte dans ce joli topic "Pénalités Google 2009, on recommence" ?
 
WRInaute occasionnel
Re: Pénalités Google 2009, on recommence

+ 1 reco aussi, c'est vraiment sympa à toute votre équipe de partager vos testes.
 
WRInaute accro
Re: Pénalités Google 2009, on recommence

En gros, mettre 50 liens internes sur toutes les pages ne sert plus à grand chose au niveau référencement, même si la structure des liens reste une base du référencement. Il faudra juste commencer à mettre des liens de la page d'accueil vers les pages secondaires qui reprennent des liens vers les sous pages (et plus les pages avec tous les liens).
Peut-être pas jusqu'à la non plus. J'ai par exemple sur un gros sites il y a 6 mois environ modifié totalement le menu qui proposait à la base chaque sous catégorie de chaque sous catégorie du menu. Au final quelque chose comme 2 ou 300 liens.

On trouvait dans le code tout d'abord la première catégorie, puis la première catégorie fille, puis la première catégorie fille de la catégorie fille et ainsi de suite jusqu'à la deuxième catégorie, puis la troisième etc ... d'ailleurs d'après le "test" de Joe coe récemment sur l'importance du placement d'un lien dans le contenu, on dirait bien qu'ici le placement des liens était primordial.

Avec cette architecture de menu, on remarquait vite sur le suivi du positionnement que les catégories liées au début de la chaine de lien obtenaient un bien meilleur positionnement, idem pour le pagerank. En gros, seules les deux premières catégories (sur 8 ) et leurs filles étaient positionnés et avait un PR.

J'ai donc modifié le menu en ne gardant que les catégories mère et le premier niveau de leurs catégories filles. Et maintenant, chaque catégorie se voit positionnée en top10 sur sa thématique ainsi que les catégories filles et quasi toutes se voient attribuées en PR.

Je pense que ça image bien la nocivité d'un abus de liens en rapport au contenu ;)

moins de grosses cassures de sites aussi
2008 ce fût quand même l'hécatombe, chaque jour c'était plusieurs topics, allant même jusqu'à inventer une random penality :lol: Tant mieux si 2009 est plus calme pour les éditeurs & SEO :)
 
WRInaute accro
Re: Pénalités Google 2009, on recommence

webmasterdemonsite a dit:
merci pour ce post

n'y a t-il pas les liens externes à prendre en compte dans ce joli topic "Pénalités Google 2009, on recommence" ?

Si ! Mais on est en train de voire dans quelles mesures. Ca fait 4 jours que je retravaille sur le site informatique mentionné plus haut page par page en reprenant également mes tableaux de pénalités suir ce site jusque fin 2008 (j'en ai 3 en lignes sur la même thématique, dont un vieux plus mis à jour). Pour chacun, quasiment chaque fois q'une page recoit un lien des deux autres (mais pas toutes), elle est ou a été pénalisée depuis mai. Ce qu'on cherche à savoir c'est si c'est par harsard, à cause de trop de liens entre-eux, même whoîs, même compte Google (adsence et GWT), même IP, .... Ca va juste être un peu long et sans réelles données (il y a peut-être d'autres raisons qu'on ne connait pas trop mais on analyse d'autres directions plus vicieuses de la part de Google), j'aime pas trop donner des informations qui pourraient être totalement fausses avec des retombées en terme de travail et de coup un peu chères pour les webmasters. Comme l'année passée, il y a aussi des demandes de reseignements par MP avec d'autres et c'est l'ensemble qui permet d'abord des idées, et ensuite des (presque) conclusions.
Comme l'année passée, le total va prendre du temps :wink:
 
WRInaute impliqué
Re: Pénalités Google 2009, on recommence

salut
L.Jee a dit:
J'ai donc modifié le menu en ne gardant que les catégories mère et le premier niveau de leurs catégories filles. Et maintenant, chaque catégorie se voit positionnée en top10 sur sa thématique ainsi que les catégories filles et quasi toutes se voient attribuées en PR.
)

pour avoir une idée du nombre, combien as-tu laissé de liens internes sur tes pages (en moyenne) stp?

a+
 
Olivier Duffez (admin)
Membre du personnel
Re: Pénalités Google 2009, on recommence

Merci pour ce post, ta motivation et surtout ton partage d'infos.

Pour ma curiosité, peux-tu nous dire pourquoi tu parles presque tout le temps de PR (grisé ou pas grisé) alors que tu écris également qu'il n'intervient pas dans le positionnement ? Et surtout, le PR de la toolbar n'est quand même pas l'élément le plus fiable pour analyser ?

Je vais tourner ma question autrement : est-ce que pour toi "page pénalisée" = forcément PR grisé ? Et pénalisé pour toi, c'est perte de positionnement légère ? moyenne ? forte ? désindexation ? Ce serait top si tu précisais le type de pénalité quand tu dis que telle page se fait pénaliser.

allez hop, reco.
 
WRInaute accro
Re: Pénalités Google 2009, on recommence

WebRankInfo a dit:
Je vais tourner ma question autrement : est-ce que pour toi "page pénalisée" = forcément PR grisé ? Et pénalisé pour toi, c'est perte de positionnement légère ? moyenne ? forte ? désindexation ? Ce serait top si tu précisais le type de pénalité quand tu dis que telle page se fait pénaliser.

allez hop, reco.

C'est bien toute la différence par rapport à l'année passée. 2008: PR grisé -> déclassée (parle ancienne page).
2009:
pages de quelques semaines PR0 -> OK (j'ai pas dis bien classée mais présente) Grisé ???? (sans rien comprendre pourquoi ou pas) -> complètement déclassée (duplicate mais probablement d'autres) OU présente et très mal positionnées
anciennes pages: là c'est nettement plus complexe. J'ai des pages PR1 qu'on retrouve nulle part sur GG (même pas dans les 1000 premiers), d'autres qui passent, par contre, des grisées dans les 5 premiers en modial sur de petites recherches en 1 mots (et même une qui se permet de mettre un dégelée à WIKI sur GG.FR - rappelle que mes sites sont des .be) et d'autres complètement inconnues (alors qu'elles étaient classées l'année dernière). Ceci avec ou sans liens externes.
J'ai même des pages PR1 et grisées qui sont même pas dans les caches ! Mais présentes dans GWT comme recevant des liens (ca c'est nouveau).
EN GROS: Plus moyen de voire le PR grisés comme une réelle source de déclassement (je parle des pages avec du contenu, pas des listes de liens). Les pages grisées tiennent maintenant NETTEMENT plus compte des liens vers la page (un peu comme en 2005, quatrième niveau = faible PR, y compris grisé). Et PR intéressant N'EGALE PLUS page placée dans mes définitions les plus vues, toutes sont PR3 sauf une qui est passée des premières places (carte graphique) au fond de classement (PR2). Il y a toujours un peu de communication via le PR affiché mais JUSTE un peu. Un autre exemple de communication (et aussi une cassure du mythe du PR affiché), sur un autre site PR1 avec des liens internes et externes sur la page (on va dire 30 - 40), ajouté 3 lignes de textes et passé le lendemain PR2 :mrgreen: (et aucune modifs en visiteurs ou autres).
Me méfierais quand même d'une page qui passe PR3 -> PR0 du jour au lendemain (là la communication semble encore existée via la barre d'outils).

Mais en gros: les pénalités 2008 sont encore là (avec une mémorisatin des anciennes pages en défaut :oops: en plus), on est sur la trace d'une autre liée aux liens comme l'a fait remarqué
webmasterdemonsite a dit:
n'y a t-il pas les liens externes à prendre en compte dans ce joli topic "Pénalités Google 2009, on recommence" ?
C'est les méthodes de détection qui n'existent plus vraiment, y compris le PR grisé.

PS: c'est bien pour celà que dans le titre du post, il y a "on recommence" :wink:
 
Olivier Duffez (admin)
Membre du personnel
Re: Pénalités Google 2009, on recommence

ybet a dit:
PS: c'est bien pour celà que dans le titre du post, il y a "on recommence" :wink:
désolé je me suis permis de le renommer pour une meilleure compréhension hors du contexte...
 
WRInaute accro
Re: Pénalités Google 2009, on recommence

webmasterdemonsite a dit:
salut
L.Jee a dit:
J'ai donc modifié le menu en ne gardant que les catégories mère et le premier niveau de leurs catégories filles. Et maintenant, chaque catégorie se voit positionnée en top10 sur sa thématique ainsi que les catégories filles et quasi toutes se voient attribuées en PR.
)

pour avoir une idée du nombre, combien as-tu laissé de liens internes sur tes pages (en moyenne) stp?

a+
Sur la home par exemple j'en ai 113, ça doit donc aller jusqu'à 150 pour les pages plus profondes. Comme quoi on est loin des 50 liens annoncé par Ybet :)
 
WRInaute accro
Re: Pénalités Google 2009, on recommence

L.Jee a dit:
J'ai donc modifié le menu en ne gardant que les catégories mère et le premier niveau de leurs catégories filles. Et maintenant, chaque catégorie se voit positionnée en top10 sur sa thématique ainsi que les catégories filles et quasi toutes se voient attribuées en PR.
Attention au PR affiché :wink:
 
WRInaute discret
hy everybody.

Ce que veut dire ybet (je pense :mrgreen: ) c'est qu'on ne peut plus se fier au PR affiché dans la toolbar.
C'est un phénomène assez récent.

Jusqu'ici quand une page était repérée en duplicate par exemple, le pagerank devenait grisé. Généralement le pagerank grisé était bien synonyme d'une page déclassée avec quelques plongeons tout à fait spectaculaire pour moi sur certaines pages.

Depuis peu, j'ai des pages en PR grisée qui se positionnent très bien sur leur requêtes et des pages en PR3 qui sont massacrées.
un indicateur qui fonctionnait pour ma part plutot pas trop mal... mais c'est fini.

Si j'ai fait avancer le smichilimiliblique
 
WRInaute passionné
donc ce n'est qu'une barre pour jouer avec nos nerfs, ou alors le grisage a quand même une signification (mais qui a changé par rapport à l'année dernière) ?

je pense que ybet optait pour la 2eme option
 
WRInaute impliqué
Merci pour le travail et les infos.
En ce qui me concerne, j'ai pu constater également les yoyos sur le PR et classements de pages.
J'ai pu également constater que de nombreux liens avaient été supprimés dans la mesure ou les meta avaient été utilisées pour référencements et donc DC.

Donc le travail de référencement et le PR ne sont pas forcément liés (depuis peu) car comme certains, le positionnement dans les SERPS ne tient pas forcément compte du PR affiché.

Merci encore et attendons la suite avec impatience
 
WRInaute accro
rudddy a dit:
donc ce n'est qu'une barre pour jouer avec nos nerfs, ou alors le grisage a quand même une signification (mais qui a changé par rapport à l'année dernière) ?

je pense que ybet optait pour la 2eme option
Ben non :mrgreen: à part quelques pages qui passent soudainement de PR3 à grisé (l'inverse, garder son PR ne signifie pas grand chose non plus)
Tu aurait vu ma tête quand j'ai repris pages par pages un des sites de tests de l'année passée :? . Sur un dictionnaire, il y a finalement trois catégories de pages:
1. des grosses requêtes, sensées amenées des visiteurs, on les pousse le plus possible dans finalement toutes les méthodes connues.
2. des requêtes moyennes: des visiteurs potentiels (aussi des annonces adsences intéressantes parfois) qu'on pousse un peu moins.
3. du remplissage: touts les dictionnaires informatiques ont une page sur Microsoft mais je doute qu'une page passe un jour

Sur des recherches en 1 mots visant des termes très techniques en anglais, on les met pour les visiteurs, en sachant que ces recherches sont complètement parasitées par de gros dictionnaires anglais avec d'autres moyens que nous (même comment ca marche ne prend pas les 10 premières places). Ben là des pages grisées devant tout le monde sur GG.fr et gg.be (mes sites sont belges), y compris devant les ricains et l'inénarable wiki.... (vérifie RPC-2, devant les sites spécialisés même si ca doit pas me rapporter beaucoup de visiteurs)
Par contre, des pages PR2 ne sont pas reprises dans les 1000 premiers (et c'est ni le contenu ni l'absence de liens). Plus mieux (ou pire). Sur "ordinateur", je sais que c'est concurrentiel, passé la page au peigne fin sur le duplicate (tout le contenu 5 mots par 5 mots sans rien trouver) et une position stratégique de 463 sur Google.be :roll: (PR1 mais toutes les pages internes sont PR1 sur ce site quasiment) Pas dans les 20 premiers, OK, mais là: même trouvé une page en frame avec ni title ni description devant moi :?:
Mais c'est bien là l'idée de ces tests, suivi de statistiques, vérification du cache (même parfois cache-cache): comprendre l'incompréhensible
> e-kiwi: les gros sites peuvent probablement se permettre des trucs qui casserait net un petit site. Lorsque les éditeurs de journeaux belges sont tombés sur Google au tribunal, le plus gros francophone a carrément monté un deuxième site avec une bête redirection (pas un 301) et la même structure: un peu de contenu en duplicate avec le site principal (genre 10 mots) et un gros lien vers l'article original en quatrième vitesse pour conserver les visiteurs et Goggle a rien cassé mais il avait aussi des liens du site principal.

Pour le PR affiché ... on peut quasiment oublier. Tiens je vais supprimer l'affichage du PR pour le remplacer par la toolsbarrre d'Alexa :mrgreen:
 
WRInaute passionné
Salut,

Je suis content de ton article qui, pour moi me rafraichit un peu mes données sachant que je ne fais quasiment plus de référencement alors qu'avant c'etait à temps plein. Merci à toi Ybet pour ce post assez complet sur les choses à éviter afin de tomber dans l'une de ces pénalités.
@ bientot
Guillaume
 
Nouveau WRInaute
merci pour toutes ces infos, je m'interroge plus particulièrement sur une pénalité :
j'ai essayé sur plusieurs années de placer une page sur un mot clé concurrentiel, les 3 premières années j'ai eu de bons résultats (1e page de gg) mais depuis 1 an et demi cette page a totalement disparu des résultats sur ce mot clé uniquement, la page a toujours du PR et ressort sur d'autres mots clés. je pense que la pénalité est due au fait que j'ai utilisé trop souvent la même ancre dans mes bl et que l'augmentation de mes bl n'était pas progressive (trop de bl d'un coup).
sais tu si ce type de pénalité s'arrête au bout d'un moment ?
 
WRInaute occasionnel
tigars a dit:
merci pour toutes ces infos, je m'interroge plus particulièrement sur une pénalité :
j'ai essayé sur plusieurs années de placer une page sur un mot clé concurrentiel, les 3 premières années j'ai eu de bons résultats (1e page de gg) mais depuis 1 an et demi cette page a totalement disparu des résultats sur ce mot clé uniquement, la page a toujours du PR et ressort sur d'autres mots clés. je pense que la pénalité est due au fait que j'ai utilisé trop souvent la même ancre dans mes bl et que l'augmentation de mes bl n'était pas progressive (trop de bl d'un coup).
sais tu si ce type de pénalité s'arrête au bout d'un moment ?

A mon avis obtient de nouveau BL de qualité mais change d'ancre sur laquelle tu pense être pénalisé.
J'ai eut un cas similaires et c'est passé retour en Top 4 sur une requête très concurrentiel :mrgreen:
 
WRInaute accro
papaulux66 a dit:
A mon avis obtient de nouveau BL de qualité mais change d'ancre sur laquelle tu pense être pénalisé.
J'ai eut un cas similaires et c'est passé retour en Top 4 sur une requête très concurrentiel :mrgreen:

C'est effectivement une solution, GG semble beaucoup moins apprécié ce genre de pratique. Pas oublier non plus que les règles standards du référencement sont toujours d'applications, ...
 
WRInaute discret
Pouvez vous approfondir l'idée sur la pénalité à cause des liens entre sites du même webmaster ?
Plusieurs de mes sites sont pénalisés actuellement et je ne vois que cette raison là malgré que ces sites soit sur des serveur différents (mais le même compte GWT et adsense).
 
WRInaute accro
Pour le moment, on en sait rien. Des requêtes se font déclassées d'accord et la suppression de liens de site sur le même compte GWT - adsence permet souvent de faire remonter la page qui reçoit le lien, y compris si les sites ne sont pas sur la même IP et pas dans le même Whois. Reste à voire si les déclassements sur des grosses recherches ne sont pas une modif de l'algo qui déclasse un peu plus les liens avec les mêmes termes répétitifs dans l'anchor et non une pénalité lié aux comptes GWT. En plus toutes les requêtes ne sont pas forcément visées.
Pour les déclassements complets de serveurs .... Ca peut être effectivement un déclassement complet des sites d'un serveur comme pénalité (c'est une piste) mais ca peut aussi être des inscriptions massives dans les annuaires avec les mêmes termes, ou même des liens externes d'un autre webmaster jugés trop répétitifs ou trop gentils par l'algorythme.

Je minimise pas le problème, je donne juste aussi des autres pistes qu'un simple déclassment complet de sites sur des grosses requêtes (mais on a tous tendance à favoriser dans notre travail de linking les grosses requêtes plutôt que les petites) ou un déclassment complet des sites d'un même serveur fait directement sur l'IP (ca me semble un peu gros, surtout que la majorité des webmasters un peu professionnels ont tous un serveur dédié dès qu'ils ont un site important et quasiment tous hébergent d'autres sites.
Pour des grosses requêtes, d'accord que Google doit vite comprendre que le site appartient au même webmaster et que les liens sont plus amicaux que réels. Mais dans ce cas, il déclasserait aussi les sites sur d'autres serveurs dédiés qui se lient entre-eux et pour l'instant, pas eut de cas annoncé sur WRI
Pour déclassement serveur complet, d'après les témoignages lus sur WRI: 1 utilisait des liens en footer entre tous ses sites :roll: (rien que celà peut déclasser un site sans qu'il soit du même webmaster), l'autre a des sites de thématique différents non liés, juste quelques sites de même thématique avec quelques liens "logiques" (mais la logique en référencement Google depuis deux ans ... :mrgreen: ).
Leonick a raison, serveurs différents ca pourait passer mais compte google différents (en changeant de compte google mais en gradant le même PC et l'adresse IP de connexion sans doute?) -> GWT, comptes adsences différents :roll: , .... C'est impossible à réaliser. De toute façon, ca me semble un peu gros un déclassement total de tous les sites d'un même serveur juste comme celà. Il y a autre chose
 
WRInaute discret
Je n'ai pas parlé de déclassement de sites sur un même serveur, mais du déclassement de sites sur un même compte google.

Crée d'autres comptes google est impossible, si c'est faisable pour GWT ca ne l'est absolument pas pour adsense.

J'ai trois sites sur une même thématique mais qui sont un peu diffèrents, et ils sont tous pénalisés, de l'effet yoyo pour l'un jusqu'à l'absence des premiers 100 résultats pour les autres.

Ces sites ne se linkaient pas systématiquement, je pense que c'est une intervention humaine qui à fait déclasser mes sites.
 
Nouveau WRInaute
Salut,
Ybet je pense que tu parles de mon cas quand tu fais référence aux sites non liés ou très partiellement liés entre eux... Sache qu'ils sont hébergés pour ma part chez 4 hébergeurs différents - 3 pays différents. Ils ont cependant le mm code adsense.
Au stade actuel de mon analyse j'envisage plusieurs problèmes possibles:
1/ Trop de liens avec mm Anchor - C'est possible mais certainement pas sur tous mes sites. D'une manière générale je fais peu de liens. Certains sites venaient d'être lancés (Un gros contenu tout à fait unique d'ailleurs) et avaient peut être reçu ... disons 10 liens externes dont l'ancre était en plus différente. Ils ont également été touchés! Je retravaille mes liens en ce moment. Mais il est difficile de remodeler 5 ans de référencement en terme de backlinks... Cela prendra beaucoup de temps. Si c'était l'origine du problème cela risquerait d'ailleurs à amener les webmasters à créer bientôt non plus un mais deux sites à chaque fois ... 1 pour Google et l'autre pour Bing... tant les algos semblent différents (Yahoo ne m'apporte rien perso).
2/ Problème de Duplicate sur certains gros sites qui aurait entrainé une pénalité globale (Allez ! Pourquoi pas ...) --> Raison technique liée à un pb non identifé mais soupçonné chez OVH.
3/ Problème de non respect des règles Adsense (Je suis en train de reprendre tous mes sites pour en avoir le coeur net... Pour le moment j'ai trouvé et corrigé quelques pages border line mais rien qui ne justifie à mon sens une sanction générale).

Sinon ... pour apporter ma petite pierre à vos discussions auxquelles je ne prends habituellement jamais part je vous invite à lire cet article assez intéressant sur les nouvelles pénalités de notre ami GG :

http://www.cemper.com/seo-knowhow/google-minus-50-penalty-cure

A+
Guillaume
 
WRInaute accro
Leduche a dit:
Salut,
Ybet je pense que tu parles de mon cas quand tu fais référence aux sites non liés ou très partiellement liés entre eux... Sache qu'ils sont hébergés pour ma part chez 4 hébergeurs différents - 3 pays différents. Ils ont cependant le mm code adsense.

Dans les moments d'études de pénalités, ma boîte MP déborde (PS: Olivier ou les modos, peux pas avoir une petite boîte spéciale avec un passage de 300 à 30.000 messages :mrgreen: ). J'ai 5 cas distincts dans mes MP :wink: , déjà un qui a racheté une série de site et cherche maintenant de ce coté: comme qoi ca cherche dans toutes les directions .

Mais c'est justement ce qi est bizarre, les sites qui dégringolent sont généralement du même webmaster, sont liés par adsence et (pour la plupart) par gwt avec une majorité sur le même serveur. Jusque là OK, ca serait une attaque contre un webmaster . Pourtant, j'en doute. Tout simplement parce que le nombre est relativement faible (sinon, WRI change de serveur dans les heures qui viennent :oops: ).
Sans faire la vedette, quand j'ai commencé en novembre 2006 à m'intéresser à des déclassements de sites, il n'y avait aucune logique, pourtant on les a en grosse partie trouvées.
Comme formateur informatique, j'ai l'habitude de commencer le premier cours par "l'ordinateur est un crétin, il exécute uniquement des trucs simples rapidement et sans erreur mais sans réfléchir".
Google est un algorythme, complexe sans doute mais un programe de classement qui suit des règles données dans la programmation . Une modification d'un paramètre a trouvé quelques "problèmes" sur les sites pénalisés. la 50 pénalité est connue depuis longtemps mais n'a pas semble t'il été réellement un problème pour les sites francophone (les amerloc en ont pris une mais leurs techniques de référencement sont un peu différentes et surtout plus massives) à grande échelle. Reste à trouver les pistes qui conduisent à ces déclassements.
On va trouver :mrgreen: parcequ'on n'est plus malin que les robots :roll: (les humains sont plus malin que les robots disait'il). Si c'est la suite de l'année passée, il doit y avoir plusieurs raisons qui s'entremèlent.

Bon j'avoue, j'ai donné quelques indications en MP ... Pour les tests en cours, je peux pas y aller trop fort sans risquer de fausses conclusions plus tard sur d'autres problèmes qu'on envisage.
Trois site (en partie en duplicate j'avoue).
A et B (le WWW) sur le même serveur, C un hébergement gratuit avec même GWT et adsence
Page a ->B et des pages de C -> page B.
1. sur la première recherche, supprimé le lien de A et modifié quelques liens de C (en terme mais aussi en suppression) (la page pénalisée d'un coup il y a quelques mois).

39.png


2. page a ->b avec lien reprenant le mot, et remplacé par le lien reprenant un autre des mot clé

access.png
, ca c'est la grosse remontée. Puis descende. Peut-être lié au site pas accessible deux jours, mais j'en doute un peu. PS la partie sans résultats est le déclassement complet de la page, même plus dans le cache (et grisée :? ).

Bon puisque par MP, un d'entre vous a demandé si j'avais des pénalités de Google? Toute la petite équipe qui travaille dans l'ombre en a quelques unes, c'est d'aillieurs un des critères pour rentrer dans l'équipe puisqu'on teste sur nos sites (en plus de se communiquer les résultats entre nous). Maintenant vous savez :lol:
 
Nouveau WRInaute
Intéressant...
Question par rapport à tes deux graphes:
Tes études ne peuvent être menées ensemble sur les mm sites car elles sont exclusives l'une de l'autre si j'ai bien suivi.
Tu les mènes donc sur plusieurs groupes de sites distincts ?
D'autre part les graphes montrent l'évolution de tes positions ? Et cela signifie pour la première méthode que tu remontes 30 places en 15 jours ? C'est bien ça ?
 
WRInaute accro
Leduche a dit:
Intéressant...
Question par rapport à tes deux graphes:
Tes études ne peuvent être menées ensemble sur les mm sites car elles sont exclusives l'une de l'autre si j'ai bien suivi.
Tu les mènes donc sur plusieurs groupes de sites distincts ?
D'autre part les graphes montrent l'évolution de tes positions ? Et cela signifie pour la première méthode que tu remontes 30 places en 15 jours ? C'est bien ça ?

Les graphes sont ceux de l'outils de suivi de positionnement de webmaster-rank.info avec les positions sur Google.fr. C'est bien les positions sur la recherche. Pour les groupes disctincts, Rudddy fait des tests similaires de son coté avec ses propres sites, eux aussi liés entre eux. De toute façon, ce sont des pénalités, les tests doivent être majoritairement fait sur des sites qui sont sanctionnés, histoire de prévoire sur les suivants ce qu'il est plutôt déconseillé de faire. Mais ca montre bien que les liens peuvent nuire au placement s'il sont mal (ou plutôt trop) positionnés, notamment avec des liens entre sites du même webmaster entre ses sites pour essayer de se faire monter.

Les graphes sont ceux du WWW, A (plus jeunes, seulement 4 ans) sert souvent dans les tests parceque son contenu s'y prête bien (c'est des définitions). Ce sont donc tout deux des sites en production depuis des années. Le C est une vieille bête, en fait la version de départ du WWW. Pour des tests individuels, un quatrième site est en cours d'installation depuis deux mois bien à l'abri pour l'instant de liens des autres, le temps de mettre Google en confiance. De toute façon, la première partie des tests sur le 4 est liée à l'hébergement, mais aussi entre A ET B qui vont être discosiés de serveur. C'est aussi pour celà que A et B sont pas trop modifiés au niveaux liens entre eux.
En plus, les 4 sont strictement dans la même thématique, A et B sont d'aillieurs concurrents dans les résultats de recherche sur certains termes mais Google les a clairement liés depuis prêt d'un an. Le dernier, monté pour les tests est trop petit pour se battre avec les autres (en plus que sa structure est tout à fait spécifique pour d'autres tests). Je vérifie les classements depuis prêt de 3 mois sur certaines recherches sur les deux sites principaux et le 4.
Ce sont des pénalités, j'essaye le moins possible d'avoir des modifs externes (genre liens d'autres sites) vers ces sites mais ces petits graphes montrent bien que mettre trop de liens ou liens trop amicaux entre sites du même webmaster (même hébergement ou même Whois ou non) est plutôt néfaste. D'aillieurs la deuxième recherche est effectivement redescendue et c'est quasiment chaque fois comme celà lorsque je fais une demi-modif.
 
Nouveau WRInaute
Bonjour,
Quelqu'un dispose t'il d'un update sur les différents tests en cours ?
De mon coté j'ai décidé de tester une "désoptimisation" en Keywords et d'alléger le nombre liens entre sites de la mm thématique (Mais pas du même contenu) - Les liens restants sont tous pertinents pour le visiteur.
Peu ou pas de changement depuis 3 semaines. Rageant.
Guillaume
 
WRInaute accro
Leduche a dit:
Bonjour,
Quelqu'un dispose t'il d'un update sur les différents tests en cours ?
Oui, nous mais on fait pas cette année les bétises de début 2006 en sortant des idées sur des similitudes. :oops: On s'est assez ramassé de gamelles sur le forum de WRI sans le faire exprêt (euh sutout moi à l'époque quii sortait mes idées à fait sur les raisons :mrgreen: J'auaris imaginé à l'époque le WWW affiché sur le forum était une source de déclassement, je l'aurait même peut-être posté (mais on est raisonnable et plus malin que les robots)

Leduche a dit:
De mon coté j'ai décidé de tester une "désoptimisation" en Keywords

Je crois que Léonick t'a donné la réponse :wink:

Leduche a dit:
.. et d'alléger le nombre liens entre sites de la mm thématique (Mais pas du même contenu) - Les liens restants sont tous pertinents pour le visiteur.
Là pas si sûr :lol: et aussi das le même esprit. Même thématique passe encore (et dans ton cas c'est plutôt une erreur) mais sites plus ou moins liés, là c'est méchament intéressant de les supprimer. Je les laisse sur mes sites pour l'instant, en sachant que c'est bénéfique de supprimer des liens entre mes sites qui sont plus ou moins en concordance et encore plus les pages avec un peu de contenu (intéressant peut-être, mais plus du blabla vulgaire sans réeel intérêt pour le visiteur, pour .... mettre un lien vers le deuxième - ou troisième site). J'attend simplement le temps (et la patience est une des qualité d'un référenceur) pour éjecter un site déjà connu par Google dans la bagarre sur la ^même thématique.

Ca prend juste un peu plus de temps que prévu puisqu'on uutilise plutôt des anciennes techniques basées sur le contenu et PLUS sur les liens mais parie déjà que le prochain post lié aux tests (pas forcément aux sanctions pures et dures) va parler de liens.
Mais là, les 15 jours qui viennent sont plutôt surchargés: faire passer un nouveau desing d'un site d'assurance fait par des simples designer à sa place de départ, faire mon travail de tous les jours, continuer à préparer un petit site qui est une grosse partie des tests, préparer un plus gros à changer de serveur (toujours pour les tests), et préparer l'analyse avec les recherches liées sur d'autres sites pour celui-là . On verra avec les contacts dans trois semaine ce que l'on envoi et ce qu'on garde au frigo pour l'instant. 8)

PS: sur tous ces posts de sanctions, on parle pas vraiment de positionnement ou référencement dans le sens débuter en référencement, juste de sites ou de pages qui se font déclasser de manière plus ou moins bizarre mais à chaque fois d'un coup sec! On trouvera jamais tous les détails, juste nous permettre d'essayer de reclasser des sites en corrigeant et de créer les sites suivants (ou plutôt les groupes de sites) en connaissance de cause. On na pas l'air de communiquer, je sais. En premier, il n'y a finalement qu'ici (sur WRI) qu'on donne des résultats avec les tests qui ont été fait. En deuxième, on doit aussi séparer les réelles sanctions des autres poblèmes (j'ai des pages de sites différents en duplicate clair qui sont pas sanctionnées sur les deux sites, un déclassment d'une oiu des deux pages est une nouvelles sanction ou un oubli de Google? Et quand ca casse, une nouvelle pénalité ou ...).
PS2: et on se méfie des stats visiteurs en plus. Un des site de tests prend depuis quelques semaines son record en visiteur. Génial mais pas forcément lié au modifs (depuis l'année passée j'ai compris). C'est beaucoup de paramètres à analyser sans trop comprendre les détails. Ce qui nous intéresse, c'est les petits plus (et moins). 10 % de visiteurs sur un site de 700 pages, c'est souvent 1 place de mieux sur un ensemble de requêtes insignifiantes (donc pas vraiment mesurables par XITI ou analytic) mais ca prouve en rien que les modifs sont la cause (il y a aussi des changements d'algo, de liens externes pas "voulus" - mais bien venus - ).

On essaye que les tests soient le plus logique possible (exit deux pages postées sur Internet uniquement pour faire des tests plus ou moins logiques), les sites (on parle pas de pages mais bien de vrais sites) sont tous en production ou destinés à y être: c'est justement le problème, en faire assez sans trop avoir l'air de jouer aux kamikaze pour le robot. C'est quoi ton site?
 
Nouveau WRInaute
Bonsoir,
Je me suis mal exprimé en écrivant Keywords je parlais de la densité de mots clés et non de la vieille balise méta obsolète .
Je référence des sites depuis pas mal de temps... Jusque ici une réussite honorable (Enfin jusqu'à fin Aout 2009).
Je ne communiquerai pas mes ndm (Ou un ou deux en privé) mais sache que le déclassement est global (Concerne un nombre importants de sites). Certains ont été déclassés sans être liés avec les autres (ni en thématique, ni en liens), ne sont pas suroptimisés non plus et de surcroit proposent un contenu totalement unique... Le seul point commun est à priori mon compte adsense. Je cherche donc du coté d'une violation du programme... Ca va prendre beaucoup de temps... Je venais aux nouvelles car ton test m'intéresse. Il peut concerner une de mes thématiques (Sites liés entre eux).
Guillaume
 
WRInaute occasionnel
Leduche a dit:
Sinon ... pour apporter ma petite pierre à vos discussions auxquelles je ne prends habituellement jamais part je vous invite à lire cet article assez intéressant sur les nouvelles pénalités de notre ami GG :

http://www.cemper.com/seo-knowhow/google-minus-50-penalty-cureA+Guillaume

Excellentes informations Ybet dont le but est bien sûr d'aider. Là, chapeau bas, une reco et des félicitations sincères pour tout ce temps passé. Idem pour tes collègues testeurs, un grand bravo :wink:

Pour mon cas, après une chute minus -50 sur l'un des sites (Novembre 2008), j'ai délinké mes 9 sites il y a 3 mois à peine. Après tout, un bon site doit pouvoir monter en trouvant ses propres BL tout seul . Comme rien n'y a fait (le site sanctionné n'a pas bougé d'un poil après ce délinkage massif, je penche plus activement sur la minus 50 de Guillaume que je félicite aussi pour sa recherche. En effet, on parle peu de cette sanction, mais elle est belle et bien réelle.

Néanmoins, changer une multitude d'ancres acquises depuis plus de 6 ans n'est pas une tâche facile, voire même impossible en terme de temps. Une chose par contre me tracasse: cette sanction minus dure combien de temps si l'armature des BL ancres n'est pas changée ? Si quelqu'un a une idée, ce serait sympa :wink:

Maintenant, avec google, faire et défaire, ca va un temps, ils se foutent de nous. Je n'ai donc pas du tout l'intention de changer des ancres acquises au fil des années, sauf si GG me paie :mrgreen: Donc, je mise plutôt sur la levée de cette sanction dans la durée. Tanpis, Google sera moins pertinent sur mes requêtes durant ce temps. C'est l'internaute qui est lésé avec toutes ses sanctions. Plus Google sansctionne, plus Bing montera, et rien que cela, ça me plaît :wink:
 
WRInaute accro
Leduche a dit:
Le seul point commun est à priori mon compte adsense. Je cherche donc du coté d'une violation du programme...
s'il y a violation des guidelines adsense, ils suppriment ton compte, mais ça n'a aucun lien avec le positionnement dans les SERP. Après, ça paraitrait normal qu'un site avec un CTR fort (donc taux de rebond fort) paraisse moins pertinent pour l'internaute, donc pour être en 1° page des SERP :roll:
philyd a dit:
Plus Google sanctionne, plus Bing montera, et rien que cela, ça me plaît :wink:
je ne voit pas le rapport : quel pourcentage d'internaute sait qu'on peut travailler son positionnement dans les SERP et qu'est-ce qu'ils en ont à faire si ton site est "pénalisé" du moment qu'ils trouvent réponses à leurs requêtes ?
et il faut arrêter de croire qu'arriver en 1 mois en 1° page des SERP c'est tout à fait normal et pas le contraire : si on arrive en 1° page, cela veut donc dire qu'un site en 1° page a été éjecté. Alors mettre les mots "pénalité", "sandbox" à chaque fois :roll:

Oups : erreur de quote corrigée
 
Nouveau WRInaute
Leonick,
1/ J'ai plusieurs sites filtrés et je cherche l'origine du Pb. Adsense est juste le point commun.
2/ Je n'ai jamais écrit cette phrase sur Bing et Google - Merci donc de prendre mes véritables propos avant de les commenter.
Guillaume
 
WRInaute accro
philyd a dit:
Après tout, un bon site doit pouvoir monter en trouvant ses propres BL tout seul . Comme rien n'y a fait (le site sanctionné n'a pas bougé d'un poil après ce délinkage massif, je penche plus activement sur la minus 50 de Guillaume que je félicite aussi pour sa recherche. En effet, on parle peu de cette sanction, mais elle est belle et bien réelle.
Pour l'instant, (les MP servent aussi), trois groupes de sites ont l'air de revenir après délinkage (pas massif, délinkage progressif).
J'ai le même sentiment entre mes deux sites principaux (sauf que dans mon cas je vérifie pas le site complet mais bien pages par pages), je retire un lien d'une page du premier et la page qui recoit le lien remonte. De toute façon, les deux sites fortément liés de pages internes vers pages internes, dans la même thématique (informatique) avec tous deux des pages sur les mêmes sujets :mrgreen: (si c'était le faire, c'était le faire bien à l'époque). A chaque fois que le lien semble trop fastoche, page qui recoit déclassée. J'enlève un peu de jus dans le lien (en supprimant le mot clé principal), la page qui recoit remonte d'un coup puis redescend . Si j'enlève carrément le lien, ... page remonte et redescend aussi mais nettement moins.
J'en discutais cet après-midi avec un copain. On va devoire arrêter les liens trops amicaux pour garder des liens valables entre nos sites (en gros les liens qui semblent suivis par les visiteurs ne semblent pas sanctionnés).
 
WRInaute occasionnel
Tu vas rire, mais Google commence peut être à communiquer... Voici pourquoi:

J'ai délinké tous mes sites entre eux, comme indiqué dans mon précédent post. Quand je dis "délinker", c'est vraiment massif, car 900 liens même thématique, et très pertinents (contenu) qui pointent sur les autres, c'est vraiment "du lourd". J'ai donc envoyé une demande de réexamen détaillé le 30/08 avec tout le travail effectué.

Et hop, surprise, dans mon compte analytics que je visite une fois tous les 2 jours, sur "visites moteurs de recherches Google", qu'est-ce que je vois ? Tous les mots clés bien sûr saisis par les internautes, mais en 2ème ligne, le terme: "mots clés..." avec 3 points de suspension. Il y a 10 jours que cette ligne apparait dans les mots clés en 2ème position.

Je me suis dit y'a 10 jours que cela devait être un bug, mais au final, je ne pense pas, c'est Google qui me répond... à sa manière suite à ma demande de réexamen. J'en suis sûr à 99%. Néanmoins, par "mots clés...", qu'entendrait-il ? Dans les ancres des BL ou dans les pages (keystuff) ? Je fais donc des essais. Je précise que je ne suis pas parano...

Suppose une chose, tu te rends sur ton compte GG analytics et tu constates que depuis une bonne dizaine de jours, que dans "visites moteurs---Google", tu vois en 2ème ligne des mots saisis "mots clés..." - Tu réagis comment ? Bug bien sûr, non ?
 
WRInaute passionné
ybet a dit:
J'en discutais cet après-midi avec un copain. On va devoire arrêter les liens trops amicaux pour garder des liens valables entre nos sites (en gros les liens qui semblent suivis par les visiteurs ne semblent pas sanctionnés).
vous allez mettre que des anchor :"cliquez ici" ??? :lol:
 
WRInaute accro
Bon assez rigolé avec vos bétises :wink: Premier posts sur mon site concernant les déclassement sur des recherches (donc pas des sites) -http://www.ybet.be/news-fiche.php?numero=24, une partie des autres seront en ligne aujourd'hui, mais pas toute (suis devenu patient avec les tests). Au total, j'ai des pages qui montent sec de 100 places en enlevant un lien. C'est pas forcément la cause de déclassement de groupes de sites mais c'est déjà une bonne piste. :mrgreen:

Cette partie va reprendre une partie des tests de déclassements sur des requêtes entre mon WWW et le materiel-informatique.be. C'est loin d'être fini puisque le site spécial n'est pas encore entré dans la bagarre, juste "comment plomber ses propres pages en les liant entre-elles pas différents sites", liens (on va même dans mon cas pages) faites uniquement pour envoyer un beau lien (avec la belle anchor, le bon PR :? quand la page n'est pas complètement déclassée). C'est un autre post sur les tests puisqu'il est particulier et beaucoup moins général comme celui-ci.

Au passage, costaud Wikipedia, puisqu'il vient de détroner la page d'entrée du site officiel du cameroun sur le mot acceuil
https://www.google.be/search?hl=fr&rlz=1T4GGLL_frBE345BE345&q=acceuil&meta= :twisted:
 
WRInaute accro
une question, importante à mes yeux : ces liens inter sites, amenaient-ils aussi des visiteurs directs ou étaient-ils là juste pour faire du PR sculpting ? étaient-ils intégrés dans du réel contenu ou c'était juste un amas de liens, genre un footer avec des liens vers un casino, 1 agence immo, 1 rachat de crédit et un site en ligne quelconque ?
 
WRInaute accro
Leonick a dit:
une question, importante à mes yeux : ces liens inter sites, amenaient-ils aussi des visiteurs directs ou étaient-ils là juste pour faire du PR sculpting ? étaient-ils intégrés dans du réel contenu ou c'était juste un amas de liens, genre un footer avec des liens vers un casino, 1 agence immo, 1 rachat de crédit et un site en ligne quelconque ?

Honnêtement, si 1/1000 ième des webmasters de WRI jouent autant avec les liens entre pages que moi, c'est un record :mrgreen: . Toute ma stratégie de posiitionnement est basée sur des liens pour la plus part en plein contenu d'une page vers une page correspondante (du même ou d'un site différent -> d'où la liaison entre les sites). Dans l'autre cas, le lien vient en dessous mais dans le contenu dans une case d'un tableau avec un texte explicatif. Je dis pas que tous les liens sont uniquement visiteurs mais pour la plupart au moins fait pour que le visiteur les suive.
J'utilise pas de CMS, quasiment que de l'HTML ou des développements personnels qui sont bourrés de bricolages référencement dans leur conception (je parle des possibilités de lier les pages). Je fais pas d'échange de partenariat (je dois en avoir en tout et pour tout 2 sur l'ensemble de mes sites), si je juge qu'un site externe a une page interne intéressante je me le lien (mais j'avoue c'est assez rare, j'ai malheureusement ce qui me faut dans mes sites, ce que Google a l'air de sanctionner)

https://www.webrankinfo.com/forum/t/les-liens-aident-ils-au-referencement.117678/ :wink:
 
WRInaute accro
ybet a dit:
Je dis pas que tous les liens sont uniquement visiteurs mais pour la plupart au moins fait pour que le visiteur les suive.
mais les suivent-ils ? en clair, si c'est le seul lien qui va de ta page A site A vers la page B site B, vois-tu dans tes visiteurs du site B de tels visiteurs ?
ensuite, c'est évident qu'en ancrant des liens, on travaille aussi SEO et pas juste visiteur, sinon on n'aurait que du "voir la suite..." ou "cliquez ici", qui, malheureusement, semble être mieux compris par beaucoup de visiteurs
 
WRInaute accro
Leonick a dit:
ybet a dit:
Je dis pas que tous les liens sont uniquement visiteurs mais pour la plupart au moins fait pour que le visiteur les suive.
mais les suivent-ils ? en clair, si c'est le seul lien qui va de ta page A site A vers la page B site B, vois-tu dans tes visiteurs du site B de tels visiteurs ?
ensuite, c'est évident qu'en ancrant des liens, on travaille aussi SEO et pas juste visiteur, sinon on n'aurait que du "voir la suite..." ou "cliquez ici", qui, malheureusement, semble être mieux compris par beaucoup de visiteurs
Je donne des indications ici pour laisser ceux qui essayent de supprimer des liens inter sites mettre leurs essais et résultats (ou non) sur l'autre.
Pour access, le lien du premier était cours access, il est devenu cours en ligne ( :mrgreen: pas réver, on se change pas). Un autre cas, switch manageable, le lien était simplement exemple de configuration (enlevé le lien). J'ai pas mis tous mes graphiques, .... mais sur ce site, j'ai également une page qui parle de PHP et une de mysql et sur l'autre quarément un début de cours. Supprimé le lien de la page php (mais pas de mysql), même conclusions (avec chaque fois cours dedans ou un autre mot donc le lien bête et méchant).

Dans l'autre sens, le lien était (mais de home vers home) dictionnaire informatique technique -> dictionnaire technique.
Par contre, si le lien était véritablement suivi (difficile à dire). Pourtant, j'ai pas l'air d'avoir de vraies baisses de fréquentation par accès directs entre les deux sites mais les pages ou je supprime les liens ne sont pas les plus grosses (les autres n'en ont pas le plus souvent) et difficile de suivre toutes les requêtes, surtout que les pages du WWW qui envoit des liens vers la page coresponante de matériel sont elles des grosses pages avec un VERITABLE lien vers une partie qui n'existe pas sur le site. Pour switch manageable, materiel est premier mais l'autre (une suite de page d'un cours complet) doit bien avoir 10 fois plus de visiteurs. Les deux sites sont sur le même sujet mais la construction est nettement différente toutes les pages n'ont pas leur équivalence entre les deux. (Merci Dieux Google d'en tenir compte dans mes prières :P )

J'ai bien compris ton idée et sur les 10 liens enlevés, j'ai pas trop suivi ces temps ci mais même s'ils sont intéressants pour le visiteurs, les liens entre pages dans le contenu doivent être nettement plus suivi puisque complémentaire. C'est aussi une (demi) piste. De toute façon, ca commence à devenir un peu plus claire, tous ces liens à répétitions entre pages et sites ne sont pas forcément positifs. Dans les pénalités ci-dessus, il doit y avoir probablement des sites qui descendent (pas forcément brusque) parce qu'ils envoient des lines (les casinos de août - septembre par exemple) et des pages - sites qui descndent aussi parce que le webmaster à trop (bien) joué avec les liens pour faire monter ensemble plusieurs sites (à mon avis du même sujet ou non mais j'attend avant de vérifier). C'est pas forcément retirer les liens, c'est plus les mettre juste pour le visiteur
 
WRInaute accro
ybet a dit:
Pour access, le lien du premier était cours access, il est devenu cours en ligne ( :mrgreen: pas réver, on se change pas)
de toutes façons, l'ancre doit renseigner brièvement sur le contenu de la page cible, pas que pour une question SEO : pour une question d'accessibilité, 2 liens vers 2 url différentes doivent avoir des ancres différentes. Alors les "lire la suite..." en multiples exemplaires dans une page sont une hérésie complète (rien qu'au niveau accessibilité, sans même parler au niveau SEO)
Quand tu parcours les liens avec un lecteur vocal, il ne te lira que les ancres et pas le texte aux alentours
 
Discussions similaires
Haut