if (sandbox == mythe)

  • Auteur de la discussion Auteur de la discussion blman
  • Date de début Date de début
WRInaute accro
Juste une interrogation sur la sandbox, je n'essaie pas ici de dire que c'est un mythe ou pas, je voudrais juste qu'on en discute.

Voila, je me lance : vous serez tous d'accord pour dire que les intitulés des backlinks ont une importance primordiale dans le positionnement de vos pages sous Google (si déjà, il y en a qui conteste ce fait, c'est pas gagner). Il y a 2 moyens de faire un backlink :
- un lien en dur sur du texte
- un lien en dur sur une image avec les attributs alt et title de renseigner.

Ma théorie :
1- les intitulés sur des images sont beaucoup plus long à être pris en compte par Google que l'intitulé sur un lien texte donc le mauvais classement de certain site pourrait venir de ça. Globalement, j'ai pu le constater sur les sites dont je m'occupe (les sites qui utilisent des liens textes semblent moins souffrir de la sandbox que des sites qui utilisent beaucoup de lien en image)
2- les sites anciens bénéficie de leur ancienneté, c'est pas nouveau
3- les sites qui abusent de l'échange de lien sont pénalisés par un filtre de Google (pas nouveau non plus, ça évite de bien placé les sites qui veulent à tout prix avoir un fort PageRank)

C'est 3 points mélangés nous donnerait l'illusion que Google à mis en place un filtre nommé "sandbox" alors que ce serait tout simplement Google qui aurait besoin de temps pour que son index se mette en place (difficulté à prendre rapidement en compte les backlinks, filtres, ...)

Voila qu'en pensez-vous ?
 
WRInaute impliqué
Les intitulés sur des images sont beaucoup plus long à être pris en compte par Google que l'intitulé sur un lien texte donc le mauvais classement de certain site pourrait venir de ça. Globalement, j'ai pu le constater sur les sites dont je m'occupe (les sites qui utilisent des liens textes semblent moins souffrir de la sandbox que des sites qui utilisent beaucoup de lien en image)

Google beaucoup plus long à prendre en compte un lien image plutôt qu'un lien texte je ne vois pas en quoi ?! C'est exactement la même balise sauf qu'au milieu c'est une image et non un libellé :?

les sites anciens bénéficie de leur ancienneté, c'est pas nouveau

Là je suis mi d'accord mi contre. Pour moi et c'est ce que j'ai bien expliqué dans ma théorie, grossièrement au plus tu as d'âge au moins tes variations de BLs seront prises par Google pour de la sur-optimisation, ce qui diminuera les chances d'être freiné par des filtres anti-suroptimisation ... Attention j'ai bien dis diminué pas empêcher (C'est d'ailleurs là que les opinions de divisent)

les sites qui abusent de l'échange de lien sont pénalisés par un filtre de Google (pas nouveau non plus, ça évite de bien placé les sites qui veulent à tout prix avoir un fort PageRank)

Si, ca c'est nouveau et d'ailleurs pas encore accepté par tous (Cf la modification que j'ai faite dans la bible du référenceur), mais très (trop ?) dur à prouver comme je l'ai également expliqué dans ma théorie sur la sandbox.

C'est 3 points mélangés nous donnerait l'illusion que Google à mis en place un filtre nommé "sandbox" alors que ce serait tout simplement Google qui aurait besoin de temps pour que son index se mette en place (difficulté à prendre rapidement en compte les backlinks, filtres, ...)

Voila qu'en pensez-vous ?

J'en pense que tu viens de comprendre en partie ce qu'est la sandbox ;)
 
WRInaute accro
Je quasiment sûr de mon premier point. J'ai fais pas mal de test : un backlink en text est pris beaucoup plus rapidement qu'un lien sur une image, d'ailleurs une page qui est lié par des liens textes est indexée beaucoup plus rapidement qu'une page liée par des images (ça j'en suis sûr à 95%, ça peut aller du simple au double)
Je viens de sortir un site (michenaud pour pas le nommer), tous les liens textes ont été suivi en premier.
 
WRInaute accro
A mon avis, la sandbox, c'est juste que le programme Google a beaucoup de mal a indexé et classé tous ces milliards de liens qu'il indexe. En gros, ça rame à mort et les nouveaux sites en patissent. Normal alors que les anciens sites soient mieux positionnés puisque les liens qui pointent vers eux sont déjà dans une sorte de cache.
 
WRInaute impliqué
Ce qu'il cherche à faire c'est à éviter que des sites de quelques mois à peine détronent des sites de référence dans un secteur donné s'ils n'ont pas de valeur réélle.
 
WRInaute impliqué
Oui mais que faire de la prime de fraicheur ? Qui elle existe vraiment et a été constatée par beaucoups
 
WRInaute accro
Et bien justement rituel, c'est là que je ne suit pas d'accord avec toi : à mon avis Google ne controle pas la situation à 100%. Ce n'est pas Google qui a mis en place ce filtre que l'on appel "sandbox". Pour moi, c'est plutôt un dysfonctionnement du programme que les ingénieurs de Google n'arrive pas à controler. D'après moi, ils n'arrivent pas à gérer tous ces liens qui se créent, se modifient et disparaissent : certains liens que j'avaient fait pour la société où je travaille n'ont été pris en compte dans les critères de positionnement que 6 mois après leur mise en place, ça montre bien qu'il y a un dysfonctionement au niveau de la prise en compte de ces liens dans le positionnement. Il y a un article sur Webrankinfo ("la foire aux backlinks" je crois qui m'avait mis la puce à l'oreille) : un problème de stockage, pas assez de puissance de calcul, je sais pas moi. Ou tout simplement, il préfère attendre une certaine durée pour prendre en compte un lien dans les critères de positionement (???).

Pour moi, tout le problème avec la sandbox, c'est un problème de backlink mais je ne connais pas les critères (ancienneté des backlink et non pas ancienneté du site comme beaucoup le penserais, ou problème de mise en cache ???)
 
WRInaute accro
olivieri a dit:
Oui mais que faire de la prime de fraicheur ? Qui elle existe vraiment et a été constatée par beaucoups

La prime de fraicheur, je l'ai aussi constaté mais elle ne concerne que le contenu de la page (densité des mots clés, présence des mots clés dans le titre et les h1...). Seulement as tu déjà constaté, pendant une période de prime de fraicheur, que des pages étaient bien positionnées sur des mots clés que tu aurais uniquement optimisé grâce à des backlinks. Moi jamais !
 
WRInaute impliqué
blman a dit:
olivieri a dit:
Oui mais que faire de la prime de fraicheur ? Qui elle existe vraiment et a été constatée par beaucoups

La prime de fraicheur, je l'ai aussi constaté mais elle ne concerne que le contenu de la page (densité des mots clés, présence des mots clés dans le titre et les h1...). Seulement as tu déjà constaté, pendant une période de prime de fraicheur, que des pages étaient bien positionnées sur des mots clés que tu aurais uniquement optimisé grâce à des backlinks. Moi jamais !

effectivement, tu as raison
 
WRInaute accro
olivieri a dit:
Oui mais que faire de la prime de fraicheur ? Qui elle existe vraiment et a été constatée par beaucoups

apparemment elle existe toujours pour des sites ayant "fait leurs preuves", c est a dire relativement ancien et ne tombant pas sous le coup de cette "sandbox" (quelque soit son mode de fonctionnement). si WRI sort une page ou un article, cette page profitera de la prime de fraicheur. on l a vu avec les pages de l´annuaire qui se sont tout de suite super bien placées mais qui ont perdu du terrain par la suite.

De plus, on a entendu pas mal de webmasters se "plaindre" de ce qui semble etre la sandbox alors que leur site a dans un premier temps été correctement référencé puis disparu des resultats.
 
WRInaute passionné
Je ne suis plus très certain au sujet de la prime de fraicheur pour un site nouveau.
Les sites que j'ai lancé en fin d'année dernières en ont bénéficié (certains avant d'être sandboxés).
En revanche depuis début février et la MAJ Allégra, j'en suis plus très sur. J'ai pour l'instant lancé un seul site,il ne semble pas bénéficier de prime de fraicheur. J'attends l'ndexation d'un second site pour coroborer, mais je sent venir la fin de "l'état de grace"r pour les sites nouveaux.
Pour les sites comme WRI, ne bénéficient-ils pas pour leurs nouvelles pages de leur statut de site de référence; sans considération de fraicheur.
 
WRInaute accro
Donc pour en revenir à ma théorie, la voici :

"Les backlinks ont une grande importance dans le calcul du positionnement des pages d'un site. Tous nouveaux sites ou nouvelles pages ne peut donc pas être bien positionné tant que Google n'a pas correctement pris en compte les nouveaux backlinks dans son index (backlinks internes ou externes, optimisé pour des requêtes précises). Hors, il faut techniquement (ou volontairement) beaucoup de temps à Google pour bien les indexés et qu'ils entrent en jeu dans le calcul du positionnement. Donc les nouveaux sites (comme les nouvelles pages d'ailleurs) sont pénalisés puisque les backlinks qu'ils obtiennent mette un délais trop long à être pris en compte dans le calcul du positionnement (de 3 à 9 mois d'après mon expérience)."

On peut pallier ce problème en utilisant des techniques déjà connu : optimisation des titres, des balises h1, densité du texte, ... Seulement, l'importance des bons backlinks des anciens sites leur permet souvent de passer devant les nouveaux sites, même si ces nouveaux sites ont bien optimiser leur page.

Tout cette théorie n'est bien sûr pas valable en période de prime de fraicheur (qui existe toujours malgré ce que certains ont pu dire, je la constate en ce moment même sur un site que j'ai refait) (pour MagicYoyo, moi aussi je pense qu'il n'y a pas de prime de fraicheur pour un nouveau site ou alors ce critère est trop faible pour permettre aux nouveaux sites de passer devant les anciens sites qui ont, désolé d'insister, de bons backlinks. Et oui, malgré mon pseudo qui n'a rien à voir avec ça, pour moi l'arme fatale en référencement, c'est le backlink).

Voila, voila, au risque de passer pour un con si dans quelques mois (ou semaines), on découvre que j'étais complètement à côté de la plaque, je voulais vous faire partager mon sentiment sur la sandbox qui je pense n'est pas du tout un filtre.
 
WRInaute accro
En gros pour résumer :
Pour moi, le problème est un souci d'ancienneté des backlink et non pas d'ancienneté du site comme beaucoup le pense


D'autres part, je pense qu'il ne faut pas confondre cet effet "sandbox" avec un probable filtre que Google aurait mis en place pour ceux qui ont trop de backlink d'un coup notamment par rapport aux clones de Dmoz(Erazor, si tu me lis :wink: )
 
WRInaute impliqué
Arrêtez de divaguer si MSN sait le faire, Google sait le faire aussi.

Tout le monde a bien remarqué qu'MSN ne mettait pas en place des filtres de sur-optimisation aussi bien concus que ceux de Google et il en résulte quelque chose de bien simple : Ici tout le monde ou presque a son site bien classé sur ce moteur.

C'est CA la différence entre ces deux moteurs : Ils savent tout deux crawler, ils savent tous deux classer, mais l'un ne modère pas aussi bien que l'autre.

Pour la prime de fraîcheur je ne l'ai jamais vu de mes propres yeux sur une requête commercialement concurentielle pour un site flambant neuf. Pour une requête donnant beaucoup de résultats mais commercialement inutile j'ai déjà vu (j'en suis d'ailleurs la preuve vivante : 1 er sur le mot "livraison" après 1 semaine d'indexation par Google), mais jamais sur une requête commerciale (J'ai commencé ~300 ème pour "livraison fleurs").

HerveG et MagicYoYo je vous suit à 100% sur ce que vous dites en revanche sur la prime de fraîcheur pour des nouvelles pages de sites (Encore une fois j'en suis la preuve vivante, tapez "fête des grands mères" vous comprendrez).

Et pour finir, ta théorie ne tiens pas debout rien que pour le site www.livre-google.com avec pour BLs tous les sites d'Olivier (WRI, Webrankexpert, Abondance, Dicodunet etc ...) qui sont pas des sites inconnus de Google et qui crois moi sont extrêmement réactifs et crawlés et dont les Bls ont été pris en compte bien rapidement ... Hé bien ce site est resté je ne sais combien de temps dans les profondeurs de Google à la grande surprise d'Olivier ... Pour moi pas de surprises : Démarrage en trombe, coefficient directeur de la courbe des BLs monstrueux, évolution des BLs non entretenue -> Sandbox.

Pour information il est seulement ressorti de la sandbox que récemment.
 
WRInaute accro
blman a dit:
... à mon avis Google ne controle pas la situation à 100%. Ce n'est pas Google qui a mis en place ce filtre que l'on appel "sandbox". Pour moi, c'est plutôt un dysfonctionnement du programme que les ingénieurs de Google n'arrive pas à controler ...
comme toi, j'ai aussi tendance à penser (d'ailleurs je l'ai déjà dit) que ce que l'on appelle "effet SandBox" ne pourrait être qu'un effet de bord (non désiré en tant que tel, et non réellement maîtrisé) de la combinaison de plusieurs filtres mis en oeuvre ces derniers mois ... :wink:

je suis également convaincue que ce que cet "effet SandBox" ne s'applique pas qu'aux nouveaux sites mais à tout les sites (avec une sensibilité inversement proportionnelle à l'age du site) ... :wink:
 
WRInaute impliqué
Pour en revenir à l'histoire des liens image:

blman a dit:
un backlink en text est pris beaucoup plus rapidement qu'un lien sur une image, d'ailleurs une page qui est lié par des liens textes est indexée beaucoup plus rapidement qu'une page liée par des images (ça j'en suis sûr à 95%, ça peut aller du simple au double)
Je viens de sortir un site (michenaud pour pas le nommer), tous les liens textes ont été suivi en premier.
Ici, par "pris en compte" tu entends seulement la vitesse de suivi du lien. Mais pour ce qui est du positionnement, impossible de dire. Hors, la sandbox est davantage un problème de positionnement que d'indexation. D'ailleurs, quel est exactement l'impact d'un lien image sur le positionnement ? Difficile à dire.

De plus, le fait de relier la "sandbox" à l'ancienneté des backlinks d'un site et pas à l'ancienneté du site lui-même me parait douteux...Comment explique-tu alors l'apparition soudaine et simultanée en première page/position sur plusieurs requêtes de certains sites ("sorties brusques de sandbox") ? C'est ce qui est arrivé pour mon site (et pour bcp d'autres) et pourtant je te garantis que je n'ai pas optimisé les différentes requêtes en même temps et que les différents backlinks n'ont pas été faits au même moment mais au contraire de manière régulière...Et parmi ces requêtes où j'ai subitement grimpé, il y en a qui concernent des pages pour lesquelles je n'ai aucun backlink externe...
 
WRInaute occasionnel
Je vais y allez de ma petite hypothese :?

Pour moi, le PR d'une page, ne sert plus à positionner une page mais à donner une note aux liens qui sont sur la page.
exemple :
Si un site "A" PR6 fait un lien à un site "B" de la maniere suivante <a href="site B">mot clé 1 - mot clé 2</a> alors le site "B" aura une note de fonction_note_google( pr6, age du lien ) pour les deux mots clés.

Pour en revenir à la sandbox, je pense que la fonction_note_google n'est pas la même en fonction de l'age du lien.
exemple :
Si age < 2 semaine alors fonction_note_google= 10% de la vrai note.
Si age < 1 mois alors fonction_note_google= 25% de la vrai note.
Si age < 3 mois alors fonction_note_google= 50% de la vrai note.
...

Je pense que tout les sites sont concernés mais que selon que la requete soit concurentielle ou pas, on s'en rend moins compte.

De plus la prime de fraicheur, pourrai faire accentué cette impression de disparition des sites quand elle disparait.
 
WRInaute impliqué
Il pourrait y avoir une autre théorie. En considérant que Google maintienne à jour en interne, et de manière constante un Page Rank, un jeune site se verrait attribuer un PR dès sa naissance. Ce PR évoluerait constamment, au fil des pages découvertes et des BL découverts et un certain seuil de PR et de BL dépassé associés à ka jeunesse du site, provoqueraient le freinage voire le demi-tour dans les classements.
 
WRInaute accro
Nivek, je suis d´accord avec toi. Le PR ne sert qu´a pondérer le poids des liens "sortants". il faut donc avoir du PR non plus pour soi-meme, mais pour les apges visées. Or..... on a aussi des liens internes......et donc les apges visées par les liens internes bénéficient aussi de ce systeme. ce qui expliquerait que les liens sur votre home par exemple pointant vers vos partie principales aient un plus grand poids permettant à vos pages de ces partie principales de bien se positionner sur les termes utiliser en BL interne.

Donc, il pourrait etre envisageable que les BL provenant de sites nouveaux (et là, on retombe sur l´iddé de l´ancienneté des BL plutot que l´ancienneté du site) ne soitent pas autant pris en compte que les BL provenant de sites anciens (non pas a cause de leur "age" mais plutot a cause du PR des pages en question (fgaible au début par théorie, et plus grand par la suite).

Ainsi, un site obtient 100 BL provenant de pages nouvelles. sans otpimiser le ssite, son positionnement risque de s´améliorer avec le temps tout simplement par l´augmentation du PR des pages faisant ces liens.

Ce qui pourrait donner l´"impression" de sandbox (et il y a peutetre comme le dit Cendrillon plusieurs critères de ce genre qui combiner enxemble donne les "effet sandbox").

Ca ressemble à du sandbox, ca sent le sandbox, ca a les effets du sandbox...mais ce n est pas du sandbox ??
 
Olivier Duffez (admin)
Membre du personnel
Je ne pense pas que ça soit l'explication Hervé car un site (ou une page) qui reçoit plusieurs liens à très fort PR se voit attribuer un bon PR, et pourtant il est victime de la sandbox.
Egalement, même des liens issus de pages à fort PR n'y fait rien.
 
WRInaute accro
Oui, c est vrai. c est pour ca que j ai ajouté qu´il y avait sans doute plusieurs criteres qui mènent à cet effet.

En fait le truc bizarre, c est de constater que cet effet sandbox ne touche pas tous les nouveaux sites et ne dure pas toujours aussi longtemps....
 
WRInaute impliqué
Cette histoire de prise en compte de l'âge des liens m'a toujours laissé perplexe...

Pourquoi ? Parce que la plupart des chercheurs qui bossent sur les moteurs de recherche cherchent en fait à faire l'inverse : donner plus de poids aux pages plus récentes... Plusieurs papiers sont sortis au cours des deux dernières années sur le sujet, et tous parlaient d'algos destinés à mieux suivre l'évolution du web, de manière à permettre aux nouvelles pages d'avoir un classement plus dignes de leur véritable statut : une page récente est vraisemblablement plus "à jour" qu'une page ancienne.

C'est ce que google a d'ailleurs fait depuis longtemps avec son système de prime de fraîcheur.

Certes, un site ancien (pas une page, un site) a plus de chances de ne pas être "spammy"... Quoique. Donc un filtre destiné à chasser de la tête des classements des pages de spam pourrait prendre en compte ce critère... parmi d'autres, à mon avis plus pertinents.

Je pense comme Cendrillon que ce que l'on appelle la sandbox n'est qu'une appellation qui recouvre des choses très différentes, l'effet combiné de l'algorithme de Google et de filtres divers...

Le problème notamment, c'est de ne pas confondre une véritable "pénalité" affectant un site remplissant les conditions pour être en tête des résultats, et le fait que des nouveaux sites manquant de backlinks et mal optimisés ne peuvent pas sortir en tête des résultats...

Florida et Allegra démontrent que l'algo de Google est à deux étages : un algo générique, et une série de filtres qui "toilettent" les pages de résultats en enlevant des sites qui remplissent certains critères. Mais ces critères sont véritablement subtils, et je trouve qu'il est imprudent de s'avancer en désignant telle ou telle cause pour expliquer la pénalité. Il n'y a pas un critère, mais des critères, et la résultante est donc complexe à analyser.
 
WRInaute impliqué
herveG a dit:
Oui, c est vrai. c est pour ca que j ai ajouté qu´il y avait sans doute plusieurs criteres qui mènent à cet effet.

En fait le truc bizarre, c est de constater que cet effet sandbox ne touche pas tous les nouveaux sites et ne dure pas toujours aussi longtemps....

Normal, si ton site est dans un prototype normal d'évolution il tombera pas dans la sandbox. Pour ce qui est de la durée de la sandbox, au plus tu t'écarteras du prototype au plus tu mettras de temps à revenir, sauf si GG te passe sur un prototype de classe supérieure ... C'est ca qui fait pour moi la durée de sandboxage d'un site.
 
WRInaute accro
Donc d'après ce que vous dites :
Si A est lié à B
- l'ancienneté de la page A entre en jeu
- les liens qui pointent vers A bénéficie de l'ancienneté de la page B
Ca nous fait 2 critères qui entre certainement en jeu dans le calcul du positionnement, d'après vos différentes expériences ?

Cette histoire de prise en compte de l'âge des liens m'a toujours laissé perplexe...
Pourquoi ? Parce que la plupart des chercheurs qui bossent sur les moteurs de recherche cherchent en fait à faire l'inverse : donner plus de poids aux pages plus récentes... Plusieurs papiers sont sortis au cours des deux dernières années sur le sujet, et tous parlaient d'algos destinés à mieux suivre l'évolution du web, de manière à permettre aux nouvelles pages d'avoir un classement plus dignes de leur véritable statut : une page récente est vraisemblablement plus "à jour" qu'une page ancienne.

Donc Google irait à l'inverse de ce que tu dis puisqu'il privilégie les pages et les liens anciens, même si il le compense avec la prime de fraicheur (qui soit n'existe pas pour les nouveaux sites, soit a très peu d'effet). La prime de fraicheur étant, par contre, très efficace pour les sites anciens
 
WRInaute accro
Je distinguerais donc 2 phénomènes à ne pas confondre:
- un effet "sandbox" qui pénalise les nouveaux sites qui ne bénéficie pas suffisament d'ancienneté (leur page et leur backlink) (qui au passage, à mon avis, est un problème technique de Google : je vois pas pourquoi un nouveau site serait pénalisé. Ca va à l'inverse de ce que nous a expliqué Cariboo)
- un autre filtre qui pénalise les sites qui ont trop de BL d'un coup considéré comme du spam (ce que décrit Rituel)
 
WRInaute impliqué
je suis d'accord avec Cariboo, la sandbox est en fait le résultat de croisements de plusieurs filtres et de l'algo. la sandbox peut s'appliquer même à un site ancien.

maintenant reste à savoir quels sont ces filtres ou ce croisement de filtres qui font démarrer la pénalisation :?

on pourrait essayer de raisonner à la place de google en se posant les questions suivantes :

que puis je faire pour limiter le spam sur mon moteur ?
quels seraient les critères pénalisants permettant d'identifier un spammeur ?


tout le monde émet une hypothèse et on gardera que les meilleures "solutions antispammeur".
 
WRInaute impliqué
Ce qu'il semble encore manquer à Google : de la progressivité dans l'application et la levée des pénalités
 
Olivier Duffez (admin)
Membre du personnel
une autre façon d'essayer de mieux comprendre : je cherche des exemples concrets de sites anciens (au moins 1 an par exemple) qui ont un pb "de sandbox"
 
WRInaute passionné
Salut Caro ;)

Ca me paraît bien compliqué de répondre à tes questions. Qu'est-ce qu'un spammeur ? Plus difficile : qu'est-ce qu'un spammeur selon Google ? Et aussi : Google peut-il priver de son index un site hyper-intéressant sous prétexte que son auteur "spamme" ?

Ensuite, sommes-nous certains que la lutte contre lesdits spammeurs soit le chantier prioritaire de Google ? Est-il sûr que l'effet sandbox soit un corollaire de la lutte contre le spam ?

Les réponses qui nous plaisent, je les connais déjà. Les réponses de Google, ça me paraît plus ardu à appréhender. 8)
 
WRInaute accro
Si j´étais google je me méfierai de :

- des nouveaux sites
- des deploiements de BDD à outrance
- des site qui obtiennent une ribambelle de BL en provenance d´un meme NDD et ayant le meme anchor text
 
WRInaute impliqué
herveG a dit:
Si j´étais google je me méfierai de :

- des nouveaux sites
- des deploiements de BDD à outrance
- des site qui obtiennent une ribambelle de BL en provenance d´un meme NDD et ayant le meme anchor text
OK
+ des cycles de liens en pages index, ou partenariats entre sites de thématiques différentes
 
WRInaute impliqué
si j'étais google pour arrêter les spammeurs je pourrais :

1) établir une courbe "naturelle" de développement des BL
reprise de l'hypothèse de Rituel

2) pénaliser les BL louches
farmlinks ou classe ip, anchor text idem sur nb BL du même site

3) appliquer un coefficient entre l'optimisation inpage et offpage
en essayant d'être claire, si le contenu de ma page obtient la note optimisation 8/10 pour le mot "pomme" mais que je n'ai que 2 petits BL avec pomme alors je suis suroptimisé inpage.
il me faudra obtenir de meilleurs BL qui vont confirmer que ma page est vraiment pertinante pour le mot pomme


4) controler l'accroissement des pages des sites
bases de données

rien qu'avec ces 5 points on pourrait déjà expliquer pas mal de mise en sandbox de sites :wink:
 
WRInaute accro
D'accord, là ok, on parle de spam donc ça me parais logique que Google ait mis en place des filtres. Rien à voir avec le fait que le site soit nouveau ou ancien.
 
WRInaute impliqué
mais blman, la sandbox n'a pas l'air de s'appliquer qu'aux sites neufs, de nombreux cas ont été recensé dans ce forum d'ailleurs.
les sites récents sont plus touchés car ils sont plus aptes à provoquer ces filtres.
 
WRInaute passionné
Quand on parle d'effet sandbox pour les nouveaux sites, on a un point de départ : la prise en compte des nouveaux sites (facile) par Google. Mais après, je ne suis pas certain que nous ayons grand-chose à gagner à désigner par ce terme tous les déclassements, temporaires ou non.
 
WRInaute accro
Ok, je commence à mieux comprendre :
- 3 backlinks pour un nouveau site qui n'en aurait pas représente une augmentation de 300%
- 3 nouveaux backlinks pour un site qui en aurait déjà une centaine représente une toute petite augmentation donc ne permet pas de l'entrer en sandbox.

Savez-vous si ces backlinks sont uniquement les backlinks externes ou tous les backlinks (internes et externes) ?
 
WRInaute accro
Vous dites que le sandbox pourrait être une tentative de réponse aux spammeurs et que donc le sandbox serait un moyen d'augmenter la pertinence des résultats. Peut-être, mais pas sûr.

Scénario typique: dès la mise en ligne, un de mes nouveaux sites gagne chaque jour quelques places sur les requêtes qui m'intéressent (pas nécessairement très concurrentielles). La progression est constante. En plusieurs semaines, on passe de la 80ème place à la 20ème, puis tout à coup le site perd 200 places sur toutes les requêtes suivies. Il reste aux environs de la 200ème place pendant un certain temps, puis tout aussi brutalement et sans raison apparente, il vient à la 16ème place pour reprendre sa progression continue pendant quelques temps jusqu'à ce qu'il soit en 1ère place où il est maintenant depuis plusieurs semaines.

Est-ce cela le sandbox ? Si oui, la motivation pour Google pourrait être tout autre que ce qu'on suggère d'habitude. Exclure chaque nouveau site pour une période limitée des premières pages des résultats n'est pas perçu par les utilisateurs de Google comme une perte de pertinence, puisque les autres sites sur la même requête sont "bien" classés et que personne ne demande à Google d'être parfait. Par contre, un problème réel est créé pour le propriétaire du site en question. Soit il prend son mal en patience, soit il veut absolument sortir dans les résultats au plus vite et il compense l'effet sandbox par l'achat d'AdWords. Moralité: le sandbox ne nuit pas à la pertinence apparente des résultats et rapporte des revenus publicitaires à Google. La motivation de Google pourrait être purement "marketing".

J'exagère ?

Jean-Luc
 
WRInaute accro
Je pense que oui :
- les ingénieurs de Google font leur boulot : programmer le meilleur moteur de recherche du monde.
- les resp. marketing de Google font leur boulot : gagner du pognon avec adwords.
Pour moi, ce lien entre adwords et le positionnement dans Google ne peut pas exister. Ce n'est pas un choix qui s'avère interressant à long terme. Il ne servirait qu'à discréditer la réputation de Google auprès de ses utilisateurs

MAIS bon, ça reste une solution possible, pourquoi pas...
 
Discussions similaires
Haut