Sanbox et une autre piste.

  • Auteur de la discussion Auteur de la discussion V
  • Date de début Date de début
WRInaute occasionnel
Avant que l'on se serve du terme sandbox j'ai dejà presenti quel interet pouvait representé la chose face à des sites qui spams les forum (et qui le font 10000 fois, note: j'observe leur traffic parfois)
Donc le fait de revenir ici apres plusieurs mois et de voir ce concept developpé ne m'etonne qu'a moitié.

Malgré tout, en lisant quelques messages par ci par la, je vois que certains d'entres vous defendent l'idée que google doit ameliorer sont algorithme afin de rester competitif dans ses reponses et ceci afin de rester competitif dans ses reponses par raport à des gens qui abusent...

Ne pensez vous pas que le meilleur moyen pour arriver à un tel resultat serait en quelque sorte d'aleatoiriser partiellement les reponses de google.
En effet un personne qui va s'amuser à regarder l'evolution de son traffic et de la position de ses pages au jour le jour, cherchera inevitablement à faire le lien entre cet accident et cause attribuable, puisse que celui ci cherche à trouver le truc qui ruine son traffic, parce qu'il optimise son traffic SE
- soit par rapport à lui meme (quel est ma faute)
- soit par rapport à google (qu'est ce que fait google)

Pour parer la suroptimisation ne serait il pas une bonne idée de rendre le referencement moyen en terme de resultat, mais d'un comportement aleatoire (au pif, soit tres bon, soit tres mauvais, soit intermediaire) ?

Enfin je ne sais pas si vous saississez l'idée que je developpe, mais ca me semblerait en tout cas etre une bonne idée pour eviter le surreferencement et ca me permettrait d'expliquer le comportement parfois erratique de google avec certaines de mes pages (et sans intervention tricheuse ou meme optimisatrice de ma part)

Voila pourquoi je me demandais si en plus de la sandbox, on ne pourrais pas superposé à cet effet qui me semble bien effectif à moi aussi, un autre qui est plus aleatoire ?

On pourrait imaginer une solution aleatoiriser en fonction du page rank effectif:
gros site gros, page rank: resultats peu aleatoire
petit site, petit page rank: triche d'autant plus facile et plus tentante: resultat aleatoirisé.
but: empecher une attribution de la cause de ce qui marche en referencement donc diminuer le niveau de competition.
 
WRInaute accro
Une réponse au pif...
ça c'est du moteur !!!
tu écris "immobilier" et google répond "armoire"

google n'est pas si erratique que ça si ton site est bien fait...
 
WRInaute occasionnel
je vois plutot un
- aujourd'hui google crawl ton site et decide d'etre gentil
- aujourd'hui google crawl ton site et decide d'etre moyen
- aujourd'hui google est une peau de vache.

tout celà en fonction de criteres qui peuvent (une theorie) etre:
- ton pr (j'ai developpé plus haut)
- l'age de la page (je repompe la theorie du webmaster sur la sand box)
- ton site (optiomisation ou non ?)
- le sujet (c'ets plus interessant de proceder de la sorte sur les sujets spammés comme les jeux d'argent plutot que sur la programmation en cobol.)

etc ... (?)
 
WRInaute accro
Tu vas voir comment google va rester compétitif !!!
et il ne va pas nous demander notre avis.
A nous de nous adapter pas l'inverse...
 
WRInaute occasionnel
je crois que google fait dejà ca.
Sinon je crois que j'en ai fini de te repondre.
 
WRInaute accro
ne te faches pas,
je voulais simplement te dire qu'il y a la réalité et le meilleur des mondes. On peut aujourd'hui faire des sites sans tenir compte du passage de Google, sans se soucier des métas et du référencement mais cela veut dire des visiteurs en moins...
Vois le comme un jeu, comme un challenge, l'algoryhtme de Google personne ne le connait ici.
Si tu penses qu'ils vont le changer parce que les webmasters râlent
même en pétition c'est loin d'être sûr ;)
 
WRInaute occasionnel
Thierry Bugs a dit:
Vois le comme un jeu, comme un challenge, l'algoryhtme de Google personne ne le connait ici.
Si tu penses qu'ils vont le changer parce que les webmasters râlent
même en pétition c'est loin d'être sûr ;)

Je n'ai jamais dit ca.
Et je ne dis naturellement pas qu'il faut arreter une quelconque forme de referencement ou d'optimisation.

Pas contre je pense que quoi qu'il advienne et que j'ai raison ou tort. Le caractere changeant de google fait qu'il arrive parfois qu'on se prenne la tete pour rien ou pour un truc qui rentrera dans l'ordre tout seul

En revanche (cette fois ci, dans le cas ou j'ai raison) ca necessite peut etre d'avoir le background de plusieurs sites pour voir ce qui tient du coté aleatoire pour un site et ce qui tient d'une regle generale.
Je ne sais pas comment google fait mais pour reussir à determiner ce que je raconte mais ca signifirait que deux sites, portant sur le meme sujet, d'un page rank quasi identique, devraient connaitre des variations relatives independemment d'un quelconque travail du webmaster et des variations differentes, mais je pense qu'on doit rester dans une moyenne à terme.

Si on ajoute à celà que le duplicate content a pour effet de virer une page, celà rajoute encore plus à la complexité de se faire une idée claire pour savoir si j'aurais raison ou pas.
Je ne peux donc ici qu'exposer qu' une theorie de ce qui pourrait etre valable (pas de moyen de determination sur)
C'est à prendre comme tel et c'est en aucun cas un incitation à dire que le referencement ne sert à rien.
Mais, personnellement ca m'incite à peut etre prendre du recul par rapport à ce que je constate sur un site.
Google est le moyen de promotion mais ce n'est pas l'objet en soit de la promotion.
 
WRInaute accro
je ne comprend pas bien ce que tu as voulu dire ... mais cette histoire me fais penser à l'époque des décodeurs pirate canal+ ...
en effet canal+ a changer au départ 3 ou 4 fois de principe de codage en laissant à chaque suffisament de temps aux pirates de développer/modifier leurs décodeurs et d'en profiter qq mois ... au bois de qq changement les débutants ayant souvent tout à refaire, ont abandonné et ont fini par s'abonner ... :wink:

pourquoi Google, ne ferait il pas de même en essayant de décourager les appentis optimiseurs en herbe ... vous imaginez des dizaines (voire des centaines) d'heures de suroptimisation à la poubelle à chaque changement de reglage des filtres ? :lol:
de quoi décourager tous les apprentis webgoldenboy du dimanche pensant devenir riche facilement en spamant pour des sonneries, du viagra, de l'immobilier ou je ne sais quoi d'autre ...
 
WRInaute occasionnel
ben une x-ieme explication (autre presentation, meme effet)

bon voici une courbe gaussienne representant le normal et la pathologique
chez l'homme (mais toute autre courbe gaussienne ira bien)
-http://perso.wanadoo.fr/ais-jpp/images/courbe.jpg
Maintenant des gens qui me connaissent me diront que je suis plus ou moins fou, mais grosso modo et si on fait la moyenne des gens on aura un comportement moyen qui me donnera une idée pour savoir si je suis fou ou non (par rapport au valeur de la société)
c'est basé sur des données statistique.

Un algo qui va etre reproductible va en fonction de critere definit par google te placer toi et ton site toujours au meme endroit de la gaussienne.
mais si je demande a des gens de me placer sur cette gaussienne j'aleatoirise le resultat mais au fond, c'ets la moyenne du tout qui me place sur la coube.

(quoi qu'on pourrait plutot imaginer une khi2 puisse que avoir un bon page doit etre un evenement rare.
-http://www.er.uqam.ca/nobel/r30574/PSY1300/C9F1.gif)


Bien toujours est il que le concept est de rendre le resultat aleatoire, mais au total moyen.
Par rapport à mon analogie c'est comme si j'essayais de comprendre le comportement d'une personne qui me place à deux endroit different de la gaussienne alors que dans la realité on a changé de personne mais que je ne m'en suis pas rendu compte.
le truc c'est de garder un comportement moyen mais un comportement partiellement aleatoire.
(note: notion de stat: -http://www.bibmath.net/dico/index.php3?action=affiche&quoi=./l/lgn.html )
 
Nouveau WRInaute
Bonjour,

Je trouve la proposition d'analyse de V originale et à mon avis elle semble bien coller à l'air du temps aux US. Dans tous les fils que je lis depuis une semaine je n'ai jamais lu/vu quelqu'un essayer de prendre du recul pour analyser ce que l'on a tous constaté.
Citation
"../.. en me placant du point de vue du consommateur internaute basique, il me semble que tous ces changements apportés dans les référencements, par exemple déclassement, disparitions suivies de reapparition, toutes ses modifications imprévisibles créent une certaine dynamique dans les recherches, et dans un sens s'inscrit dans une sorte de logique anti-monopole. Je m'explique.
En modifiant de manière imprévisible l'ordre des reférencements, ainsi est remis en cause la predominence d'un site sur les autres sites donnant ainsi leur chance aux nouveaux venus sur le web. Ne reviendront et ne resteront que les sites valables, stables et cependant dynamiques car pouvant s'adapter a ces fluctuations inattendues. C'est innovant et comme un coup de jeune dans les pages web ! C'est donc a mon sens, positif quelque part.
Je ne pense pas me tromper car c'est l'esprit qui règne ici, aux USA : par tous les moyens on donne sa chance aux petits de faire leur place en se montrant dynamique et innovant et cela dans tous les secteurs...."

Cette citation n'est pas d'un grand gourou de Google mais dune française de ma famille actuellement en Californie à qui j'ai fait part du remue ménage créé par la dernière GG dance...
 
WRInaute occasionnel
Cendrillon a dit:
pourquoi Google, ne ferait il pas de même en essayant de décourager les appentis optimiseurs en herbe ... vous imaginez des dizaines (voire des centaines) d'heures de suroptimisation à la poubelle à chaque changement de reglage des filtres ? :lol:
de quoi décourager tous les apprentis webgoldenboy du dimanche pensant devenir riche facilement en spamant pour des sonneries, du viagra, de l'immobilier ou je ne sais quoi d'autre ...

C'est déjà à peu près ce qu'il se passe non : moindre importance des balises hx, impossibilité de placer des sites nouveaux, pénalités contre la suroptimisation, changements importants et récurents dans les résultats des requètes... ?

Même si le fond reste sensiblement le même Google évolue tout de même assez souvent me semble t-il. Bien sur il ne peut pas changer la totalité de son algorythme car on ne change pas quelque chose qui fonctionne et de plus ca enlèverait toute crédibilité si les réultats des requètes changeait du tout au tout à intervalles réguliers.

Pour moi google évolue autant qu'il le peut tout en étant contraint de garder sa pertinence et une certaine crédibilité.

Pour décourager les apprentis webgoldenboys il ferait mieux de s'attaquer une bonne fois pour toutes aux techniques qu'il condamne lui même : cloaking, redirections sauvages, mots clés cachés etc... Car pour l'instant ils sont pas trop inquiétés ceux là alors qui faussent le plus les résultats.
 
Discussions similaires
A
Réponses
3
Affichages
3K
Anonymous
A
Haut