Google et son futur moteur intelligent (Sémantique)

WRInaute passionné
Google devrait prochainement mettre à jour son moteur de recherche afin de rendre les résultats de ce dernier plus pertinents grâce au web sémantique ... la firme de Mountain View est en train de procéder aux « plus gros changements de l'histoire de la société pouvant affecter des millions de sites » ....

La suite sur Clubic
 
WRInaute passionné
Google finira bien un jour à être autonome, il n'aura plus besoin de la plupart des sites internet. :|
 
WRInaute accro
sans compter sa politique de développement de comparateurs directs / indirects dans les secteurs les plus porteurs du web: voayges, vêtements, .. à qui le tour?
 
WRInaute discret
Il faudrait dire a nos visiteurs d'utiliser d'autres moteurs de recherche dès maintenant. Parce qu'au final google nous enterrera tous.
 
WRInaute occasionnel
Selon BFM business, la recherche sémantique concerne 20% des sites, donc chamboulement énorme en perpective 8O
 
WRInaute accro
philyd a dit:
Selon BFM business, la recherche sémantique concerne 20% des sites, donc chamboulement énorme en perpective 8O
encore une bourde de journalistes. Google aurait en fait parlé de 10% à 20ù des requêtes.. pas des sites !
 
WRInaute passionné
Il y aura un massacre pour les sites qui travaillent le référencement plutôt que le contenu propre.. ou que je dis n'importe quoi !
 
WRInaute accro
sovite a dit:
Il faudrait dire a nos visiteurs d'utiliser d'autres moteurs de recherche dès maintenant. Parce qu'au final google nous enterrera tous.
nervusdm a dit:
Notez que la finalité est moins de visites pour les sites internet.
Il m'a fait sourire cet article ... genre google demain c'est LE WEB (c'est vrai quoi ! pourquoi s’embarrasser des éditeurs qui fournissent l'information).
Depuis le temps que je pense que GG est un parasite qui exploite notre travail en redistribuant des roupies via adsense ...
Bref exploitons au max adsense et mettons nous en relation avec ce qui peut contrecarrer GG pour équilibrer la balance.

"Google est ton pire ennemi a la fin" vive la mondialisation.
 
WRInaute discret
Je pense que la dérive est orchéstrée par toute les régies publicitaires, que se soit adsense ou une autre plateforme francaise qui redistribue des roupies.

Si on était bien payé, on pourrait monter de plus grosses structures, développer de nouveaux sites qui seraient bien financés par la pub au point de pouvoir en vivre et embaucher des salariés. Il y a 5 ans tout était possible. Sauf que les régies pubs n'ont pas voulus mieux payer les affiliés alors que le nombre d'internautes n'ont fait qu'augmenter de jour en jour. On a augmenté nos volumes d'affichage, de clic, de ventes, de leads mais nos revenus n'ont que baissés.

Le fait que les régies publicitaires gardent 95% du gateau font que ce sont les seuls à générer des chiffres d'affaires monstrueux. En attendant les éditeurs de sites meurent un par un faute de rentabilisation. Pas parce que nos sites seraient de la merde, simplement parce que les rémunérations sont trop faibles pour en vivre, payer des charges, investir du temps dans de nouveaux projets...

Le serpent va finir par se mordre la queue. Si il n'y a plus d'editeurs, je ne vois pas comment les régies pourront afficher des bannières. Et meme si google proposait que des sites à eux je pense pas que les internautes soient 100% satisfaits du contenu.
Il faut que les régies redistribuent plus d'argent aux éditeurs sinon dans tous les cas eux aussi mettront la clef sous la porte, sauf google bien sur.
 
WRInaute discret
On est plutot sur ce genre de schémas :

dettepublique-google.png


Dans les deux cas elvis c'est pas tiptop pour les éditeurs
 
WRInaute passionné
Google veut garder les internautes pour lui et tout le monde est content : Article de Challenges.
Faudrait rappeler qu'un site sans internautes est un site mort :|
 
WRInaute occasionnel
Bonjour,
La recherche sémantique : encore faudra-t-il que l'internaute Lamda sache écrire une requête sémantiquement correcte !
Pour le moment il semble que c'est moins de 20 %
alors il y a de la marge :D
Alain
 
WRInaute passionné
alain78france a dit:
.... c'est moins de 20 %
alors il y a de la marge :D ....

10, 15 ou 20% des requêtes les plus demandées, c'est énorme. Cela peut représenter plus de 50% de visites en moins pour certains sites.
Prends par exemple un site qui regroupe les dates des spectacles et autres évènements, dans quelques années, il aura les pieds dans l'eau.
Pour un site sur les biographies, j'imagine que le gros des visiteurs recherche les dates de naissance ou de mort. Google sera encore là pour donner l'info avant.

Et le pire, c'est que cette capacité à répondre aux questions, ce sera grâce aux webmasters qui auront implantés, sur leurs sites, les balises sémantiques.
 
WRInaute passionné
Il ne faut pas paniquer à mon avis. Il n'y a qu'à voir le procès contre Siri pour être quasiment sur que l'intelligence de ces systèmes informatisés est limitée. Cette évolution ne concerne que des requêtes simples du style "quel est le préfixe téléphonique de la Belgique". Ca va toucher des sites sans valeur ajoutée qui ne font que récupérer un listing de données publiques invariables.
 
WRInaute passionné
Je trouve ça plutôt bien comme avancée, plus la peine de cliquer pour obtenir l'information, elle est directement sur Google qui récupère tout sans rien reverser à personne. C'est très malin.
 
WRInaute passionné
Je ne panique pas :D car je ne serais pas vraiment touché par cette recherche mais je trouve qu'il y a un déséquilibre qui s'agrandit entre ce que les webmasters apportent à Google et ce que Google redonne aux webmasters.
 
WRInaute passionné
ca va toucher les sites sans valeur ajoutée. Ceux qui vont contenir par exemple que la date de naissance de personnalités. Pour ceux qui auront cette information + la biographie + des photos + des vidéos + des liens vers d'autres personnalités avec qui elle a travaillé + ... ne risquent pas de disparaître.
 
WRInaute impliqué
Mais aussi les sites qui répondent aux questions :

Pourquoi choisir tels produits ?
Combien coute une montre de marque xxx

Et de nouvelles pubs :
Ou acheter un blouson de ski ?
 
WRInaute impliqué
Le plus drole dans la question que tu pose Sovite, avec ton image c'est le "Source" de Google.
Même sur leur source ils donnent pas le lien immédiatement.
 
WRInaute passionné
Pour moi, ça va touché en grande majorité Wikipedia. Google ne pourra pas répondre à des questions précises ou s'actualisant en permanence, ni reproduire une conversation entre membre etc.

Par contre, la majorité des textes présents sur Wikipedia sont des infos encyclopédique qui ne bougent pas et qui peuvent donc être mise facilement directement sur le moteur pour des questions génériques.

Après, arrêtons de penser que GG va remplacer nos sites, il n'a, à mes yeux, jamais été doué pour faire des sites agréables pour le grand public. Il sait faire des choses pratiques par leur simplicité et leur efficacité. Quand je pense aux questions que je me pose où une réponse rapide peut être apporté, c'est quand je finis par aller sur Wikipedia et là, GG sera surement celui qui y repondra avant ... Mais sinon, même pour les comparateurs de prix, c'est vraiment pas son truc pour le moment.
 
WRInaute impliqué
Pour ma part, je trouve que c'est une excellente chose ... cela va forcer le travail du contenu plutôt que des Bl !!! Vive le contenu :mrgreen: :mrgreen: :mrgreen: :mrgreen:

Qu'il récupère les séances ciné, la météo, l'heure ou je ne sais quoi ne me déconcerte en rien. Google est une entreprise, les webmaster s'en servent pour faire de l'argent, c'est normal que google veuille faire certaines opérations faciles à mettre en place. Alors oui cela peut pénaliser certains ... mais bon, google croit ... à vous de croître également.

On va pas lui faire un procès parce qu'il veut ajouter du contenu ou des services ... à nous d'être plus innovants :wink: :wink: :wink:

Bonne chance :mrgreen: :mrgreen:
 
WRInaute accro
cheloniologue a dit:
Pour ma part, je trouve que c'est une excellente chose ... cela va forcer le travail du contenu plutôt que des Bl !!! Vive le contenu
ça va pas faire évoluer les sites de contenus. Les sites éditoriaux sont les plus lourds à gérer niveau contenu bref faire "plus" ou "mieux" est souvent utopique. Mais quand leurs données seront devenues publiques via google ça va juste en limiter l'usage donc il crèveront.

Soyons logique on apprend tous a compter et calculer a la main mais dès qu'on peut user d'une calculatrice ou d'un PC on délaisse vite la feuille de papier. Bref, par analogie, qui va lire ton bon gros contenu pour trouver une date ou un détail quand google lui donnera en live ?

Au delà de tout cela c'est a une régression culturelle encore plus forte qu'on risque de se retrouver confronté car c'est en cherchant qu'on apprend toutes ces choses autour de notre question (qu'on apprend a comprendre un sujet plus global). Si on accède a une réponse brute simplifiée tout de suite, bonjour la culture ...

tonguide a dit:
Par contre, la majorité des textes présents sur Wikipedia sont des infos encyclopédique qui ne bougent pas et qui peuvent donc être mise facilement directement sur le moteur pour des questions génériques.
@cheloniologue -> tu est dans le même genre de contexte que wiki si je me souviens bien avec ton site. Moi encore plus car contrairement a toi je gère mes sujets avec de très grosses basses de données donc c'est plus structuré que ton contenu qui (de mémoire) est très "rédactionnel". Bref on est les premier touchés (je pense) par ce genre de dispositif.
Je doute fort que tu réinvente ton sujet sous une autre forme bref soit heureux de la nouveauté si tu veux mais a mon avis on sera dans la première charrette a dégager.

Si tu fait bien attention wiki est symptomatique de cette démarche. Les wikistes synthétisent l’information sur plusieurs sites pour la hiérarchiser et la présenter structurée (a leur sauce) ce qui est déjà passablement énervant car il ne t’apportent rien de plus après que tu te soit tapé le travail de fond pour ton propre site. Si GG adopte la même démarche mais avec ses moyens sachant qu'a la base concurrencer wiki sur leur sujet est souvent hard imagine deux minutes ce qui se passera pour ton contenu. Tu sera dans les oubliettes rapidement.

Après, mais c'est une autre histoire ça doit fairee 8 ans que je travaille a côté de google (c'est pas énorme mais c'est assez significatif pour se faire une idée) et chaque changement n'a été qu'un moins JAMAIS un plus pour moi. Pour tous les changements d'algo, apparition de nouveauté etc ça a été littéralement "Travailler plus et gagner moins". Je doute fortement que ça change.
 
WRInaute impliqué
zeb a dit:
Si tu fait bien attention wiki est symptomatique de cette démarche. Les wikistes synthétisent l’information sur plusieurs sites pour la hiérarchiser et la présenter structurée (a leur sauce) ce qui est déjà passablement énervant car il ne t’apportent rien de plus après que tu te soit tapé le travail de fond pour ton propre site. Si GG adopte la même démarche mais avec ses moyens sachant qu'a la base concurrencer wiki sur leur sujet est souvent hard imagine deux minutes ce qui se passera pour ton contenu. Tu sera dans les oubliettes rapidement.
Mais je le fais également ... comment crois tu qu'il y ait autant de contenu spécialisé sur ma plateforme ... je n'ai rien inventé, j'ai lu, j'ai retranscrit, j'ai absorbé et synthétisé parfois le contenu de certains scientifiques. Je peux pas repprocher à un autre de faire la même chose.

Google ne pourra pas absorber du contenu comme les sites informatifs comme le mien ... qui va le mettre à jour, qui va le gérer ... non mon site n'est pas statique ...plus depuis 8 mois grace à plusieurs membres de wri qui m'ont conseillé WP et il y a des modifications par des membres (à la wiki), il y a des commentaires ...etc etc nous ne sommes pas pret de mourrir par contre les services de cinéma, météo, conversion monnaie et autres, oui ils sont mal effectivement.

Peut être suis je très optimiste, je ne le pense pas, je pense que cette nouvelle évolution ne touchera pas les sites informatifs avec beaucoup de contenu. Cela mettra peut être en avant des articles de news sur certains sujets... possible mais cela forcera un webmaster à mettre régulièrement de la donnée complémentaire. Je crois pas en une telle chute, et pour tout te dire, je songe déjà à une nouvelle partie actuellement :mrgreen: :mrgreen: :mrgreen: :mrgreen:

Tu peux me donner l'url de ton site ?
 
WRInaute impliqué
Aujourd'hui sur une requête, GG sort quelque mots piqués dans une méta description ou ailleurs pour afficher les SERP.

C'est sûr que votre métier doit évoluer... Si l'analyse sémantique arrive à son but, en pouvant corréler et associer les textes pris dans les sites,
Google affichera une synthèse en réponse à la requête directement dans les SERP sans qu'il y ait besoin d'aller cliquer pour aller voir les sites. Il remplacera le surf de l'internaute pour lui afficher une synthèse.... beaucoup plus rapidement.

ca va commencer par des infos ponctuelles du genre prix ou heure du train.
pour aller certainement vers des choses plus subtiles et abstraites en pouvant afficher même des synthèses contradictoires si l'analyse sémantique du sujet le permet ...

La notion de requête évoluera certainement aussi.
 
WRInaute accro
cheloniologue a dit:
par contre les services de cinéma, météo, conversion monnaie et autres, oui ils sont mal effectivement.
Je me trompe peut être, mais je ne pense pas que ce genre de site soit la cible de ce genre de changement car ça existe déjà, et franchement c'est pas compliqué a faire effectivement (même pour moi). Bref je pense qu'au contraire ton contenu (comme d'autre) est dans le collimateur.

pense d'un côté aux évolutions (lentes mais réels) de l'IA.
Ensuite ajoute a cela que :
* GG possédé une des plus grosses base documentaire multilingue via GG book et nos sites.
* GG possède un des plus gros moteurs d'analyse linguistique avec son système de traduction.
* GG travaille depuis des années sur l'analyse textuelle pour en tirer maintes informations (langue, style, ciblage du contenu par thème etc ...)

et j'en passe ...

la réunion de ces technologies donne quoi a ton avis ? Je pense personnellement qu'a terme une analyse facile d'une requête en langage naturel permettra de déterminer qui demande quoi sur quel domaine avec assez de pertinence pour fournir une réponse structuré et vérifiée sur la base du plus gros fond documentaire sans avoir a consulter qui que ce soit sur la toile.
Si tu ajoute a cela que GG nous montre clairement le chemin en demandant quasi ouvertement que nos données soit structurées sous certains formats afin de "normaliser" et faciliter, non pas l'indexation, mais plus vraisemblablement la normalité des contenus, il me semble évident que toutes les étapes pour se passer de notre prose sont en place.

Cela fait des années que GG a l'oreille (cette petite page blanche ou tu tape ta demande), il a des yeux avec GG image et il montre ce qu'il voie, il a aussi une formidable mémoire avec les datacenters surchargés qui stockent tout.

il ne lui manque que la parole.

Même sur ton site il faudra pas dix ans pour croiser ton contenu par exemple :
"Définition du mot mammifère" qui sémantiquement est parfaitement identifiée dans une balise de titrage avec la réponse qui est dans le paragraphe en dessous. Stocké de façon dissocié en regard de dizaines d'autres définitions du même genre, combien de temps lui faudra t il pour formuler sa propre prose en se passant de tes services ?

Je pense que tu n'est pas conscient des moyens don dispose cette firme pour composer des résultats qui semblait de la science fiction il y a juste 15/20 ans. Je pense aussi que s'ils ne passent pas par là c'est qu'ils ont décidé de ne pas exploiter tout leur potentiel. Et a ce sujet je doute fort qu'une des plus grosses entreprises du monde soit stupide au point de se priver de la possibilité de faire du fric "facile", ceci même si elle doit enterrer ton petit commerce pour cela.

Mais allons plus loin et plus simplement sans avoir a échafauder de grandes théories sur l'avenir en se posant juste une question :

A quoi sert le web ? Si on enlève la distraction il reste l'information.

De nos jours il y a de multiples sources d'information comme ton site mais deux grandes tendances se dessinent clairement.

* La recherche via les humains (le contenu encyclopédique pointé du doigts par tonguide genre wiki)
* La recherche via moteur pour trouver l'information qui donne accès a un contenu agrégé électroniquement.

seul la seconde a de l'avenir car elle n'est pas dépendante d'un facteur humain et aussi mais surtout car elle est la seule technique qui potentiellement peut fagociter l'autre sans mettre plus de moyen humains (celui qui reviens cher).
Bref comment se profile l'avenir ? des tonnes de bénévoles ou pro réécrivent la totalité des choses en permanence pour livrer le top du top ou des machine synthétisent tout ce qu'on a pour fournir le contenu le plus probable ?

Quand je regarde sur 20 ans l'évolution de l'OCR (google arrive a te sortir du texte correct a partir de source en vieux Français c'est impressionnant), de la reconnaissance de parole, de la synthèse vocale et de biens d'autres choses encore il est évident que Google n'est pas en train de mamailler pour te sortir l'heure et l'adresse du prochain film près de chez toi, ou alors c'est vraiment considérer google comme un simple crétin.
 
WRInaute impliqué
Bon en tout cas , c'est vrai que c'est pas pour demain.
Car si on veut se faire un bonne idée de la capacité de GG à explorer (et comprendre) du texte , voyez la traduction !! :mrgreen:
c'est un bon témoin de l'état de l'art en matière de sémantique !!
 
WRInaute accro
Pas tant que ça si tu part d'un texte au présent correctement écrit (ce qui est difficile a trouver) tu as de très bon résultats (beaucoup de traductions pourries proviennent d'un original mal construit a la base) ...
Maintenant si tu ajoute un moteur de fabrication de phrase qui lui s'appuie sur du contenu normalisé (facile a produire) tu obtiens facilement du texte de qualité acceptable qui répond a tes questions.
 
WRInaute impliqué
Peut-être ...
on peut donc inventer un nouveau métier : mise en forme de texte pour une bonne traduction automatique !!! :mrgreen:
 
Nouveau WRInaute
En effet on ne parle que de 10 et 20% des requêtes (au passage entre 10 et 20 il y a 10%, et 10% des requêtes ça représente combien ? ... hum).

On pourrait se poser la question, l'information est bien fournie par les éditeurs de sites web et non par Google directement, donc de quel droit pourrait-il donner une réponse UNIQUE, d'une part (pour le droit au discernement et à différentes sources) et d'autre part à une réponse sans citer toutes les sources à partir desquelles celle-ci a pu remonter ?

Ça fait tout de même peur pour de nombreux sites qui fournissent du contenu de qualité traitant de divers sujet à qui on couperait le chemin d'accès car juger inutile, inutile de lire tout un contenu apparenté à un sujet et plus particulièrement à une question, à laquelle Google a déjà répondu en 3 mots (ex: qui a gagné l'oscar du meilleur acteur 2012 ? on a la réponse, terminé... pourquoi ne serait-on pas intéressé par un article complet donnant les pours et les contres de cette victoire et les raisons etc...).
 
WRInaute accro
pas mal le cochon avec du rouge à lèvres.

Mais .. euh... :roll:
indirectement ça ne rappellerait l'avatar d'un membre bien connu simiesque du forum? :mrgreen:
 
WRInaute discret
Google a encore besoin des webmasters...quelques temps:

Un peu d'histoire!

1) On a fait pendant 10 ans la montée en puissance d'Adsense, (avec le devoir à la "Fight club: règle n°1°Ne jamais parler des résultats Google-Adsense: C'est pas énoooOoorme ça?). On vous met la GGDance, vous allez vous éclater 8O

2) vous gagnez de l'argent avec notre PR à nous. Le PR c'est TERMINE. :cry:

3)Panda... et un resserrement des rangs au niveau des préconisations de Mr Page, qualité, linking, professionnalisme...pénalités, flou artistique et là:
ils balancent dans la foulée GG+ ( vous avez remarqués que ce fut en simultané) et nous webmasters servons de prescripteurs en appui démarrage
C'est de la manip, mais c'est de bonne guerre car ils savent que ce n'est pas les grosses enseignes qui vont passer du temps dessus et encore moins les Facebookés. Il n' y a que nous...déjà pour insérer le code G+1. :mrgreen:

4)Ils créent la MFA sur les SERP. Les premières pages, les bonnes, sont noyés, pendant que Mr page dit: ne vous occupez pas de la SEO, occupez vous de vos sites-vos oignons- et comment garder le visiteur. Trop fort. :?

5)Maintenant, ils vont créer le Duplicate Content universel. :wink:

Faites ce que je dis pas ce que fais. Drôle d'ami que ce Google. :D
 
WRInaute passionné
Vous connaissez certainement la loi de Pareto ... qui s'applique également au web. 20% des requêtes génèrent 80% des visites. Cette tendance s'applique certainement à beaucoup de sites. Alors quand Google annonce vouloir apporter une réponse directe à 10 ou 20% des requêtes les plus demandées afin de garder l'internaute .... Cela va faire mal à beaucoup de sites.
 
WRInaute accro
Je pense que l'annonce de Google indiquant qu'il cherche à "rééquilibrer" entre les très bons contenus sans SEO et les sites "overly optimized" est beaucoup plus inquiétante.
 
Olivier Duffez (admin)
Membre du personnel
kmenslow a dit:
Vous connaissez certainement la loi de Pareto ... qui s'applique également au web. 20% des requêtes génèrent 80% des visites.
justement non, elle ne s'applique pas si bien que ça au web. Le principe de la longue traine contredit ces chiffres
 
WRInaute occasionnel
Marie-Aude a dit:
Je pense que l'annonce de Google indiquant qu'il cherche à "rééquilibrer" entre les très bons contenus sans SEO et les sites "overly optimized" est beaucoup plus inquiétante.
Bien vu, j'ai la même opinion !
Alain
 
WRInaute passionné
Sur le fond c'est louable ce rééquilibrage indiqué par Marie-Aude mais je ne vois pas comment Google va décréter qu'un contenu est de qualité sans un minimum de signal SEO/social pour l'attester.
 
WRInaute passionné
Marie-Aude a dit:
Je pense que l'annonce de Google indiquant qu'il cherche à "rééquilibrer" entre les très bons contenus sans SEO et les sites "overly optimized" est beaucoup plus inquiétante.

Cela confirme un peu mes dires sur la création de contenu non optimisé ICI
 
WRInaute accro
WebRankInfo a dit:
kmenslow a dit:
Vous connaissez certainement la loi de Pareto ... qui s'applique également au web. 20% des requêtes génèrent 80% des visites.
justement non, elle ne s'applique pas si bien que ça au web. Le principe de la longue traine contredit ces chiffres
cette remarque m'étonne d'uns ceintifique tel que toi!

La loi de Paretto est bien une loi et non un axiome.... Si le web avait contredit cette loi on en aurait entendu parler.

La Long Tail quand à elle est un "mythe" vivace (un méme?) mais qui n'a jamais été prouvé scientifiquement (il y a eu des travaux universitaires, de statisticiens notamment, qui se sont penchés dessus, justement à cause de son potentiel révolutionnaire -vis-à-vis de Paretto entre autres- et qui n'ont jamais pu la démontrer. A l'inverse ils ont dit qu'elle était statistiquement pas exacte" si je me rappelle bien.

Tout ça appelle des développements très lon,g et HS, donc j'arrête là, mais je ne pouvais pas laisser passer ça.
 
WRInaute discret
kmenslow a dit:
Marie-Aude a dit:
Je pense que l'annonce de Google indiquant qu'il cherche à "rééquilibrer" entre les très bons contenus sans SEO et les sites "overly optimized" est beaucoup plus inquiétante.

Cela confirme un peu mes dires sur la création de contenu non optimisé

Et bien qu'est ce qui manque à Google pour avoir un 100% ce sont les sites affluents: les liens. D'où une invitation avec Panda à camoufler les liens dans les textes et à ne plus faire de SEO. Ca sent pas très bon. A suivre de très très près... :mrgreen:
 
Olivier Duffez (admin)
Membre du personnel
JanoLapin a dit:
WebRankInfo a dit:
kmenslow a dit:
Vous connaissez certainement la loi de Pareto ... qui s'applique également au web. 20% des requêtes génèrent 80% des visites.
justement non, elle ne s'applique pas si bien que ça au web. Le principe de la longue traine contredit ces chiffres
cette remarque m'étonne d'uns ceintifique tel que toi!

La loi de Paretto est bien une loi et non un axiome.... Si le web avait contredit cette loi on en aurait entendu parler.

La Long Tail quand à elle est un "mythe" vivace (un méme?) mais qui n'a jamais été prouvé scientifiquement (il y a eu des travaux universitaires, de statisticiens notamment, qui se sont penchés dessus, justement à cause de son potentiel révolutionnaire -vis-à-vis de Paretto entre autres- et qui n'ont jamais pu la démontrer. A l'inverse ils ont dit qu'elle était statistiquement pas exacte" si je me rappelle bien.

Tout ça appelle des développements très lon,g et HS, donc j'arrête là, mais je ne pouvais pas laisser passer ça.
je réagissais à la phrase "20% des requêtes génèrent 80% des visites" qui est fausse pour tous les sites que je gère je pense
 
WRInaute accro
Bonjour

Tout dépend ce que l'on entend par "20% des requêtes" : est-ce que l'on parle de requêtes strictes, ou de requêtes et leurs variantes proches ?

Par exemple : "forum referencement", "forum sur le referencement", "forum référencement", etc. Doivent-elles être considérées comme autant de requêtes différentes, ou pas ?

De plus en plus je réalise mes mesures par landing page, et non par requête, car je me suis aperçu que très souvent, une même page optimisée pour une requête donnée est le point d'entrée sur un nombre considérable de requêtes très proches, mais qui au final signifient strictement la même chose ;) (même si je suis de très près mon positionnement sur quelques expressions précises : les plus convoitées !)
 
WRInaute discret
Si la théorie du 20/80 en commerce s'applique à toute la boutique, dans la boutique il y a sex, video, jeans, games, google...Faut pas oublier. Ca rempli pas mal déjà. Après vue les pénalités sur les thématiques, pour un site, la donne est variable... selon l'animal du Sichuan.
 
Olivier Duffez (admin)
Membre du personnel
@Cedric : les requêtes sont les expressions tapées par les internautes, nous ayant généré du trafic ;-)
 
WRInaute accro
WebRankInfo a dit:
@Cedric : les requêtes sont les expressions tapées par les internautes, nous ayant généré du trafic ;-)
requète et requêtes sont-elles soeurs jumelles? Ou est la limite dans le (nécessaire) regroupement?
 
WRInaute accro
Il est vrai que l'article est bien amené, même si je suis assez perplexe sur les conclusions de l'histoire.
 
WRInaute passionné
Il y a eu du changement cette nuit chez Google. Sur les 5 sites que je suis avec Ranks, toutes les positions se sont nettement améliorées. Avez-vous constaté la même chose chez vous ?
 
WRInaute passionné
Oui avancée très nette sur la plupart des positions suivies et sur mes trois sites constatée hier en soirée :D
 
WRInaute accro
kmenslow a dit:
Il y a eu du changement cette nuit chez Google. Sur les 5 sites que je suis avec Ranks, toutes les positions se sont nettement améliorées. Avez-vous constaté la même chose chez vous ?
je ne comprends pas le rapporta vec le topic...
 
WRInaute accro
JanoLapin a dit:
WebRankInfo a dit:
kmenslow a dit:
Vous connaissez certainement la loi de Pareto ... qui s'applique également au web. 20% des requêtes génèrent 80% des visites.
justement non, elle ne s'applique pas si bien que ça au web. Le principe de la longue traine contredit ces chiffres
cette remarque m'étonne d'un scientifique tel que toi!

La loi de Paretto est bien une loi et non un axiome.... Si le web avait contredit cette loi on en aurait entendu parler.
déjà, dans son utilisation on met ce qu'on veut en paramètre, histoire de justifier son application (80% du temps passé, 80% de nos clients, 80% du CA réalisé, 80% de résultat net, etc...).
Ensuite, c'est une loi "brick and mortar", du fait de la non extensibilité des stocks. Sur le net c'est tout autre chose, on n'a plus de limite.
Si on veut se raccrocher à une loi statistique, on peut y arriver plus facilement en modifiant les données utilisées.
Donc si paretto s'utilisait il y a 5-6 ans, quand l'essentiel des requêtes étaient effectuées avec un seul mot, maintenant avec des requête de 6-7 mots, ça n'est plus le cas du tout.
Ce qu'il faut comprendre au niveau des "lois" statistiques, c'est que les économistes (et, dans une moindre mesure les entraineurs sportifs) essaient de se donner une aura scientifique en se raccrochant, autant que faire se peux, à des lois statistiques. Alors que souvent, c'est juste de l'empirisme.
Si paretto s'utilisait vraiment partout, pourquoi, l'INSEE indique, sur http://www.cnle.gouv.fr/IMG/pdf/revenus_INSEE.pdf que les 20% des ménages les plus aisés perçoivent 41,7% des revenus ? On ne devrait pas avoir 80% à la place ?
En 2008, la moitié des ménages ayant les revenus disponibles les plus faibles perçoit 26,5 % de l’ensemble des revenus disponibles. Les 20 % les plus aisés en perçoivent 41,7 %, soit 5,9 fois plus que la part perçue par les 20 % les plus modestes.
faut pas toujours croire ce que l'on nous enseigne sans vérifier :mrgreen:
 
WRInaute accro
Leonick a dit:
faut pas toujours croire ce que l'on nous enseigne sans vérifier :mrgreen:
comme par exemple la Long Tail? Quelqu'un a-t-il des chiffres à ce sujet? L'auteur resignerait-il son livre aujourd'hui?

Il n'y a qu'à regarder sur Amazon le nombre d'outils tels que "vous aimerez aussi", les "reviews" en tout genre, les "ceux qui ont choisi ceci ont aussi choisi..;" etc. pour voir à quel point sur ce site tout pousse plutôt à la réalisation du Paretto plutôt que de la Long Tail...
 
WRInaute accro
Par ailleurs, et sur le seul plan de la logique, j'ai du mal à te suivre: tu ne peux pas à la fois dire cette loi n'en est pas une car on y met ce que l'on veut dedans, et en même temps affirmer: cette loi n'est plus valable car ce qui la conditionnen a changé / n'existe plus...
C'est un peu comme les diam's de G*sc*rd: non seulement y 'en a jamais eu, mais en plus ils étaient pas aussi gros que cela :mrgreen:
 
WRInaute accro
et d'un : amazon a une partie stockage, il ne peut donc pas avoir un stock hyper large.
et de deux : si j'ai des articles A similaires à un article B et que je souhaite m'en débarrasser rapidement, je serais tenté de les mettre en avant lors de la visite des internautes sur le produit B, sans que ce soit ceux, réellement les plus vus (mais rapidement, avec ma mise en avant, ça sera le cas)
Faut pas non plus croire tous les arguments des commerciaux :mrgreen:
et si, en plus, on se retrouve avec un service commercial qui croit que la loi de Pareto doit s'appliquer dans tous les cas, ses argumentaires de vente vont alors tendre vers l'application de cette loi : tu peux faire des bons d'achats très avantageux en direction des bons clients les amenant ainsi à augmenter leur part de CA, etc...
La méthode Coué amène de beaux résultats :mrgreen:
 
Olivier Duffez (admin)
Membre du personnel
JanoLapin a dit:
Il n'y a qu'à regarder sur Amazon le nombre d'outils tels que "vous aimerez aussi", les "reviews" en tout genre, les "ceux qui ont choisi ceci ont aussi choisi..;" etc. pour voir à quel point sur ce site tout pousse plutôt à la réalisation du Paretto plutôt que de la Long Tail...
pour ma part je n'ai pas compris cette remarque...

si je lis la présentation officielle de l'éditeur du célèbre livre Long Tail de Chris Anderson, dans sa version française, je vois :

Avec Internet c'est la loi bien connue des 20/80 (20% des produits font 80% du chiffre d'affaires) qui est remise en cause. Les innombrables possibilités de connexion confèrent une liberté d'accès sans filtre à la culture et à des contenus de toutes sortes. Productions commerciales et contenus amateurs se disputent l'attention des internautes sur un même pied d'égalité.

En réduisant les coûts fixes liés à la distribution voire à la production Internet fait naître du reste un mode d'abondance : tous les films tous les CD tous les livres seront disponibles en permanence. Les goûts se dispersent et à une augmentation de l'offre correspond désormais une augmentation de la demande quasi infinie.

Ainsi la réussite ne se concentre plus sur un petit nombre d'oeuvres « hits » ou « top sellers ». Les autres produits qui constituent les « longues traînes » rapportent parfois jusqu'à 98% du CA phénomène observé chez Rhapsody (pour les téléchargements de morceaux de musique en ligne) mais également chez Google (pour les petits annonceurs) et e.bay (pour les objets d'occasion) autant d'exemples de modèles économiques développés par Chris Anderson dans son livre.
 
WRInaute accro
WebRankInfo a dit:
si je lis la présentation officielle de l'éditeur du célèbre livre Long Tail de Chris Anderson, dans sa version française, je vois :
Les goûts se dispersent et à une augmentation de l'offre correspond désormais une augmentation de la demande quasi infinie.
Sans remettre en question cette loi ou prendre parti, la lecture de la citation ci dessus (peut être trop sortie de son contexte) me semble totalement fantaisiste.
Si vraiment c'était vérifié on serait pas en pleine crise et internet se serait posé en libérateur / relanceur de l'économie alors que personnellement je le sent plus dans le sens d'une diversification qui a donné un regain de vie a l'activité commerciale sur des secteur peut être "oubliés".
 
WRInaute accro
en fait, au niveau des achats sur le net, la vérité se trouve entre les 2. Comme je le disais au dessus, pour les produits non dématérialisés, il se pose quand même une contrainte de stockage, la seule différence étant un stockage semi centralisé pour Amazon. Donc tous les produits ne peuvent être proposés. Ensuite, au niveau des achats, on aime bien avoir des retours de la qualité du produit et là, pour avoir un retour, il faut qu'il y ait suffisamment d'acheteur pour avoir, ne serait-ce, qu'un seul avis.
Donc, dans la pratique, on n'aura pas réellement un effet longue traine. Mais, pas du tout, une application de Pareto, sauf, éventuellement, dans la tête du service marketing
 
WRInaute accro
Pour préciser ma pensée sur Ama*o*: ce site -comme beaucoup d'autres en e-commerce- essaie d'optimiser son CA en utilisant de la vente croisée: bundles, recommandation, préférences sociales, etc.

Les outils de recommandation s'appuient le plus souvent sur "la moyenne": cad qu'on met en avant ce qui marche le mieux auprès des auters consommateurs (ce qui plait le plus). Bref on incite un consommateur a acheter lui-aussi ce que les autres ont le plus acheté. Bref on favorise la concentration vers des "blockbusters" plutôt que l'éparpillement

Si cela, pour vous, relève de la long tail plutôt que d'être un outil favorisant un paretto.... on ne parle pas la même langue!
C(a)rotte alors!


@leonick: pour éviter les problèmes de stockage des biens "physiques, on peut transposer le raisonnement aux place de marchés (E*b*y, Pri*em*iniste* etc.)
 
WRInaute accro
JanoLapin a dit:
Pour préciser ma pensée sur Ama*o*: ce site -comme beaucoup d'autres en e-commerce- essaie d'optimiser son CA en utilisant de la vente croisée: bundles, recommandation, préférences sociales, etc.
/...
Bref on incite un consommateur a acheter lui-aussi ce que les autres ont le plus acheté. Bref on favorise la concentration vers des "blockbusters" plutôt que l'éparpillement
oui, mais c'est ce que je disais à propos des service marketing qui orientait les actions en direction de l'application de Pareto, pour plusieurs raisons, à mon avis : utiliser les données des ventes liées précédentes, c'est ce qui revient le moins cher au niveau du vendeur, car on a juste une extraction de la bdd à effectuer. L'autre solution, beaucoup plus onéreuse, consisterait à avoir du personnel qui catégorise chaque produit (y compris livre, vidéo et musique) afin de proposer les produits ayant les mêmes caractéristiques. Tu imagines le travail ? et donc le surcoût.
alors qu'avec leur solution, tu fais juste un select * from (select * from panier where ref=ref_ce_livre and type=livre) where ref!=ref_ce_livre
et ça y est, tu as ta liste.
Mais bon, on ne peut rien augurer des ventes en partant de ce point là, vu qu'on ne connait pas tous les points d'entrées des internautes
 
WRInaute accro
Pour ce qui est de la musique, il y a eu des tentatives d'algo censé faire faire ce boulot de titan de la catégorisation par des machines. Je ne sais pas où cela en est en ce moment...

Et tac, voilà que mine de rien on retombe avec cela à nouveau dans le sujet des moteurs intelligents.. et z-intelligent tous seuls, en plus... :D
 
Olivier Duffez (admin)
Membre du personnel
mais concrètement sur vos sites, vous voyez vraiment l'application de la loi de Pareto ? pour ma part absolument pas
et de mémoire, ce n'est pas Amazon qui avait participé à la préface ou postface du livre Long Tail de Chris Anderson ?

à vrai dire je suis plutôt étonné d'avoir ce genre de discussion ;-)
 
WRInaute discret
sovite a dit:
On est plutot sur ce genre de schémas :

dettepublique-google.png


Dans les deux cas elvis c'est pas tiptop pour les éditeurs

Personnellement, je refuserai quoi qu'il arrive le droit à Google de pomper les infos de mon site et les placer sur le sien accompagné d'un simple lien vers ma page. C'est une question de droit d'auteur et tout ce que cela implique.

Une solution envisageable serait une balise d'interdiction : <google-semantic="no">

Sinon, ce sera Google "noindex, nofollow". Qu'est-ce que j'aurai à perdre ?
 
WRInaute accro
Raulent a dit:
Sinon, ce sera Google "noindex, nofollow". Qu'est-ce que j'aurai à perdre ?
+1 Mais bord*l ! quand est ce qu'un autre moteur va voir le jour en Europe pour qu'on puisse jouer avec autre chose ET lui dire ouvertement "va te faire voir".
 
Olivier Duffez (admin)
Membre du personnel
Raulent a dit:
Sinon, ce sera Google "noindex, nofollow". Qu'est-ce que j'aurai à perdre ?
si tu bloques Google, tu ne perdras que le trafic généré par Google, il restera tous les autres moteurs :roll:

si on suit ta logique, tu n'as pas non plus envie d'être dans Google Actu je suppose ?
 
WRInaute discret
WebRankInfo a dit:
Raulent a dit:
Sinon, ce sera Google "noindex, nofollow". Qu'est-ce que j'aurai à perdre ?
si tu bloques Google, tu ne perdras que le trafic généré par Google, il restera tous les autres moteurs :roll:

si on suit ta logique, tu n'as pas non plus envie d'être dans Google Actu je suppose ?

C'est exact, je refuserais Google tout entier (je préférerais plier) dans les conditions décrites et supposées. Je m'explique :

Dans la photo "Quelle est la dette publique de la France", Google affiche une réponse qui provient d'une page Google. Je n'ai pas de problème avec ça. Mais dans celle-ci donnée par Google sur son propre blog, j'ai un gros problème.

closed.png


Donc Google va extraire le contenu pertinent sur mon site, le proposer à son internaute tout en affichant 3 pubs qui se distinguent à peine des résultats organiques en positions 1 à 3. Et l'internaute continuera à surfer sur Google sans jamais quitter sa page. On n'est plus dans le concept du moteur de recherche mais du voleur de recherche.

J'interdirai Google, quitte à plier. Dans le business, il faut savoir être ferme parfois.
 
WRInaute passionné
J'interdirai Google, quitte à plier. Dans le business, il faut savoir être ferme parfois.
Quelle chance de pouvoir dire ça ! Moi sans Google, le business, y'en a plu :lol: (rire jaune tout de même...)
 
WRInaute discret
Raulent a dit:
Vivre ou survivre, on peut choisir.

A y réfléchir, il y aurait des solutions pour se défendre des vélléités prédatrices de Google.

D'abord il y a l'alternative Facebook qui est en train d'évoluer pour rejoindre Google avec, entre autres, un nouveau moteur de recherche. Et on peut s'attendre à l'introduction d'un module de création de pages digne d'un CMS d'ici peu de temps. On peut également se fédérer à Facebook et voir son site proposé aux membres comme une page Facebook à part entière. Ca ne prend que quelques balises Meta.

Il y a aussi la possibilité de restreindre l'accès de Google à certaines informations du site et même de la page par l'utilisation d'un iframe. Pour l'internaute c'est du pareil au même puisqu'il reçoit l'information qu'il souhaite. Mais Google, lui, se verrait interdit d'accéder à certaines infos par une balise anti-pillage noindex ou une insertion dans le fichier robots.txt.

Il y a aussi les autres moteurs de recherche qui devraient monter. Malheureusement, Bing semble sur la même longueur d'ondes que Google et développe un moteur sémantique aussi.

Et on ne sait pas ce que l'avenir proche réserve. On pourrait voir des nouvelles percées comme celle de Facebook. La commission européenne pourrait décider de contraindre Google à des comportements moins anti-concurrence... etc.

Pour ma part, je pense que l'intérêt de l'internaute réside dans la continuité d'une pluralité de sources d'information avec une myriade de sites et de moyens d'y accéder, même si cela ressemble parfois à un grand bazar.
 
WRInaute passionné
A choisir entre FB et GG, je prend GG perso ... Quand même un petit plus propre dans l'ensemble malgré tout le pouvoir qu'il a entre les mains. Même si je suis d'accord qu'il abuse un peu en prenant les infos comme il le fait mais si FB prend cette même ampleur dans le search, je pense sincèrement qu'on regrettera cette période.
 
WRInaute accro
pinrolland a dit:
on accepte bien le monopole microsoft .... pourquoi pas celui de GG
Perso je ne l'accepte pas, et le monopole microsoft est très relatif il est surtout sur l'équipement du particulier (et de l'entreprise) pour le reste de ce qui fonctionne avec un microprocesseur (ou plusieurs) il est loin d'avoir un monopole ...
mais bref c'est pas le propos, Le monopole est a refuser car il est dangereux, ça ne va pas plus loin. Quand ton modèle économique repose sur un client ou un fournisseur tu as des soucis a te faire quand le courant passe moins bien.
As tu déjà vue ton trafic divisé de moitié ou plus alors que le pain que tu mange dépendait de lui ? Si ce n'est pas le cas je te souhaite sincèrement que cela ne le soit jamais. En cas de pluralité de sources de trafic tu peux toujours te dire qu'en divisant par deux ton train de vie tu as une chance de survivre et reprendre le dessus ... plus les sources sont nombreuses moins tu devra t'affoler en cas de perte. Voila pourquoi une concurence est necessaire.
 
WRInaute discret
zeb a dit:
pinrolland a dit:
on accepte bien le monopole microsoft .... pourquoi pas celui de GG
Perso je ne l'accepte pas.

Tout à fait d'accord avec Marie-Aude.

Une économie capitaliste ne peut pas fonctionner sans concurrence. Tous les monopoles sont régulés. Et c'est pourquoi Microsoft s'est prise de grooooossssses amendes sur 2 continents. ATT US a été tout bonnement démantelé en des centaines d'entreprises qu'on appelle les "Bell companies"... et le nombre d'exemples de ce type d'interventions dans l'intérêt du consommateur se chiffre en centaines.

Dans le cas Google c'est encore pire. Il s'agit de l'accès et la distribution de l'information. Imagine le scénario catastrophe de "1984", le livre de George Orwell avec son maître de la pensée unique. Nous n'en sommes qu'à 2 doigts. Google peut changer d'attitude du jour au lendemain, cela ne tient qu'à lui. Et pour nous, citoyens, il serait déjà trop tard.

Google n'est pas constant. Il a fait plusieurs revirements dans le passé. Par exemple, au départ il n'affichait que quelques pubs sur ses pages. C'était lorsqu'il avait encore une concurrence sérieuse et que sa stratégie consistait à s'imposer dans l'esprit des internautes. On a désormais, non plus quelques, mais des dizainse de pubs sur les pages Google. Cela a duré le temps de se débarrasser de tous ses concurrents. Et le coup qu'il s'apprête à nous asséner pourrait s'avérer encore beaucoup plus grave.
 
WRInaute accro
zeb a dit:
... plus les sources sont nombreuses moins tu devra t'affoler en cas de perte.
et surtout moins elles dépendront du bon vouloir d'autrui !

30% de traffic amené par les serps ne valent pas 30% de traffic spontané créé en travaillant ta réputation dans l'esprit de tes clients potentiels

PS: un peu comme le kilo de plomb et le kilo de plume quoi ^^
 
Discussions similaires
Haut