j'ai jamais compris cette difference d'indexation !

  • Auteur de la discussion Auteur de la discussion raljx
  • Date de début Date de début
WRInaute passionné
Bonjour,

Pourquoi selon vous j'ai dans mon indexation GG les differences suivantes :

sur google.com
site:domain.fr domain --> 2 290 000
site:domain.fr --> 424 000

sur google.fr
site:domain.fr domain --> 2 290 000
site:domain.fr --> 2 290 000

J'avoue n'avoir jamais trouvé la reponse. De plus dans les GWT / analyse du contenu je n'ai que tres peu de remarques : ~150 titres identiques (sur 3 000 000 de pages c'est pas mal ;)) et quelques balises META identiques

J'en appelle aux spécialistes ;)
 
Membre Honoré
Google est assez sympa sur le coup :

Google FR :
2 410 000 site:google.fr google
2 380 000 site:google.fr

Google COM :
2,260,000 site:google.fr google
2,380,000 site:google.fr

Nous n'avons pas les mêmes statistiques. :mrgreen:
Après il y a différents filtres qui peuvent expliquer la différence, entre le .com et le .fr qui peuvent faire varier les résultats mais là c'est assez sympa pour les réponses avec quelques différences. :lol:

Dans Google Webmaster Tool il est normal quand on fait son référencement de ne pas avoir beaucoup de remarques. Je n'en ai vu aucune sur un site ayant un minimum de référencement, soit quelques éléments identiques dans des CMS non modifiés.
 
WRInaute passionné
pour Google, il y a finalement une différence minime, probablement dûe à l'indexation sur différents serveurs, des pages en renouvellement de cache, ou des choses comme ça.

Pour le domaine en question, une si grosse différence tient probablement à l'indexation en cours, ou, si l'indexation est faite, à la "sémantisation" des pages [= période pendant laquelle Google tient la page et lui donne un sens, une thématique, et relève les mots clés qui peuvent lui être attribués ou qq chose comme ça]

J'ai pu détecter cette période de transition à l'indexation de mon nouveau site sur 20.000 pages, c'était assez bluffant.
 
WRInaute passionné
J'ai egalement un autre site (copie du premier) qui lui, contient environ 40 000 pages. Par contre celui-la ne présente pas ce type de difficultés. le nombre de pages indexees dans GG etant exactement le meme sur google.com et google.fr c'est pour cela que je me pose la question.
 
WRInaute passionné
j'en ai compté un peu moins ;) mais belle envolée de trafic fin décembre apparemment. mise en ligne mi novembre c'est ça ?
 
WRInaute passionné
j'avais spécifié 40 000 pages (pas 400 000) sur la commande site aujourdh'hui 110 000. Mais peu etre avez-vous trouvé de quelle copie de site (propriétaire) il s'agit ;)
 
WRInaute passionné
non et à vrai dire cela ne m'intéresse pas autant que de savoir comment autant de pages ont pu être référencées aussi vite., déjà que je trouvais que mes 15k pages avaient été référencées rapidement (2 mois).. liens de sites de fort trustrank ?
 
WRInaute passionné
- Beaucoup de contenu d'un coup (recup d'une base).
- Un sitemap index regroupant tous les sitemaps par categories et par departements.
- Un sitemap généré dynamiquement pour les nouvelles annonces.
- Concernant les liens je n'y ai pas encore travaillé.
- Le nom de domaine est vieux
- Il est présent dans DMOZ
- Une soumission à GG
- url rewrité

Par contre reste un enorme boulot au niveau de la position dans les resultats GG meme si bizarrement :?: il represente +70% de source de traffic.

Par contre PR0 (pas grisé)
 
WRInaute passionné
raljx a dit:
- Beaucoup de contenu d'un coup (recup d'une base).
- Un sitemap index regroupant tous les sitemaps par categories et par departements.
- Un sitemap généré dynamiquement pour les nouvelles annonces.
- Concernant les liens je n'y ai pas encore travaillé.
- Le nom de domaine est vieux
- Il est présent dans DMOZ
- Une soumission à GG
- url rewrité

Par contre reste un enorme boulot au niveau de la position dans les resultats GG meme si bizarrement :?: il represente +70% de source de traffic.

Par contre PR0 (pas grisé)
je pense que les trois points en gras peuvent suffire à cela. As-tu constaté une certaine récession dans le nombre de pages indexées ? d'expérience, j'ai pu voir qu'il indexait énormément de pages, puis qu'il faisait le tri..
 
WRInaute passionné
Je confirme ! il indexe "a l'arrache" puis regule ensuite et ca peut se jouer sur plusieurs milliers de pages.

Par contre par experience et analyse j'aurais egalement mis en gras le sitemap (tres important a mon avis sur une premiere indexation) en le mettant bien entendu egalement dans le robot.txt
 
WRInaute passionné
pour ma part, j'ai suivi toute l'indexation, et il était loin de suivre la logique du sitemap (niveau d'intérêt, pages qui n'était pas dans l'index mieux indexées que celles qui y sont,...). Alors il faudrait peut-être d'autres avis, expériences..
 
Discussions similaires
Haut