Sitemap et référencement de pages

WRInaute discret
Mon site a pas mal de pages avec un argument PHP en GET. POur ceaux qui voudraient aller voir ce sont les liens des pages Paysages Faune et Flore. Ces pages n'ont jamais été référencées depui l'ouverture du site, j'avais d'ailleurs réduit le nombre de paramètre de deux à un en espérant que ça changerait qqc, mais rien n'y a fait. Google m'a pris en compte certains arguments d'autres pages mais jamais ces liens qui contiennent les photos de mon site.

Ce que je me demandais c'est :
est-ce que le référencement dans mon sitemap de ces liens va faire qu'enfin ces pages pourront apparâitre dans google ?
Il y a presque 60 liens comme ça qui pourraient vraisemblablement ressortir sur des requêtes ultra-précises dans google du style : "Digitale à grandes fleurs".

Merci !
 
WRInaute discret
hello, en ce qui me concerne j'ai une theorie!

je pense que google a fait un effort au niveau de l'indexation des pages dyn. mais qu'il filtre quand meme les url!

j'ai déjà observé des problèmes avec des noms de variable comme "id", "search","q"...
je pense que google effectue ce trie pour ne pas remplir son index par les pages de résultats des moteurs...

enfn ce n'est qu'une théorie!

KéViN
 
WRInaute discret
Ca serait pas idiot du tout, je pense que je vais tenter de modifier ça si j'ai un peu de temps. Un petit rubrique ou rub à la place de search sera sûrement mieux.

Et de manière générale est-ce que Sitemap peut aider le référencement ?
 
WRInaute discret
pour mois perso, c'était plus du boulot en + qu'autre chose! (ecriture d un script php pour generer le xml, processus d integration en ligne...


Et au final rien du tt!!! marche mieu mon bon vieu sitemap.htm (qui lui est utilise par tous les robots, moteurs, visiteurs, ..., contrairement au xml qui ne sert qu'à google...)

KéViN
 
WRInaute discret
Petit retour sur mon expérience sitemap :

J'avais donc soumis mon sitemap il ya quelques semaines de cela et ce matin je viens de voir que le nombre de mes pages référencées est passé de 44 à .... 109. Le sitemap plus le changement en "rub" de l'ancien argument GET "search" ont été efficaces.

Maintenant sur des requêtes ultra précises je me place dans les toutes premières positions : "parcs nati0naux m0ntagne" ou "m0ntagne gallinacés" par exemple (avec assez souvent deux pages qui apparaissent).
Les pages relatives aux paysages d'été et d'hiver n'ont pas été encore indexées et je compte bien sur elles pour rajouter quelques autres positions fort sympathique.

Curieusement 109 correspond aussi au nombre de backlinks pointant vers Gypaète.net, se peut-il que google limite le nombre de mes pages indexées au nombre de backlinks ?

Pour remedier à cela et ne pas perdre les pages paysages été et hiver j'ai mis un robots.txt avec le texte suivant :
Code:
User-agent: *
Disallow: /Pages/forum/
Comme ça je vire automatiquement les pages de mon forum merdique qui sont indexées en masse sans intérêt. J'ai viré aussi du site map certaines URL avec des paramètres GET redondant (une page seulement différente par ses paramètres mais dont le contenu textuel ne change aucunement).

Que pensez-vous de cette éventuelle limitation du nombre de pages indexées ?
 
Discussions similaires
Haut