Duplicate meta content

  • Auteur de la discussion Auteur de la discussion Cellys
  • Date de début Date de début
Nouveau WRInaute
Bonjour à tous !

Bon je sais cette question a du être posé un million de fois, mais même avec une recherche... Je ne trouve pas la solution.

Je vous explique. J'ai un site sous Prestashop 1.6.0.14. J'ai une gamme de plus de 160 produits répartis dans plusieurs catégories.
Je pense avoir plus de 500 pages (à peu de chose près)
Malheureusement j'ai du duplicate content sur une centaine de page (titre, description et meta description). Mais je n'arrive pas à régler ça.
Grosso modo voici un exemple de page où j'ai du duplicate content :
www.nomdemonsite.fr/monblog
www.nomdemonsite.fr/monblog?p=2
www.nomdemonsite.fr/categorieproduitdeouf
www.nomdemonsite.fr/categorieproduitdeouf?=p2
www.nomdemonsite.fr/categorieproduitdeouf?p=3
etc.

Mon contenu dupliqué est en faite par les "secondes pages" de chacune de mes catégories.
Mon site est sous un CMS, je n'aime donc pas toucher au code source de la page. Prestashop ne facilite pas vraiment cette opération et dans tous les cas, le site a été développé avec un langage que je ne connais pas (.php et .tpl). Donc pas possible de rentrer dans le code source de la page.

Avez-vous des conseils à me donner ? Merci d'avance,
 
Nouveau WRInaute
Bonjour,

Une méthode très simple est de mettre la ligne suivante dans robots.txt

Disallow: /*?p=

pour bloquer toutes les paginations à partir de la 2° page
 
WRInaute accro
C'est une connerie de bloquer la pagination. Comment Google accède aux articles qui sont listés sur les pages > 1 si tu le fais ?
 
WRInaute accro
Pour faire simple, robots.txt est obligatoire et peut se limiter à un fichier vide.
Tout ce qu'on ajoute dedans est inutile, voir même nocif

Pour régler le problème des duplicate content il faut ajouter une balise "canonical" qui pointe vers la page considérée comme la "vraie" page.
Dans le cas du blog, ça interdirait le référencement des pages 2 et suivantes du blog. Dans ce cas il faut trouver un moyen pour avoir un titre et une méta description différente pour chaque page du blog (et ne pas utiliser la balise canonical)
 
WRInaute occasionnel
Cellys a dit:
Malheureusement j'ai du duplicate content sur une centaine de page (titre, description et meta description). Mais je n'arrive pas à régler ça.
Grosso modo voici un exemple de page où j'ai du duplicate content :
http://www.example.com/monblog
http://www.nexample.com/monblog?p=2
D'abord l'adresse réelle du site

wissemovitch a dit:
Bonjour,

Une méthode très simple est de mettre la ligne suivante dans robots.txt

Disallow: /*?p=

pour bloquer toutes les paginations à partir de la 2° page
et perdre l'indexation des toutes les pages 2, 3 ... des résultats. Evite de répondre n'importe quoi (merci)
Au passage pour continuer les conneries, te conseille de modifier (si tu ne veux plus de visiteurs
> Indigène, avant de mettre des réponses passe partout inutiles: lis le post de départ.
> Cellys: 1 adresse réelle du site - 2. qu'est ce qui a été bricolé sur le CMS prestashop?
 
WRInaute accro
patrick_lejeune a dit:
> Indigène, avant de mettre des réponses passe partout inutiles: lis le post de départ.

Peux-tu m'expliquer en quoi mes réponses sont "passe partout" et "inutiles" étant donné qu'elles sont juste et pertinentes ?

C'est toujours mieux, même si j'ai peut-être commis une erreur dans la réponse (merci de m'indiquer où), que de critiquer les réponses des autres sans donner aucune vraie réponse, non ?

J'accepte et reconnait parfaitement les erreurs si on veut bien m'expliquer où j'en ai fait. A ma connaissance, je n'en voit pas, même après avoir relu plusieurs fois mon intervention. :oops:

Et je ne vois pas en quoi l'url nous apporterait plus. Si on a pris la peine de lire le post de départ tout est expliqué et d'une façon on ne peut plus claire. Donc TOI, commence à relire le post initial
 
WRInaute accro
indigene a dit:
Pour faire simple, robots.txt est obligatoire et peut se limiter à un fichier vide.
Pourquoi un fichier vide serait-il obligatoire ? :D
indigene a dit:
Tout ce qu'on ajoute dedans est inutile, voir même nocif
Ah bon ? Tu peux développer ?

indigene a dit:
Pour régler le problème des duplicate content il faut ajouter une balise "canonical" qui pointe vers la page considérée comme la "vraie" page.
C'est prendre une enclume pour écraser une mouche. Il y a plein d'autres solutions...
En particulier le noindex, follow , qui ne bloque pas le bot, à la différence du disallow dans le fichier robots.txt

indigene a dit:
Dans le cas du blog, ça interdirait le référencement des pages 2 et suivantes du blog. Dans ce cas il faut trouver un moyen pour avoir un titre et une méta description différente pour chaque page du blog (et ne pas utiliser la balise canonical)
Peux tu expliquer l'intérêt d'indexer des "pages suivantes" ? Ce qui compte, c'est que Google puisse les crawler, pour arriver aux articles et produits individuels qui se trouvent dessus.

Dans une boutique, il est intéressant de positionner une page d'accueil de catégorie, et des pages produits. Pareil dans un blog, articles, première page des taxonomies. Le reste n'a pas d'intérêt...
 
Nouveau WRInaute
Le débat est passionnant mais je serai curieux de lire la vraie solution ? Effectivement j'aurai eu tendance à bloquer le référencement des pages P2 P3 etc... mais pas le crawl. Donc j'ai hate de connaitre la solution !
 
WRInaute accro
clementGou a dit:
Le débat est passionnant mais je serai curieux de lire la vraie solution ? Effectivement j'aurai eu tendance à bloquer le référencement des pages P2 P3 etc... mais pas le crawl. Donc j'ai hate de connaitre la solution !

Comme toujours en référencement, il n'y a pas UNE solution. Perso, j'applique le "noindex, follow", que tu peux paramétrer dans les plugins SEO
 
Nouveau WRInaute
@Cellys

Dans ce cas ci la bonne solution est celle proposée par Indigene,

Il te faudra un module ici que tu dois paramétrer : http://addons.prestashop.com/fr/recherche?search_query=canonical

Nous on utilise le canonical url pro

Et tu vérifies ensuite avec ça : http://www.seoreviewtools.com/canonical-url-location-checker/



Marie-Aude a dit:
Comme toujours en référencement, il n'y a pas UNE solution. Perso, j'applique le "noindex, follow", que tu peux paramétrer dans les plugins SEO

Désolé Marie, mais dans ce cas c'est la solution parfaite qui permet l'indexation tout en aidant google à comprendre que c'est la même page, et elle est simple à mettre en oeuvre, pas un truc compliqué comme tu sous-entends à indigene qui a donné la meilleure réponse.

Proposer une solution qui consiste à bloquer l'indexation.... probablement de commentaires utiles d'utilisateurs...... ce que google adore.... n'est pas correct. Je pense qu'il vaut mieux privilégier la qualité plutôt que la quantité de réponses.

... quand je ne veux pas faire le ménage, je recouvre le bordel par un joli drap blanc... mais c'est pas la vraie bonne solution... j'en sais quelque chose :D

Edit : Le paramètre p fonctionne pour les multiples pages d'une catégorie comme pour les commentaires produits
 
WRInaute accro
neektoo a dit:
Désolé Marie, mais dans ce cas c'est la solution parfaite qui permet l'indexation tout en aidant google à comprendre que c'est la même page, et elle est simple à mettre en oeuvre, pas un truc compliqué comme tu sous-entends à indigene qui a donné la meilleure réponse.
Désolée, Nee, mais je maintiens, il y a plusieurs solutions possibles, en fonction du site.

neektoo a dit:
Proposer une solution qui consiste à bloquer l'indexation.... probablement de commentaires utiles d'utilisateurs...... ce que google adore.... n'est pas correct. Je pense qu'il vaut mieux privilégier la qualité plutôt que la quantité de réponses.
J'ai du mal à comprendre ce que tu dis, je crois que tu n'as pas bien lu ... j'ignorais que les commentaires utilisateurs se trouvaient sur les pages de catégories de produit ? Elles sont sur les pages produits, qui ne sont pas bloquées à l'indexation. Privilégier la qualité de lecture plutôt que la rapidité de réponse ?

En ce qui concerne les pages de catégories de produit, ce qui est le seul truc dont on parle ici ... perso je considère qu'une bonne page d'accueil de catégorie comprend du texte, des produits mis en avant, et que, par contre, les pages suivantes n'ont pas à répéter cela, qui serait lassant pour le lecteur. Il n'y a donc aucun intérêt à favoriser l'indexation des pages suivantes, puisque on souhaite que le client arrive sur la première page avec les messages marketing, non ?

Quant à dire que bloquer l'indexation sur les pages "suivantes" est compliqué à faire... euh, comment dire ? 5 lignes de code ? Mais si tu veux une solution simple, tu reprends la première proposition de Google : "ne rien faire" :)
 
Nouveau WRInaute
tu n'as pas lu le edit de mon post ?

C'est vraiment incroyable de dire ça "Privilégier la qualité de lecture plutôt que la rapidité de réponse ?" c'est le monde à l'envers.
 
WRInaute accro
Ah ? :D parce que me dire "Je pense qu'il vaut mieux privilégier la qualité plutôt que la quantité de réponses." c'est le monde à l'endroit ? :D :D :D

Bon allez, il est tard, contrairement à toi je pense qu'il y a plusieurs méthodes possibles, j'explique juste pourquoi j'en privilégie une. On va pas épiloguer 100 ans là dessus ^^
 
WRInaute accro
Marie-Aude a dit:
indigene a dit:
Pour faire simple, robots.txt est obligatoire et peut se limiter à un fichier vide.
Pourquoi un fichier vide serait-il obligatoire ? :D

Ce n'est pas le fichier vide qui est obligatoire, c'est la présence d'un fichier robots.txt pour éviter les erreurs 404 retournées par le serveur.
Mais ce qu'il y a dans le robots.txt peut être vide ou se limiter à User-agent: *

Marie-Aude a dit:
indigene a dit:
Tout ce qu'on ajoute dedans est inutile, voir même nocif
Ah bon ? Tu peux développer ?

Oui, je peux
On peut y ajouter des listes de répertoires interdits au crawl mais si ces répertoires ont déjà été indexés google ne peut plus accéder aux fichiers pour se rendre compte par exemple qu'ils sont maintenant en "noindex"
Et une liste de répertoires "privés" interdits aux robots c'est sans doute la première chose à laquelle les hackers vont s'attaquer, donc c'est potentiellement nocif de les lister dans un fichier. C'est comme si tu disais à un petit enfant "tu n'as pas le droit d'ouvrir cette porte".... c'est la première chose qu'il fera quand tu auras le dos tourné

Marie-Aude a dit:
indigene a dit:
Dans le cas du blog, ça interdirait le référencement des pages 2 et suivantes du blog. Dans ce cas il faut trouver un moyen pour avoir un titre et une méta description différente pour chaque page du blog (et ne pas utiliser la balise canonical)
Peux tu expliquer l'intérêt d'indexer des "pages suivantes" ? Ce qui compte, c'est que Google puisse les crawler, pour arriver aux articles et produits individuels qui se trouvent dessus.

Peux-tu expliquer l'intérêt de ne pas les indexer ? [/quote]

Ca ajoute du contenu associé à d'autres contenus qui peuvent ressortir en première page de résultats alors que les pages article qui ne sont pas associées à ces autres contenus ne ressortiraient pas sur les mêmes requêtes.
 
WRInaute accro
Marie-Aude a dit:
Comme toujours en référencement, il n'y a pas UNE solution. Perso, j'applique le "noindex, follow", que tu peux paramétrer dans les plugins SEO

Perso, si une page n'est pas à indexer, je ne la publie pas sur le web. C'est encore plus radical
Quelques exception avec les pages de formulaire
 
WRInaute accro
Marie-Aude a dit:
contrairement à toi je pense qu'il y a plusieurs méthodes possibles

C'est bien la seule chose sur laquelle nous sommes tous d'accord
Il existe de bonnes méthodes mais aussi de mauvaises méthodes... au final ça fait plusieurs méthodes plus ou moins bien en fonction de chaque cas particulier

Et personne n'a dit qu'on devait répéter le même texte sur chaque page suite de la catégorie
 
Nouveau WRInaute
@indigene

Tu es un exemple pour moi, je ne sais pas comment tu arrives à faire preuve d'autant de tolérance envers les propos peu acceptables de patrick_lejeune envers toi, et marie aude qui te dit que ta solution c'est comme écraser une mouche avec une enclume et qui ne comprend pas la finalité du problème ; Qu'au final la solution c'est un simple module à rajouter, et que désindexer les paramètres p est nocif dans la globalité et desindexera aussi les commentaires utilisateur qui utilisent, selon la version, ce même paramètre.

Tu es un exemple de tolérance, et merci de leur part pour ta pédagogie.

J'ai posté un sujet "google traduire cette page", si tu as une idée n'hésite pas à me la partager.
 
WRInaute accro
indigene a dit:
Ce n'est pas le fichier vide qui est obligatoire, c'est la présence d'un fichier robots.txt pour éviter les erreurs 404 retournées par le serveur.
... Bah Google dit le contraire
https://developers.google.com/webmasters/control-crawl-index/docs/faq#h01
GoogleHelp a dit:
Dois-je forcément utiliser un fichier robots.txt sur mon site Web ?

Non. Lorsque nous consultons un site Web à l'aide de Googlebot, nous demandons d'abord l'autorisation d'explorer ce site en tentant de récupérer le fichier robots.txt. Mais si un site Web n'a pas de fichier robots.txt, de balise Meta pour les robots ou d'en-tête HTTP "X-Robots-Tag", en général nous l'explorons et l'indexons normalement.
Pour info, j'ai des sites sans robots.txt et je n'ai aucune 404 pour ça dans la console GoogleSearch

indigene a dit:
Oui, je peux
On peut y ajouter des listes de répertoires interdits au crawl mais si ces répertoires ont déjà été indexés google ne peut plus accéder aux fichiers pour se rendre compte par exemple qu'ils sont maintenant en "noindex"
ça ce n'est pas nocif "en soi", c'est nocif "en cas de mauvaise utilisation". Faire une connerie avec un outil est toujours nocif, même si l'outil est bon.

indigene a dit:
Et une liste de répertoires "privés" interdits aux robots c'est sans doute la première chose à laquelle les hackers vont s'attaquer, donc c'est potentiellement nocif de les lister dans un fichier.
1- tu peux décider de bloquer des urls à cause de leur contenu, et pas à cause de la sécurité
2- en particulier, si ce sont des urls en front-end... je ne vois pas trop le problème grave de sécurité d'indiquer à un hacker que je ne veux pas indexer les pages 2 qui ne sont pas plus ou moins hackables que les pages 1
3- c'est un argument souvent avancé pour tout ce qui est répertoire d'admin et de script, et ce n'est pas totalement faux, mais uniquement pour les sites faits maisons. Pour les sites avec CMS, quels qu'ils soient, les listes de répertoires sont connues, comme les moyens d'y accéder et de les hacker. Pour info, aujourd'hui, les hackers testent des urls, robots.txt ou pas, de façon automatisée...

indigene a dit:
Peux-tu expliquer l'intérêt de ne pas les indexer ?
Je l'ai déjà fait, relis mon post...

indigene a dit:
Ca ajoute du contenu associé à d'autres contenus qui peuvent ressortir en première page de résultats alors que les pages article qui ne sont pas associées à ces autres contenus ne ressortiraient pas sur les mêmes requêtes.
Bah non, ça c'est de la théorie.
En pratique... le champ sémantique, il se gère dans la description du produit, dans la page de catégorie et éventuellement dans les articles de blog.

Par ailleurs, à moins de mettre en place quelque chose qui est beaucoup plus une usine à gaz que la non indexation des pages suivantes, celles ci sont généralement du duplicate content, très rares sont les sites où les descriptions courtes / titres des produits sont différentes selon la page d'archive (par tag, par catégories, etc).
 
WRInaute accro
Marie-Aude a dit:
indigene a dit:
Ce n'est pas le fichier vide qui est obligatoire, c'est la présence d'un fichier robots.txt pour éviter les erreurs 404 retournées par le serveur.
... Bah Google dit le contraire
https://developers.google.com/webmasters/control-crawl-index/docs/faq#h01
GoogleHelp a dit:
Dois-je forcément utiliser un fichier robots.txt sur mon site Web ?

Non. Lorsque nous consultons un site Web à l'aide de Googlebot, nous demandons d'abord l'autorisation d'explorer ce site en tentant de récupérer le fichier robots.txt. Mais si un site Web n'a pas de fichier robots.txt, de balise Meta pour les robots ou d'en-tête HTTP "X-Robots-Tag", en général nous l'explorons et l'indexons normalement.
Pour info, j'ai des sites sans robots.txt et je n'ai aucune 404 pour ça dans la console GoogleSearch

1. il n'y a pas que google dans la vie
2. Ce n'est pas google qui gère ton serveur
3. Ce n'est pas dans la console googleSearch qu'on détecte les 404 mais sur son serveur. J'ai par exemple l'habitude de me faire envoyer un mail chaque fois qu'une page d'erreur 404 est appelée. Ca me permet de réagir aussitot en cas de lien brisé, sans attendre que google me l'indique dans GWT. Et je peux t'assurer que le fichier robots.txt est demandé plusieurs fois par jour, tout comme le favicon. Donc mettre un fichier .txt vide ça évite ces 404 inutiles qui appellent la page d'erreur 404 personnalisée et font mouliner le serveur et consomment de la bande passante pour rien.
 
WRInaute accro
Marie-Aude a dit:
Par ailleurs, à moins de mettre en place quelque chose qui est beaucoup plus une usine à gaz que la non indexation des pages suivantes, celles ci sont généralement du duplicate content, très rares sont les sites où les descriptions courtes / titres des produits sont différentes selon la page d'archive (par tag, par catégories, etc).

Ce genre de duplicate content n'a pas réellement d'incidence. Au pire, c'est google qui décide de ne pas indexer telle ou telle page et c'est bien mieux ainsi que de vouloir le forcer à en indexer une alors qu'il trouve qu'elle n'est pas assez pertinente tandis qu'une autre qu'on met en noindex il la trouverait peut-être bien plus pertinente.

Si on a trois articles A B et C, la page qui présente A et B, celle qui présente B et C et celle qui présente A et C sont trois pages différentes avec un contenu original composé de duplicate content. Pourquoi vouloir mettre une description courte différente à chaque fois pour les produits ?
Tu as mal lu mon intervention. Je parlais de mettre une description de catégorie différente pour chaque page suite de la catégorie :

Page 1 : description de la catégorie et présentation des 10 premiers articles avec description courte des articles
Page 2 : autre description de la catégorie et présentation des 10 articles suivants avec description courte des articles
Page 3 : troisième description de la catégorie et présentation des 10 articles suivants avec description courte des articles.

Mais sans doute qu'avec un wordpress c'est impossible à faire sans mettre les mains dans le cambouis.
Mon CMS perso 100 fois plus simple que WP fait ça nativement
 
WRInaute accro
indigene a dit:
1. il n'y a pas que google dans la vie[...]3. Ce n'est pas dans la console googleSearch qu'on détecte les 404 mais sur son serveur.
Pour info, ici on est dans le forum "débuter en référencement", pas dans le forum "gestion d'un site web". Donc même si le moteur de recherche qui génère, en Europe, plus de 90% des visiteurs n'est pas le seul, ça reste le sujet de base ici.

indigene a dit:
J'ai par exemple l'habitude de me faire envoyer un mail chaque fois qu'une page d'erreur 404 est appelée. Ca me permet de réagir aussitot en cas de lien brisé, sans attendre que google me l'indique dans GWT. Et je peux t'assurer que le fichier robots.txt est demandé plusieurs fois par jour, tout comme le favicon. Donc mettre un fichier .txt vide ça évite ces 404 inutiles qui appellent la page d'erreur 404 personnalisée et font mouliner le serveur et consomment de la bande passante pour rien.
Donc tu transformes quelque chose qui a une bonne raison dans TON cas et TA gestion de serveur (et de serveur dédié) en une obligation pour tous, y compris ceux qui sont sur un mutu et qui n'ont pas ce paramétrage.

indigene a dit:
Ce genre de duplicate content n'a pas réellement d'incidence. Au pire, c'est google qui décide de ne pas indexer telle ou telle page et c'est bien mieux ainsi que de vouloir le forcer à en indexer une alors qu'il trouve qu'elle n'est pas assez pertinente tandis qu'une autre qu'on met en noindex il la trouverait peut-être bien plus pertinente.
Euh.... c'est toi, là, qui ne comprend pas bien.

Si je me casse le cul à faire des tags, par exemple, c'est bien que j'ai envie d'être référencée (et donc indexée^^) sur ces tags. Si, à cause du DC, Google décide de ne pas indexer / positionner un tag ou un autre (et je te parle de la page d'accueil de la catégorie, pas des suivantes), j'ai un problème.
De plus, tu n'as pas pensé que cette méthode permet de développer des archives de taxonomies qui sont beaucoup plus pertinentes d'un point de vue sémantique...

Bref, mis en place sur trois sites, à chaque fois en me repaluchant tous les extraits... et à chaque fois, entre +30% et +80% de trafic. C'est pas un test statistique probant, mais quand même :)

indigene a dit:
un contenu original composé de duplicate content.
Oh le bel oxymore....
indigene a dit:
Pourquoi vouloir mettre une description courte différente à chaque fois pour les produits ?
Parce qu'un assemblage "original" de contenu dupliqué, c'est du contenu dupliqué.


indigene a dit:
Tu as mal lu mon intervention. Je parlais de mettre une description de catégorie différente pour chaque page suite de la catégorie :

Page 1 : description de la catégorie et présentation des 10 premiers articles avec description courte des articles
Page 2 : autre description de la catégorie et présentation des 10 articles suivants avec description courte des articles
Page 3 : troisième description de la catégorie et présentation des 10 articles suivants avec description courte des articles.

Et tu fais ça comment ? Tu stockes un nombre de descriptions à l'avance, histoire de... ou bien il faut penser à faire ça à chaque fois qu'on créée un produit qui change le nombre de pages de catégories ? ^^

indigene a dit:
Mais sans doute qu'avec un wordpress c'est impossible à faire sans mettre les mains dans le cambouis.
Mon CMS perso 100 fois plus simple que WP fait ça nativement

ça faisait longtemps que tu n'avais pas gagné un point Wordpress :)

1- parce que ton CMS perso c'est "mettre les mains dans le cambouis" aussi (et pour le client final pas plus pas moins que d'utiliser un plugin)
2- parce qu'il y a plusieurs plugins qui le permettent :)
2- parce qu'on parle de Prestashop, et que tu es le premier à mentionner WordPress sur ce fil

J'ajouterais simplement que je suis allée voir une boutique faite avec ton CMS perso. Sans s'attacher à l'esthétique, je ne suis pas sûre que
"Boutique de xxxxx xxxxxxx - Index 1", puis ""Boutique de xxxxx xxxxxxx - Index 2" soient des titles qui incitent au clic et suffisamment différenciés.
Les balises metas des pages 1 et 2 diffèrent simplement par l'ajout de " Index des articles page 2" C'est super incitatif au clic!
Le résultat ? Sur le mot clé "Boutique de xxxxx xxxxxxx" le site du client apparait en bas de la troisième page de Google, mais pour sa page d'accueil, dont la description n'est pas pertinente pour la requête, puisqu'on n'y parle que de "conseils" et pas de boutique ou de vente.

Et quand on fait apparaitre la page, avec la commande "Boutique de xxxxx xxxxxxx site:example.com" on s'aperçoit que Google n'aime vraiment pas tes balises titles, puisqu'il y rajoute "example.com".
 
WRInaute accro
Marie-Aude a dit:
Pour info, ici on est dans le forum "débuter en référencement"...
....
De plus, tu n'as pas pensé que cette méthode permet de développer des archives de taxonomies qui sont beaucoup plus pertinentes d'un point de vue sémantique...

Je ne suis pas certains que les débutants arrivent bien à suivre ton raisonnement

Quand on débute on commence par trois choses :
- créer une page index.html
- ajouter un fichier robots.txt (vide pour l'instant)
- ajouter un favicon
 
WRInaute accro
indigene a dit:
Quand on débute on commence par trois choses :
- créer une page index.html
- ajouter un fichier robots.txt (vide pour l'instant)
- ajouter un favicon
Plus maintenant ...

on commence par :
- installer un module chez son hébergeur
- aller acheter un theme de daube sur envato (ils en vendent pour plein de cms)
- créer des des catégories, des familles produits, etc...
- avoir un super beau site inréférençable avec des images de plus de 2 mega
- venir sur wri

:lol: :lol: :lol:
 
WRInaute accro
venir sur wri
Pour faire
24-Full-Metal-Jacket-2.gif

Pour avoir fait :
- installer un module chez son hébergeur
- aller acheter un theme de daube sur envato (ils en vendent pour plein de cms)
- créer des des catégories, des familles produits, etc...
- avoir un super beau site inréférençable avec des images de plus de 2 mega
 
WRInaute accro
Pour en revenir au sujet, et penser "out of the box": quand on a de la pagination à outrance, ça peut signifier qu'il est possible de segmenter le contenu un niveau supplémentaire, et de générer des pages dont la thématique est encore plus précise.

Quant aux canoniques, aux noindex et aux nofollow... ce n'est pas de la stratégie de contenu: c'est de l'emplâtre :)
 
Discussions similaires
Haut