[Etude de cas] Mon traitement des pages zombies et des inactives

WRInaute occasionnel
Bonjour à tous,

J'ai décidé de venir poster ici l'étude de cas de mon propre site web sur les pages zombies.
Cela permettra d'avoir un retour concret, accessible à tous.

Voici le contexte : j'ai un site web de 2011 qui d'habitude tourne à 3.5/4K visites par jour.
La dernière mise à jour de mars 2019 a été la première a toucher négativement mon site. Résultat, je suis aujourd'hui entre 2.5/3K visites par jour. C'est pas un drame, on est d'accord, même si d'un point de vu business c'est 50% de revenu en moins ! (et là c'est dramatique!) Bref.

Je viens de passer une heure ce matin à répertorier via google analytics toutes les pages qui ont fait moins de 2 visites par jour. Je suis gentille, j'aurais pu aller encore au delà, mais ça sera déjà un bon début. Je précise que j'ai aussi le rapport d'Olivier via RM Tech qui me liste l'ensemble des pages zombies, mais j'ai voulu le faire personnellement pour bien intégrer cette masse noire sur laquelle je dois absolument travailler.
Je le savais depuis longtemps, mais je n'avais pas idée à quel point ...

Résultat : le site a 334 urls indexées, 71% d'entres sont des pages zombies !
Concrètement pour google, c'est un signale d'une qualité médiocre puisque 3/4 de mon contenu n'est pas vu.

J'ai décidé d'agir et de suivre les recommandations d'olivier sur les pages inactives

Le soucis c'est que beaucoup de ces pages sont des pages ayant un "bon" contenu que je dois améliorer, mieux cibler les besoins utilisateurs et améliorer leur expérience et le référencement. Ça va donc me prendre un bon moment d'avant de pouvoir faire mon retour ici.

@bientôt donc :)
 
Dernière édition par un modérateur:
WRInaute accro
attention, on dirait que tu confonds page zombie et page inactive

J'ai l'impression aussi.

Il faut également faire l'étude sur une grande durée (un an) et pas uniquement sur une journée.

De plus, il arrive que des pages de très bonne qualité qui rankent très bien se retrouvent à un moment donné à perdre beaucoup en positionnement (suite à un update google par exemple) et à ne plus du tout générer de trafic (une page qui passe de la première page de résultats à la seconde page de résultats par exemple). Et à la place on trouve de nouvelles pages qui se mettent à générer du trafic alors qu'avant elles n'en généraient que très peu. Pourtant rien n'a été modifié en terme de contenu de ces pages et de liens effectué vers ces pages. Ça ne veut pas dire que ces pages sont devenues zombies ou qu'elles sont de piètre qualité puisque par le passé google les appréciait. Ça peut venir de l'effet nouveauté, de la concurrence, de la conjoncture (sujet d'actualité qui ne le devient plus). On peut avoir d'un seul coup une page très ancienne qui se met à générer beaucoup de trafic parce qu'un grand média a fait un reportage sur le sujet abordé par cette page et pendant quelques jours il y a des milliers d'internautes qui vont faire des recherches sur ce thème, ou alors l'arrivée d'un nouveau lien externe peut faire monter d'un coup la page dans les positionnements ou apporter beaucoup de trafic de gens qui suivent ce lien externe (tant que la page d'origine du lien à du succès).

Et je pense que c'est une erreur de cibler les pages en fonction de leur trafic car tu peux avoir une page de qualité très médiocre qui reçoit un lien d'un site très fréquenté et qui a pour seuls visiteurs les gens qui suivent ce lien alors qu'elle a un positionnement minable sur google pour ses mots clés principaux. Là tu vas passer à côté d'une page à améliorer. Ce qui compte pour le SEO c'est bien uniquement le positionnement dans les moteurs donc il ne faut retenir que le trafic généré par les moteurs et chercher à améliorer ce trafic en améliorant le positionnement de la page (ce qui peut être fait par l'obtention de nouveaux liens). Mais le trafic généré par l'obtention de nouveaux liens ne doit pas être pris en compte.

Pour savoir si une page reçoit du trafic venant des moteurs on peut être certain que non si la page ne reçoit aucun trafic. Donc au lieu de retenir les pages générant moins de 2 visites par jour il faudrait retenir les pages recevant moins de 1 visite par mois (ou par an).
 
WRInaute occasionnel
Bonjour Olivier,

En plein dans le mille, car pour moi une page inactive est de fait une page zombie puisque pas ou peu de visite.
Je reprends donc tes définitions ici pour que ce soit clair pour tout le monde :

Une page zombie est une page qui non seulement cumule énormément de problèmes (et risque de décevoir l’internaute) mais aussi qui n’a pas de succès (génère pas ou très peu de visites SEO sur 1 an, est rarement consultée, rank très mal…). https://www.webrankinfo.com/astuces/definition-page-zombie

Quand on parle de « page active », il s’agit d’une page qui a généré au moins 1 visite. OK, mais que dire des pages qui n’ont généré qu’une seule visite en 1 an ? Ou même 2, ou 10 ? Reconnaissez que c’est encore extrêmement peu. https://www.webrankinfo.com/dossiers/conseils/pages-actives-sur-1-an

Du coup, le titre du post devrait être "mon traitement des pages zombies et des pages inactives".
Sachant que pour ma part, il va être drastique, puisqu'un article qui ne génère moins de 360 visites par an, sera étudié.
Pourquoi autant ?
Parce que depuis tout ce temps j'ai compris que pour renvoyer une image de qualité aux yeux de google, il faut avoir un site ayant des articles d'une grande qualité, qui répondent à un besoin réel des utilisateurs.
Un article qui ne fait pas une seule visite par jour, sachant le nombre d'internaute qui naviguent chaque jour, c'est qu'il y a un problème quelque part - outre la saisonnalité.

Hier j'ai commencé avec la suppression (410) de 97 urls sur 237. Avec ton message ce matin, je me suis dit que j'avais dû faire une grosse bêtise. Du coup, j'ai mis en corrélation les urls que j'ai relevé avec le récapitulatif de l'audit RM Tech. Ouf c'est bon ! (à l'exception d'une page, que j'ai rapidement remis en ligne ce matin).

La suite au prochain épisode
 
WRInaute accro
Les pages qui font peu de visites ce n'est pas parce que ce sont des pages de faible qualité. Ça peut venir d'autres raisons :
- sujet de niche
- grande concurrence avec des gros sites

Crois-tu par exemple que ma page consacrée au maskilili va faire énormément de visites ? Pourtant c'est la page la plus complète sur le sujet car c'est une synthèse des 20 premiers résultats de google.
Et ma page sur le vitalomètre a généré seulement 10 visites en 3 mois alors que pourtant elle est première dans google.

Pour moi c'est "esoterisme" qui m'apporte le plus d'impressions dans les résultats mais pourtant j'ai un taux de clic de 0,82% malgré mon très bon positionnement : à cause de la très forte concurrence (wikipedia, larousse, linternaute, universalis, etc...).

En plus, en supprimant des pages, tu supprimes des liens vers les autres pages qui restent, donc ton linking interne est affecté. Et la prise en compte de toutes ces modifications sur l'ensemble du site va prendre plusieurs mois. Quand google l'aura pris en compte un nouvel update aura été mis en place et tu seras soit affecté par autre chose ou alors tout va revenir comme avant et ça ne sera pas en raison de la suppression de ces pages.

Supprimer les vraies pages zombie c'est bien, mais supprimer 40% des urls c'est peut-être pas bien du tout. Est-ce que tu as seulement vérifié que ces pages supprimées ne recevaient pas de liens externes spontanés ?
 
WRInaute occasionnel
Bonjour Indigène,

J'ai lu avec attention ton message. Si je dois me préoccuper uniquement des pages qui ne génèrent qu'une seule visite par an - alors je n'en ai qu'une seule.
Pourtant, si je regarde d'un point de vue user, il y a beaucoup de page sur mon site qui ne vont pas - et qui ont besoin soit d'être suppr, soit d'être regroupées, soit d'être revues - parce que même moi lorsque je tombe dessus je me dis "mais qu'est-ce que c'est que ça" :D. Entre autre ce sont des pages que je traîne depuis les débuts du site, ou je n'y comprenais pas grand chose au SEO et où ma richesse sémantique n'était pas au point - sans parler de mon orthographe !

Je comprends parfaitement le principe de saisonnalité, de buzz temporaire, d'effet de mode, ou même du positionnement tout simplement. D'ailleurs, tant que j'y pense, j'ai bien pris une période d'un an dans l'évaluation, et pour certaine je suis remontée jusqu'à 2 voir 3 ans en arrière pour être sûre.

Donc la grande question - qui je pense diffère selon le site en question - à partir de quand peut-on juger qu'une page est inactive ou insuffisante pour rester tel quel sur le site. Moi j'ai fixé à 360 visites min par an. Sachant que les pages que j'ai suppr font pour la grande majorité moins de 100 visites. Certaines varient entre 100 et 250 visites.

@spout : ben oui, ferme les yeux pour voir ... TA-DAAA :p -www.toutsurleschiens.com

Edit :
J'ai regardé le linking => j'ai bien deux urls qui avait un bon lien. Je vais contacter les webmaster pour voir avec eux s'ils peuvent modifier. La plupart n'en ont pas, et quelques une ont un lien de corporama ou simplesite, rien à voir avec ma thématique.
Par contre le maillage interne justement je suis en train de corriger les quelques erreurs qui remontent.
Le site étant formé en cocon sémantique, ma crainte était justement de briser ces cocons par inadvertance et tout saccager.
Je te rejoins sur la prise en compte de google et que d'ici là on aura une nouvelle mise à jour. C'est fort probable et il sera très difficile (voir impossible) de donner un retour concret
 
Dernière édition:
WRInaute accro
@spout : avant qu'il ne me demande la même chose je lui donne un outil : http://www.dramatic.fr/boule-de-cristal-p531.html

@freestyle83 : tu as sans doute des pages qui ont soit besoin d'être améliorées ou alors réellement supprimées. Mais parfois il suffit de quelques liens internes pour les booster. J'avais à une époque beaucoup de mal à faire référencer correctement (les faire se positionner) mes pages de catégories. La solution a été de démultiplier les pages en les découpant (un paragraphe par page), ce qui a eu pour effet d'apporter de nombreux liens aux catégories et même de multiplier les liens à la page principale. En passant de 500 urls à 4000 urls ça donne à mon site beaucoup plus de poids par rapport à de tous petits sites. J'ai aussi beaucoup plus de souplesse pour faire du linking interne et pour ranker sur des expressions qui étaient seulement le sujet d'un paragraphe de la page mais qui sont maintenant le sujet de la page (exemple : culte de lilith). Mais c'est clair que je me retrouve avec 3000 urls que tu considèrerais comme des pages zombies ou inactives selon ton analyse. Pourtant mes catégories ont progressé de 10 à 20 positions. Ces "fausses" pages je les supprimerai quand mon site aura atteint un nombre de publications plus conséquent. Je vais essayer de me limiter à 10 000 urls. Mais autant mon blog aide à propulser mes articles de fond (on en avait déjà parlé à une époque au sujet des nuages de mots), cette technique m'aide aussi en gonflant l'importance du site.
 
WRInaute occasionnel
Pourquoi te fixer un objectif de 10 000 - pour ensuite supprimer les pages ?

Je comprends bien que la multiplication des articles te permet d'avoir un plus grand nombre de lien internes entre eux, avec des ancres différentes, destiné à pousser les pages.

Mais si personne ne les lit, quel importance google va-t-il donner à ces pages ? Et si ces pages sont en grandes quantité, par extrapolation, est-ce que ça ne va pas influencer l'appréciation du site dans sa globalité ? Sans parler du risque de chute lorsque tu supprimeras tes urls.

Ce sont des questions ouvertes, car pour ma part je suis convaincu que la force d'un site dépend des pages qui le compose. Et si seulement 30% de ces pages génèrent un réel intérêt, alors la force du site ne serait que de 3/10. Finalement, ça devient un site médiocre - malgré tout le mal qu'on peut se donner par ailleurs.
 
WRInaute accro
Mon objectif au départ était d'atteindre 2000 pages de qualités car la plupart des sites concurrents sur le thème avaient 2000 pages référencées (dont certaines de piètre qualité). 2000 me semble être une bonne grosseur, une masse critique. A partir de là on passe à la marche supérieur des sites moyens. Ensuite la prochaine marche est 5000. Et à 10000 on devient un gros site qui a souvent besoin d'un serveur dédié; En restant dans la tranche 5000-10000 le site est encore gérable sans qu'il ne demande plus de moyens.

Avec 10000 pages j'aurai assez de pages pour faire tous les liens internes que je veux donc il n'y a plus d'intérêt de multiplier le nombre de pages pour en avoir plus.

Et je n'ai jamais dit que ces pages n'étaient pas de qualité. Elles sont de la même qualité que les grandes pages, mais plus courtes et avec uniquement du duplicate content. Parfois elles rankent mieux que la page complete (exemple : "culte de lilith" par rapport à "lilith"). Elles multiplient mes mots clés et ma longue traine. Sans elles le site serait composé uniquement de pages très longues qui font parfois 2000-4000 mots.

Les gens lisent ces pages. C'est juste qu'ils ne tombent pas forcément dessus directement depuis les serps. Ça me fait plus de pagination tout simplement et pour des requêtes hyper précises on tombe bien dessus directement.

Je ne vois pas trop pourquoi google me pénaliserait pour cela car beaucoup de gens découpent leurs gros articles en plusieurs parties plus petites. J'ai juste plein de pages entre 300 et 700 mots au lieu d'en avoir une grosse.

Et c'est seulement provisoire, le temps d'atteindre la masse critique en terme de contenu. J'en suis maintenant à 890 articles publiés et près d'une centaine dans le blog.

Et je me demande même si un tel découpage n'est pas profitable aux mobiles car on tombe directement sur la partie recherchée alors que si la page n'était pas découpée on devrait faire défiler longtemps, longtemps pour arriver à ce qu'on cherche.

A noter que ce découpage n'est implémenté que pour les mobiles. Pour un desktop on voit toute la page dans son intégralité car il est plus facile de manipuler des longs articles sur un desktop.
 
WRInaute accro
Et je vais même plus loin. Souvent j'ajoute des "pages-index". Au lieu de faire des sous-catégories assez lourdes à gérer pour parfois seulement deux ou 3 articles, j'ajoute une page avec un tout petit texte (200 à 300 mots) et des liens vers les 2 ou 3 articles concernés. Elles viennent s'intercaler comme des articles au sein du site mais avec un mot clé différent.
Si tu ne comprends pas bien je t'explique avec un exemple.
 
Olivier Duffez (admin)
Membre du personnel
Je viens de tester (sur desktop) et j'ai obtenu un message d'avertissement sur le site, me disant que j'étais arrivé sur une page destinée aux mobiles. Etrange car ce n'était pas le cas (selon moi).
La vraie question à se poser c'est "est-ce que ma stratégie actuelle est efficace ?". Est-ce que passer de 2000 à 5000 pages est rentable ? (sachant qu'on pourrait aussi se demander si passer de 2000 à 800 l'est aussi).
Sur WebRankInfo, en 2 ans de travail d'élaboration de ma méthode "zombies", je suis passé de 2300 articles à 900 environ, en augmentant le trafic et certains objectifs.
 
WRInaute accro
Pour tenter de répondre à cette question, avant de faire ça j'avais énormément de mal à positionner en première page de résultat mes catégories. Les mots clés de ces catégories sont très concurrentiels car ce sont des mots assez communs et souvent recherchés :
esoterisme
magie noire
magie blanche
paranormal
magie arabe

J'arrivais pour certains en positions 25 à 30 alors que certaines pages rankaient bien.
Depuis le découpage les catégories sortent en première page des serps

Maintenant j'ai le même problème avec les sous-catégories créées récemment car le découpage n'est pas encore entièrement fait pour les dernières pages ajoutées. Quand j'aurai fini on verra si je sors mieux sur ces sous-catégories (ufologie, archéologie).
 
WRInaute accro
Et dans ton cas tu avais deux points importants très différents de mon cas :
- tu avais déjà atteint une certaine masse critique (plus de 2000 articles) alors que j'étais à 500
- tu avais déjà une grande notoriété

Comme je l'ai dit, quand j'aurai atteint une certaine masse je vais réduire moi aussi.
 
Olivier Duffez (admin)
Membre du personnel
Tu parles bcp de positionnement, mais ce n'est pas une méthode efficace pour évaluer l'efficacité globale. Il faudrait plutôt parler de l'impact sur les revenus générés par le site (ou ses objectifs mesurés, ou sinon son trafic organique total)

Pour la suite je suggère qu'on reste sur @freestyle83 et que @indigene crée une discussion à part pour parler de son site et de sa stratégie
 
WRInaute accro
@WebRankInfo : Une autre question qu'on peut se poser :

Quel est l'un des 5 sites les plus visités de France, en dehors des moteurs de recherche et des réseaux sociaux, et quelles sont ses techniques pour systématiquement squatter les premières places sur tous les sujets ?

Si tu cherches par exemple :
baclou
maskilili
et que tu visites le premier site qui arrive en tête tu vas découvrir une page à 80% vide avec quelques titres à des paragraphes de deux lignes.
Visite ensuite le mien sur ces deux requêtes. Et pourtant j'arrive loin derrière. Comment font-ils si ce n'est par une multiplication de liens vers ces pages vides, par des pages-index qui pointent vers ces pages vides, par une grosse masse critique de pages et une énorme réputation ?
En plus sur la page vide du premier mot-clé ils font un lien nofollow vers ma page sur laquelle ils ont pompé 80% de leur page vide.
 
Olivier Duffez (admin)
Membre du personnel
C'est quand même le principe même du SEO
Sinon ça s'appelle du SEA du SEM, du web marketing ou je ne sais quoi d'autre.
Sur un forum de SEO c'est quand même mieux de discuter SEO, non ?
je te dis que se baser sur le positionnement de ton site pour quelques requêtes n'est pas la bonne façon de valider que ta méthode de travail/optimisation est la bonne.
 
WRInaute accro
Pour le cas de freestyle83 (comme pour le mien), je suppose qu'il ne s'agit pas d'être positionné sur seulement quelques requêtes mais bien sur toutes les requêtes en rapport avec les thèmes abordés sur les pages. Et donc d'augmenter son trafic.
A moins que le seul objectif ne soit pas d'augmenter son trafic mais seulement d'augmenter ses revenus. A freestyle83 de nous le dire.
Au passage il faudrait changer l'année du copyright pour paraître plus à jour
 
Olivier Duffez (admin)
Membre du personnel
à moins de surveiller le positionnement de milliers (ou bien plus) de requêtes, il est donc plus précis a priori d'évaluer ce que ça a rapporté (en CA, et si ce n'est pas possible de le mesurer, en trafic)

maintenant, on a hâte de lire la suite des histoires de @freestyle83 :-)
 
WRInaute accro
oui, on l'attend avec impatience, mais elle est sans doute partie sortir son chien.

Pour surveiller des milliers de requêtes j'ai une technique assez simple que j'utilise quotidiennement.
 
WRInaute accro
En l'attendant, en plus de l'année du copyright on pourrait peut-être aussi lui dire que Google+ n'existe plus et que sa page facebook n'a pas été mise à jour depuis deux ans. Trois critères possibles pour signaler à Google qu'il s'agit d'un site désaffecté. Qui se charge de lui dire ?
 
Olivier Duffez (admin)
Membre du personnel
"elle est sans doute partie sortir son chien."
inutile d'être aussi désagréable avec les autres membres, tout le monde n'est pas disponible sous 5 minutes pour répondre au forum
surtout quand le 1er post précise "Ça va donc me prendre un bon moment d'avant de pouvoir faire mon retour ici."
 
WRInaute accro
"elle est sans doute partie sortir son chien."
inutile d'être aussi désagréable avec les autres membres, tout le monde n'est pas disponible sous 5 minutes pour répondre au forum
surtout quand le 1er post précise "Ça va donc me prendre un bon moment d'avant de pouvoir faire mon retour ici."

Mais je t'ai fait quoi pour que tu sois aussi hargneux contre moi ?
A deux reprises tu m'as demandé de ne plus intervenir sur ce fil alors qu'un débat intéressant avait lieu et à maintes reprises nous avions eu par le passé des débats tout aussi intéressant avec freestyle.
A ta demande j'ai ouvert un autre fil que je pensais voir censuré.
Il l'a été. Ce que j'ai écris a été modifié.
Et je ne peux même plus le remodifier moi-même ni le supprimer. C'est une atteinte à la liberté de rectification.
Et maintenant tu cherches à me faire passer pour "désagréable" alors que c'est toi qui t'acharne contre moi sans raison.
Je comprend mieux maintenant pourquoi tous les intervenants historiques, sauf une petite poignée, ont déserté ce forum.
Si tu ne comprends pas l'humour il faut arrêter d'intervenir sur ton forum. C'est un lieu censé être un espace d'expression, de débat et de dialogue. On n'est pas à la République en Marche ici, quand même.
Il faut vraiment qu'on échange par messages privés comme le fut le cas le 11 août 2015, le 17 avril 2016 ou encore le 28 juin 2016 où les débats entre freestyle et moi ont du se terminer de cette façon ?
Quand il y a des gens qui se moquent des nouveaux en balançant des gifs animés amusants mais moqueurs, tu n'es jamais là pour les sanctionner. Mais quand un vrai débat s'installe, le moindre petit clin d’œil entre membres est pris de travers. C'est quoi ici ? La gestapo, le KGB ?
Si quelqu'un à quelque chose à redire à ce que j'ai pu écrire c'est peut-être bien à l'intéressée de le faire. Elle est assez grande pour se défendre seule. Mais je me souviens, dans son dernier MP elle me remerciait de lui avoir donné de bons conseils en MP qui lui ont peut-être évité une pénalité. Je ne vois pas pourquoi elle prendrait maintenant de travers mon humour.

Par contre, sache que ce qu'elle a écrit "Ça va donc me prendre un bon moment d'avant de pouvoir faire mon retour ici." est du second degré. Si tu n'avais pas compris cela nous avons un nouveau membre qui est psychologue. Il faudrait peut-être aller consulter chez @tniknev
 
WRInaute occasionnel
Personnellement l'intervention d'Indigène ne me dérange pas. Je trouve au contraire que c'est bien d'avoir d'autres exemples de stratégie et d'échanger sur ces différentes méthodes. C'est une façon de grandir aussi.
D'autant plus que les résultats vont mettre du temps a arriver.

Après c'est vrai qu'on s'éloigne des pages zombies et inactive, ce qui peut gêner le référencement de ce post ;) ou entraîner la confusion et l'incompréhension des autres lecteurs.

Pour répondre aux dernières questions qui été posées : mon objectif prioritaire est avant tout d'avoir un site de qualité. J'ai fait tilt en lisant un article de backlinko (qui est sur la même longueur d'onde concernant les pages zombie) lorsqu'il dit que 63 de ses articles génèrent 392k visiteurs mensuels. Soit 200 visites en moyenne par jour sur chacun de ces articles.
Là je me suis dit : google adore les sites comme ça, c'est un signal ultra positif et lorsqu'il publie un nouvel article, il est déjà avantagé sur ses concurrents. Evidemment, il y a une question de notoriété, de popularité, ce dont je n'ai pas. Mais cela se gagne au fils du temps, et cela se gagne en publiant des articles qui répondent à réel besoin. Lorsque backlinko publie un article, je sais d'avance que je ne vais pas être déçue, et inconsciemment je lui fais confiance. Il est d'ailleurs le seul à se jour, à avoir réussi à me faire lire plus de 5000 mots sans que je ressente à un moment donné de la lassitude ou de l'ennuie. Habituellement je survole, je lis en diagonale, voir carrément je vais directement à l'info recherché mais pas chez lui.

Bien sûr, lorsque le trafic augmente, le CA augmente (et inversement), donc ce n'est pas non plus totalement désintéressé.

Pour les liens vers les réseaux sociaux, c'est vrai. Je sors de 18 mois de travail à deux sur une refonte total de l'architecture du site (developpement). La nouvelle version n'a pas encore été déployée, donc il reste quelques erreurs, dont celles que tu as relevé Indigène.

Pour l'instant, le seul retour que je peux donner est une baisse de trafic sur la journée d'aujourd'hui comparé à la semaine dernière qui elle-même a été la plus basse depuis la mise à jour de l'algo ( j'ai changé de registrar et de DNS).
Aujourd'hui j'ai corrigé les erreurs de lien dans les articles, et comme dit Indigène, ça va certainement prendre quelques temps avant de voir un résultat.

J'ai l'impression que pour les autres sites (en tout cas, ceux en exemple dans les dossiers d'Olivier et de Backlinko) le changement se voit dès le lendemain. Pour ma part, chaque fois que j'ai fait une grosse modification sur mon site, j'ai d'abord une baisse le temps que google réévalue et ensuite une hausse (ou une baisse permanente et là cata, ça m'est déjà arrivé suite à une erreur ayant entraîner un duplicate content).
 
Olivier Duffez (admin)
Membre du personnel
A ta demande j'ai ouvert un autre fil que je pensais voir censuré.
Il l'a été. Ce que j'ai écris a été modifié.
mensonge. Je n'ai pas modifié ton post. J'ai juste ajouté "SEO" devant le titre "comment lutter efficacement contre notre ennemi juré ?" pour que sortie du contexte, la discussion soit compréhensible.

A deux reprises tu m'as demandé de ne plus intervenir sur ce fil
faux ! J'ai demandé qu'on ne mélange pas les discussion. Quand quelqu'un démarre une discussion pour raconter son expérience, on ne s'attend pas à ce que d'autres parlent d'autre chose. Maintenant, si l'auteur de la discussion souhaite finalement qu'on parle d'autre chose que de son retour d'expérience, soit.

si tu continues de m'associer à la Gestapo, c'est pas des messages privés que tu vas recevoir. C'est une fermeture de compte. Je ne t'ai jamais insulté !!!
 
Discussions similaires
Haut