Laisser accessible du contenu qu'on veut désindexer

WRInaute accro
Bonjour,

J'ai un client qui dispose d'une newsletter lui permettant de reprendre dynamiquement certains articles de son site (en fait la newsletter reprends le chapo et les visuels), un lien étant ajouté en bas de la newsletter pour que la personne qui lit la dit newsletter puisse accéder à l'article complet. Ces même newsletters sont également accessibles directement depuis le site du client, depuis une page qui les répertorie et permet de les afficher.

Le souci c'est que pour le moment, on a géré ça dans une rubrique archive, donc on ne supprime ou on ne désative pas les articles. Le souci c'est que la rubrique archive commence à être trop imposante, et qui plus est cela pose également comme souci de laisser référencé sur Google certains articles caduques.

En gros le client veut laisser l'accès à ces articles pour quelqu'un qui aurait conservé la newsletter ou qui utiliserais la rubrique newsletter pour y accéder, mais supprimer peur à peu ces pages de l'indes de Google.

Le site est codé avec un SPIP 1.7 tellement tuné que toute mise à jour est difficilement possible.

J'ai donc l'idée suivante en tête :
1) utiliser le statut perime des articles, qui permet de les désactiver sans les supprimer de la base
2) quand quelqu'un clique sur un lien menant à un article perimé, étant donné que les template ne peuvent pas par défaut afficher celui-ci, je redirige sur un template spécifique qui affiche avec du PHP standard le contenu.

Ce que je souhaites faire, pour faciliter la désindexation de ces articles perimés, tout en les laissant accessible, ce serait envoyer un header qui ferait comprendre à Google qu'il ne doit pas indexer la page sur laquelle il va aller.

Mais quel code retour utiliser ? 410, 404 ? Et est-ce la bonne solution pour permettre l'accès à ces infos que je souhaite en parallèle désindexer ?
 
Nouveau WRInaute
Et pour quoi pas mettre la balise méta à "noindex, follow" en fonction d'une certaine date de pérenption, de cette façon google continue de suivre les liens mais ne référence pas la page, non?
 
WRInaute accro
kerbpm a dit:
Et pour quoi pas mettre la balise méta à "noindex, follow" en fonction d'une certaine date de pérenption, de cette façon google continue de suivre les liens mais ne référence pas la page, non?

Bein je comptais rajouter en effet ces balises sur ma page affichant l'article perimé, mais je ne suis pas sûr que cela suffise. Si la méthode auquel j'ai pensé peut permettre d'accélérer la suppression des pages de l'index une fois qu'elles seront perimées, ca serait pas mal.

Edit : Bon bein contrairement à ce que je pensais, ca a l'air de suffire pour désindéxer une page qu'elle possède cette meta. Je vais tester.
 
WRInaute accro
UsagiYojimbo a dit:
Ce que je souhaites faire, pour faciliter la désindexation de ces articles perimés, tout en les laissant accessible, ce serait envoyer un header qui ferait comprendre à Google qu'il ne doit pas indexer la page sur laquelle il va aller.

Mais quel code retour utiliser ? 410, 404 ? Et est-ce la bonne solution pour permettre l'accès à ces infos que je souhaite en parallèle désindexer ?

Tu supprimes un article -> tu ouvre un fichier texte dans lequel tu mets l'id de l'article.
ensuite tu te fais un petit code php qui li un tableau ( ton fichier texte que tu passe en tableau php) et qui redirige en 301 sur la page d'accueil tout les id du tableau. c'est simple, reindexé en 1 heure par Google et cela donne du poid a ta page accueil.
 
WRInaute discret
Pour Google, URL à supprimer dans la rubrique Webmaster tools (outils/ URL à supprimer) est la méthode la plus sûre.
De nombreux conseils sont affichés sur la page.
 
WRInaute accro
Dan_A a dit:
Pour Google, URL à supprimer dans la rubrique Webmaster tools (outils/ URL à supprimer) est la méthode la plus sûre.

j'aime mieux ma methode

1° je vise du moyen et long terme sur mon site, donc je le dynamise. Ne vais pas gagner en temps avec ma methode ? A chaque fois que je supprime un article, la redirection se fait automatiquement ^^

2° Pourquoi supprimer une url dans google alors qu'un 301 sur l'accueil ne fera que donner du poid a l'index ? Si techniquement le webmaster peut mettre des redirections automatiques 301 sur ces pages supprimées, autant qu'il ne s'en prive pas.
 
WRInaute accro
Sauf que les url doivent rester accessible pour les utilisateurs lambda. Il n'y a que pour les outils de recherche que je veux les rendre innaccessible.
 
WRInaute accro
et ?

if (REFERER == moteurs de recherche) {{ redirection 301 }}

Quelque que soit la methode, d'un coté tu desindexes une url et de l'autre tu garde le lien de l'url et l'url sur ton site. Hummm.. Et une rubrique Archives tu n'y as jamais penser ?
 
WRInaute accro
KOogar a dit:
et ?

if (REFERER == moteurs de recherche) {{ redirection 301 }}

Quelque que soit la methode, d'un coté tu desindexes une url et de l'autre tu garde le lien de l'url et l'url sur ton site. Hummm.. Et une rubrique Archives tu n'y as jamais penser ?

Si mais le client ne veut plus la laisser active (voir le premier post), parce qu'elle commence à être pour le moins remplie.

Je tente ta solution dès lundi :-)
 
WRInaute accro
UsagiYojimbo a dit:
KOogar a dit:
et ?

if (REFERER == moteurs de recherche) {{ redirection 301 }}

Quelque que soit la methode, d'un coté tu desindexes une url et de l'autre tu garde le lien de l'url et l'url sur ton site. Hummm.. Et une rubrique Archives tu n'y as jamais penser ?

Si mais le client ne veut plus la laisser active (voir le premier post), parce qu'elle commence à être pour le moins remplie.

Je tente ta solution dès lundi :-)

1 minute pls ;)

A si méprendre, on pourrait penser a une forme de cloaking ?
je suis ou pour la suppression complete des urls, ou pour un archivage des urls ou passer ces urls en mode session mais pas trop pour cette forme de cloaking.

Enlever ces urls dans "Google URL à supprimer" est surement la moins risquer.

Mais encore un fois, GG peut ne pas bien le prendre. D'un coté tu retire des urls et de l'autre GG t'envoi des clients sur ton site qui vont tres certainement clicker sur des urls qui sais existantent (parceque tu as garder les liens) mais qu'il ne peut pas controler. a voir comment GG le prend ;)
 
WRInaute accro
Et en plus de toute ceci, imaginons que je génère dynamiquement un robots.txt contenant la liste des url que Google ne doit pas toucher, composées des url vers les articles desactivés ?

En fait je ne veux pas que ces url soient accessibles depuis un moteur de recherche. Et le nombre d'url à désindexer est trop important pour passer par le GWT.

Mon but n'est pas de faire du cloacking, mais de laisser dans certains cas accès à des url qui n'ont plus aucun sens en dehors d'un certain contexte (les cas dont je parle).

Sinon il est vrai que la solution de l'archivage serait pas mal, avec balises meta qui vont bien sur les pages de cette rubrique archive.
 
WRInaute accro
UsagiYojimbo a dit:
Sinon il est vrai que la solution de l'archivage serait pas mal, avec balises meta qui vont bien sur les pages de cette rubrique archive.

si tu fais le choix de l'archivage.... déplace les pages dans un répertoire /Archives/ et tu ne devrais pas avoir a changer les metas puisque leur nouvelle localisation est indiqué dans l'url.
 
Discussions similaires
Haut