Bonjour,
Pour un site de 160 pages je découvre grâce à un crawler qu'il y a plus de 1000 url. La plupart des url "excédentaires" sont des url qui correspondent à des résultats de recherche de produit sur le site (moteur de recherche interne) ou tri des produits par des filtres et aussi par ordre de prix.
Bien entendu je ne veux pas que les robots passent du temps sur ces pages mais je ne sais pas comment faire.
Quelle est la meilleure solution ?
Merci pour votre aide.
Pour un site de 160 pages je découvre grâce à un crawler qu'il y a plus de 1000 url. La plupart des url "excédentaires" sont des url qui correspondent à des résultats de recherche de produit sur le site (moteur de recherche interne) ou tri des produits par des filtres et aussi par ordre de prix.
Bien entendu je ne veux pas que les robots passent du temps sur ces pages mais je ne sais pas comment faire.
Quelle est la meilleure solution ?
Merci pour votre aide.