Merci pour la réponse
Oui ces pages ne sont pas dans le sitemap, j'ai dès le départ ajouté le disallow dans le robots.txt pour ces pages et aussi la balise meta noindex, mais dans la GSC je ne sais pas pourquoi j'ai le problème bloqué par le fichier robots.txt, j'hesite à enlever le disallow car cela concerne des milliers de pages.
on s'en fiche
concentre-toi sur les pages envoyées : as-tu un super taux d'indexation ? as-tu une top qualité technique SEO sur ces pages ? ont-elles des bonnes performances dans les SERP (trafic et positionnement) ? Ce sont les points les plus importants. Pour info, mon outil les mesure et les synthétise dans la "matrice QualityRisk Zombies"