c'est assez logique : un disallow dans le robots.txt empêche le robot de revenir voir les pages qu'il avait déjà indexées.jidébé a dit:Bonjour,
J'ai un site perso pour lequel j'ai tout interdit dans le robot.txt et ce depuis maintenant deux ou trois ans.
Google ne vient plus crawler ce site, par contre ce qui avait été indéxé avant la mise en place du robot.txt est toujours dans l'index et je reçoit de temps en temps des visites envoyées par Google.
En résumé pour moi c'est deux choses différentes, si tu veux ne plus être dans l'index il faut demander la suppression des url concernées.
A+
Jean-Denis
➡️ Offre MyRankingMetrics ⬅️
pré-audit SEO gratuit avec RM Tech (+ avis d'expert)
coaching offert aux clients (avec Olivier Duffez ou Fabien Faceries)
Voir les détails ici