Robots.txt non récupéré - Erreur serveur (5xx)

Nouveau WRInaute
Bonjour tout le monde,

Mon site a près de 10 ans et est très bien référencé par Google. Mardi, je me suis rendu compte que Google n'avait pas indexé mon article publié la veille. D'ordinaire, il indexe mon contenu très rapidement. Aujourd'hui, en me rendant dans la search console, dans paramètres -> robots.txt j'ai découvert cette erreur : Non récupéré – Erreur serveur (5xx). Pourtant, en me rendant sur l'url le fichier est accessible. J'ai réalisé des tests curl, à chaque fois j'ai une réponse 200. En creusant, j'ai réalisé que Google n'accédait plus à mes pages.

En effet, en prenant une page indexée, en cliquant Test en ligne, j'obtiens cette erreur :

La page ne peut pas être indexée : Indisponible en raison d'un problème affectant tout le site
Échec : Impossible d'atteindre Robots.txt

J'ai tout essayé, j'ai checké les logs dans OVH, mon hébergeur et rien.

Une chose étrange, c'est que tous les sous domaines ont le même soucis, sauf ceux hébergés ailleurs.

Je joins l'image des statistiques d'exploration qui tombent à zéro à partir le 12 février.

Avez-vous déjà eu un soucis similaire ?
 

Fichiers joints

  • Capture d’écran 2025-02-27 à 15.02.31.png
    Capture d’écran 2025-02-27 à 15.02.31.png
    75.2 KB · Affichages: 5
Nouveau WRInaute
Ha oui j'ai exactement le même soucis. Je m'en suis rendu compte ce matin et a savoir cela fonctionnait sans soucis lundi.
Hébergé chez OVH aussi et je n'ai rien touché de particulier sur ces deux jours...
 
  • Like
Reactions: JSS
Nouveau WRInaute
Merci pour vos réponses, je me sens moins seul! J'ai découvert la situation hier mais en creusant je me rends compte que l'exploration stoppe depuis le 13 février. Pareil lorsque je teste des url en ligne via search console, parfois cela me met que la page est inacessible à cause d'une erreur globale sur le site et depuis ce matin c'est accessible. Incompréhensible...
 

Fichiers joints

  • Capture d’écran 2025-02-28 à 09.04.33.png
    Capture d’écran 2025-02-28 à 09.04.33.png
    47.7 KB · Affichages: 1
Nouveau WRInaute
Idem pour moi chez OVH.... Voici nos stats sur 1 an dans GSC :

Image1.png

Depuis le 25 février je n'ai que des erreurs 5xx sur GSC et plus aucune page n'apparaît dans les résultats Google à part de très vieilles pages obsolètes.
Si j'essaie d'ajouter un sitemap, GSC me dit impossible en me renvoyant une erreur HTTP 429 "too many requests".

Dans les logs côté OVH il y a en effet des blocages avec erreurs 429 sur les robots Google (et je viens de m'en rendre compte, aussi sur les robots bing, apple, et meta...) :

[28/Feb/2025:06:02:35 +0100] "GET /robots.txt HTTP/1.1" 429 130 "-" "Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)"

Les fameuses erreurs 5xx indiquées par GSC n'apparaissent pas dans les logs.

Notre conf n'a pas changée. J'ai tout vérifié quand même : pas de blocage htaccess, pas de firewall activé sur le domaine, pas de dépassement de ressources...

J'ai fait un ticket chez OVH qui me répond que si j'effectue trop de requêtes sur un hébergement mutualisé, l'IP sera bloquée en général une heure, sauf si les requêtes continuent alors là le temps de blocage sera rallongé. Ca ne m'aide pas beaucoup, ça fait 4 jours qu'il n'y a plus aucun référencement parce que le robot Google n'a accès à rien, et que notre site a massivement chuté dans les résultats Google voire complètement disparu. Tout cela n'était pas bloqué avant... C'est inquiétant. Naturellement je suis preneur si quelqu'un a une solution, et je partagerai si jamais je trouve quelque chose...

A suivre......
 
  • Like
Reactions: JSS
Nouveau WRInaute
Merci beaucoup pour ce retour. En observant les logs j'a trouvé cette erreur :

Code:
H00124: Request exceeded the limit of 10 internal redirects due to probable configuration error. Use 'LimitInternalRecursion' to increase the limit if necessary.

Il s'avère que j'i fait des changements dans mon htaccess il y a quelques jours. J'avais rétabli une ancienne version mais le serveur devait garder en cache car notre directeur technique a supprimé et republié depuis OVH et là plus d'erreur 503 et le robots.txt est de nouveau indexable. Par contre cela n'explique pas je pense la chute. Donc à surveiller.
 

➡️ Offre MyRankingMetrics ⬅️

pré-audit SEO gratuit avec RM Tech (+ avis d'expert)
coaching offert aux clients (avec Olivier Duffez ou Fabien Faceries)

Voir les détails ici

coaching SEO
Discussions similaires
Haut