Bonjour à tous,
Dans une optique d'optimisation du budget de crawl sur mon site, je me demande quelles peuvent être les conséquences de disallow les ressources en JSON de mon site (via robots.txt). (répartition du temps de crawl par type de ressource en photo, issu de GSC).
Quelles...
Bonjour à tous,
Je suis en charge d'optimiser le SEO d'un site e-commerce de vente de pièces poids lourds de toutes marques : https://www.protruckshop.com/
Etant un site avec un catalogue d'une grosse volumétrie (des centaines de milliers de produits) comme les sites Oscaro et Mister Auto, je...
Bonjour à tous,
Je possède un site internet qui connait une chute impressionnante au niveau des requêtes crawlées chaque jour par Google. Aucune baisse au niveau des recherches organiques.
J'ai uniquement récupéré quelques articles (via des 301) d'un autre blog suite à une fusion mais cela...
Bonjour,
Mon site n'est pas énorme mais en regardant un peu plus en détail la nouvelle Search Console, je vois que dans le rapport Valides "Indexée, mais non envoyée via un sitemap", j'ai un grand nombre d'URL qui pointent vers des images WordPress, qui bizarrement ne s'ouvrent pas dans une...
hello,
Pouvez vous me dire ce qui se trouve dans le robots.txt de wordpress/woocommerce et ce que vous bloquez ?
Google indexe toutes les pages de categories / catalogue qui ont un ? dans le lien, donc peut etre que c'est une bonne idée de bloquer toutes les pages qui ont un ? dans...
Suite à l'excellent article paru dans le blog de Google, j'ai rédigé un dossier que j'estime assez complet sur la notion de budget de crawl. Jusqu'à présent on entendait surtout Google dire que ça n'existe pas, mais ce n'est pas ce qui est (bien) expliqué dans leur article. Au contraire, en tout...