Vous utilisez un navigateur non à jour ou ancien. Il ne peut pas afficher ce site ou d'autres sites correctement. Vous devez le mettre à jour ou utiliser un navigateur alternatif.
Bonjour,
Je vois que google crawl systématiquement la page amp correspondante, mais dans les fait elles ne sortent pas dans les résultats, du coup je me demande si ca vaut le coup de continuer amp sachant que peut être elles comptent dans mon temps de crawl et donc au détriments des pages...
Bonjour,
Je travaille sur des cocons. Pour pouvoir respecter ceux-ci, il faut éviter que ça s'éparpille partout pour avoir vraiment une structure en silo.
J'ai déjà à moitié la réponse pour le nofollow et le robots.txt sur les pages annexes (mentions, vie privée, cgv) mais pas sur le menu...
Bonjour,
Savez-vous s'il existe actuellement une limite de taille pour le cache Google ? Il y a trèèèès longtemps (je parle d'un temps que les moins de 20 ans ne doivent pas connaître) Google allait jusqu'à 101 ko, mais cette limite avait sauté. Or j'ai un site actuellement dont les pages en...
Hello à tous,
Un de mes sites (sous prestashop) utilise actuellement le système de mise en cache de Fasterize. Cela permet de décharger considérablement mon serveur et permet donc un chargement beaucoup plus rapide des pages.
Toutes fois, dès qu'une modification est effectuée sur le site, je...
Bonjour,
voilà mon souci:
j'ai une boutique en ligne sous prestashop 1.6 avec le thème par défault responsive,
j'ai un module qui met les pages de mon site en cache,
Pour générer le cache j'utilise le logiciel Xenu's link sleuth,
Xenu crawl les pages en version PC donc les versions PC toutes...
Bonjour,
Google crawl toujours mon ancien robots.txt
A chaque fois il me sort en erreur mes vielles pages de mon site web.
J'ai basculé mon site en https au mois de mars 2017.
Pensez vous que c cela qui pose le problème
Le problème est identique avec bing qui vient de me desindexer depuis...
Bonjour,
Sur mon site j'ai beaucoup de pages de type :
https://www.monsite.fr/page.html?code=82&idpartenaire=60876
Ne souhaitant pas que Google les indexe, j'ai placé dans mon robots.txt la ligne :
Disallow:/page.html
Mais Google les indexe quand même ... !
Ma syntaxe est-elle mauvaise ...
bonjour à tous,
sur mon CMS prestashop j'ai cette ligne qui est considérée comme "erreur grave" dans GWT (outil test robots.txt) :
Disallow: /*?
faut-il la supprimer car elle bloque google pour accéder au dossier images
mais en même temps est-ce qu'en la supprimant, Google va se mettre à indexer...
Bonjour,
J'ai cherche sur le forum un ticket sur la pagination SEO mais rien trouvé du coup me voilà et je pense que ça peut interessé pas mal de monde.
Voilà j'ai un site de proposant des activité selon la ville demandée
J'ai donc plussieurs page par ville.
J'ai juste fait cela, est ce...
Hello tout le monde,
Après avoir commencer une analyse de log sur mon site, je viens de m'apercevoir que googleBot passe environ 50% de son temps à crawler des pages (environ 150k pages par mois) avec des paramètres de tracking dans les urls ainsi que des paramètre de sessions, qui n'ont donc...
Bonjour,
J'ai supprimé la pagination de mes pages, avant la suppression une page pouvait être découpée comme suit :
http://www.dicotravail.com/convention-collective/boulangerie-patisseri ... -idcc-843/
http://www.dicotravail.com/convention-collective/boulangerie-patisseri ... dcc-843/2/...
Bonjour,
Je souhaite vous présenter un nouveau crawler Seo https://www.prestacrawl.com/ .
Prestacrawl est un outil de diagnostic Seo permettant d'analyser en profondeur votre site Web. Il aspire toutes les pages de votre site et en déduit des indicateurs techniques et Seo.
Ce site s'adresse...
Lors de crawl sur mon site, je me suis rendu compte que j'avais presque 30 000 pages, pour seulement 6 000 produits.
Pour chacun de mes articles, plusieurs url sont créés : recommandé produit X à un ami, détail de livraison pour produit X, vous avez à une question sur produit X, etc...
Ces...
Bonjour,
mon site en SPIP à la particularité de mettre en disallow sur le robot.txt le repertoire /local/ où se trouve les images. Bravo...Selon des topics, ce fichier crée des erreurs d'indéxation car il y a des fichiers vignettes notamment et les préconisations sont de créer un sitemap avec...
Bonjour,
J'ai des page paginé sous wordpress, exemple : http://www.dicotravail.com/convention-collective/coiffure-jo-3159-idcc-2596/
Pour cette page il y a 3 pages différentes issu de la pagination.
Le problème : je me retrouve avec des balise title et h1 similaire sur toutes les 3 pages ...
Bonjour à toutes et à tous,
Mon GWT/exploration/outils de test du fichier robots.txt me colle un avertissement en face de la mention Crawl-delay: 10. Puis lorsque je passe ma souris sur l'icône d'avertissement, il me dit « Règle ignorée par Googlebot ».
Bon :? .
Je vais quand même sur...
Bonjour,
Lorsque je tape :
https://webcache.googleusercontent.com/search?q=cache:www.monsite.com
https://webcache.googleusercontent.com/search?q=cache:monsite.com
Je vois que c'est bien mon site affiché, mais tous les liens ne sont pas du tout les miens. Je me suis fait hacké le site et...
Bonjour,
Pour un site de 160 pages je découvre grâce à un crawler qu'il y a plus de 1000 url. La plupart des url "excédentaires" sont des url qui correspondent à des résultats de recherche de produit sur le site (moteur de recherche interne) ou tri des produits par des filtres et aussi par...
Suite à l'excellent article paru dans le blog de Google, j'ai rédigé un dossier que j'estime assez complet sur la notion de budget de crawl. Jusqu'à présent on entendait surtout Google dire que ça n'existe pas, mais ce n'est pas ce qui est (bien) expliqué dans leur article. Au contraire, en tout...
Bonjour et bonné année à tous,
Je souhaite utiliser Xenu Link Sleuth pour crawler un site mobile du type m.monsite.fr, donc différent du site desktop. Le site mobile est proposé de manière dynamique à l'utilisateur en fonction de la taille d'écran.
Si j'entre m.monsite.fr dans Xenu, il affiche...