Vous utilisez un navigateur non à jour ou ancien. Il ne peut pas afficher ce site ou d'autres sites correctement. Vous devez le mettre à jour ou utiliser un navigateur alternatif.
Bonjour à tous,
Il y a maintenant une semaine j'ai basculé mon site http en https
url: https://www.detour-images.com/
J'ai donc modifié mon fichier .htaccess
RewriteEngine on
RewriteCond %{REQUEST_SCHEME} =http
RewriteRule (.*) https://%{HTTP_HOST}%{REQUEST_URI} [R=301,L]
Mais je peux lire...
Bonjour,
Suite à un piratage, je me retrouve avec 400000 pages indexées.
Depuis, le site a été retravaillé et nettoyé. Que me conseillerez-vous de faire :
- Supprimer les pages via Google Search Engine et continuer le travail de référencement, ou
- changer le nom de domaine et faire des...
Bonjour,
Tout est dans le titre.
J'ai approx. 300 pages que je souhaite désindexer de google parce que ce sont des pages de faible qualité.
Je les ai retiré du site pour qu'elles ne soient plus crawlables et elles sont renseignées en balise "noindex".
J'ai essayé plusieurs astuces, je crois ...
Bonjour,
Je rencontre un problème récurrent suite à une fusion de 3 sites web à un seul.
Exemple :
Lorsqu'on recherche "Althéa Ingénierie" dans Google, le site en premier est en effet althea-ingenierie.fr alors que son Title est "Abrotec" (un des anciens sites fusionnés). La page elle-même...
Bonjour,
Je me permets de vous poser quelques questions ici, à propos de mon site
En fait je me suis aperçue que les backlinks sur search console avaient disparus. Bon je n'en avais pas des tonnes mais quand même 35 sites différents qui référençaient mon site (des sites de qualité, sur la...
Bonjour à tous,
Mon site subit depuis novembre une chute considérable de nombre de pages indexées sur google, et passe de 1 million de pages à 620 mille aujourd'hui et ça continue, pourtant dans Google Webmaster le nombre est toujours presque le même 1.100 mille pages, une chute de 30 % du...
Bonjour,
Je vois que google crawl systématiquement la page amp correspondante, mais dans les fait elles ne sortent pas dans les résultats, du coup je me demande si ca vaut le coup de continuer amp sachant que peut être elles comptent dans mon temps de crawl et donc au détriments des pages...
Bonjour,
J'ai un ensemble d'URLs de type:
/index.php/page1.htm
/index.php/page2.htm
/index.php/page3.htm
...
Ces Urls proposent le même contenu de l'accueil ainsi qu'ils sont indexées.
Je veux bien désindexer ces URLs au niveau du htaccess
La commande suivante est-elle correcte?
RewriteCond...
Bonjour,
Si Googlebot a dans son index des urls avec duplicate content (ex même page avec une fonction de tri) et que l'on met en place une url canonical, est-ce qu'il va "nettoyer" son index pour ne conserver que l'url primaire ?
Merci pour vos réponses.
Steve
Bonsoir à tous,
Merci tout d'abord à ce forum qui m'a aidé plus d'une fois :-) ! Je suis face à un problème que j'ai du mal à comprendre. Mon site est en ligne depuis un peu plus d'un an : la thématique est hyper concurentielle. > https://latelier4you.com
Mon problème est que très...
Bonjour,
Savez-vous s'il existe actuellement une limite de taille pour le cache Google ? Il y a trèèèès longtemps (je parle d'un temps que les moins de 20 ans ne doivent pas connaître) Google allait jusqu'à 101 ko, mais cette limite avait sauté. Or j'ai un site actuellement dont les pages en...
Hello à tous,
Un de mes sites (sous prestashop) utilise actuellement le système de mise en cache de Fasterize. Cela permet de décharger considérablement mon serveur et permet donc un chargement beaucoup plus rapide des pages.
Toutes fois, dès qu'une modification est effectuée sur le site, je...
Salut tout le monde.
Je vous contact car j'ai un soucis assez étrange.
Mon site: http://lasortie.fr/ a actuellement 3260 pages mais ds la meme journée ( le soir ) environ 6500 pages
Mais bon le lendemain boom je repasse à 3260 pages et hop comme ça tous les jours depuis 2 semaines.
Je ne...
Bonjour,
voilà mon souci:
j'ai une boutique en ligne sous prestashop 1.6 avec le thème par défault responsive,
j'ai un module qui met les pages de mon site en cache,
Pour générer le cache j'utilise le logiciel Xenu's link sleuth,
Xenu crawl les pages en version PC donc les versions PC toutes...
Bonjour,
Google crawl toujours mon ancien robots.txt
A chaque fois il me sort en erreur mes vielles pages de mon site web.
J'ai basculé mon site en https au mois de mars 2017.
Pensez vous que c cela qui pose le problème
Le problème est identique avec bing qui vient de me desindexer depuis...
Le site test de mon site : test.xyz.com a été indexé par erreur :!:
J'ai corrigé le tir, en ajoutant des balises noindex. Cependant les pages de mon site test n'ont pas été crawlées depuis plus de 2 mois ce qui parait logique puisqu'elles ne reçoivent aucun lien.
Pour remédier à ce porblème...
slt tt le monde
j'ai consulté le rapport page de destination sur analytics et j'ai trouvé une trentaine de pages mais quand je fais un test d'indexation ces pages sont toutes désindexées. qq'un parmi vous a une explication svp?
Merci
Bonjour,
Je souhaite vous présenter un nouveau crawler Seo https://www.prestacrawl.com/ .
Prestacrawl est un outil de diagnostic Seo permettant d'analyser en profondeur votre site Web. Il aspire toutes les pages de votre site et en déduit des indicateurs techniques et Seo.
Ce site s'adresse...
Bonjour,
Nous avons identifié un problème de masse noire sur mon site (mon www). À savoir, les pages tags et auteur étaient indexées, et en plus les fichiers médias étaient en index. Résultat : aux yeux de Google la moitié de mon site comportait des pages sans texte unique, donc sans intérêts...
Lors de crawl sur mon site, je me suis rendu compte que j'avais presque 30 000 pages, pour seulement 6 000 produits.
Pour chacun de mes articles, plusieurs url sont créés : recommandé produit X à un ami, détail de livraison pour produit X, vous avez à une question sur produit X, etc...
Ces...