david_WRI a dit:Juste pour information vous utilisez quel système pour la génération du sitemap ?
en général, tu sais comment sont générées les pages par rapport à la bdd, donc créer un sitemap par rapport à ces règles n'est pas dur à fairedavid_WRI a dit:Juste pour information vous utilisez quel système pour la génération du sitemap ?
Hmmm je supprime ou pas alors ce fichier robot.txt ? :lol:StefouFR a dit:Je ne comprends pas ce robots.txt vide expliqué plus haut par indigene, cela équivaut au meta robots index,follow qu'on voit parfois. Complètement inutile.
Un conseil supprime tout simplement le robots.txt s'il est vide ou si tu autorises tout ! Le seul cas où tu pourrais le laisser alors que tu autorises tout cela sera pour indiquer ton sitemap.xml, même si dans GWT on peut l'indiquer. C'est vraiment le seul cas "utile".
Pour le favicon ce n'est pas bête, mais le problème ne vient pas de là.
Le sitemap.xml je le génère aussi en manuel avec notepad comme indigene.
Pour éviter la 404 que ces gros neuneux de bots font générer 20 fois par jour pour voir si tu as pas changé d'avis ... En tous cas c'est pour ça que les miens sont vides mais présents.noren a dit:vaut mieux un fichier robots.txt vide que pas de fichier
Et pour éclairer tes toilettes tu construit une centrale nucléaire dans le jardin ? Je me demande parfois si les gens ont une vague notion de leur éco responsabilité dans la vie ... Non seulement ton sitemap c'est pour le flan d'un point de vue SEO, mis a part prévenir plus vite de l’apparition d'une page tous les 10 jours mais si c'est juste pour ça tu peux largement ajouter une url a la mano a chaque fois que tu publie des fois que tu ne sache pas faire une requête sur une base de données ...david_WRI a dit:Pour le crawler, j'utilise un logiciel de mon côté, xml-sitemap de tête
Au vu de ta réponse et le ton utilisé, tu sembles supérieur à tout le monde.zeb a dit:Pour éviter la 404 que ces gros neuneux de bots font générer 20 fois par jour pour voir si tu as pas changé d'avis ... En tous cas c'est pour ça que les miens sont vides mais présents.noren a dit:vaut mieux un fichier robots.txt vide que pas de fichier
Et pour éclairer tes toilettes tu construit une centrale nucléaire dans le jardin ? Je me demande parfois si les gens ont une vague notion de leur éco responsabilité dans la vie ... Non seulement ton sitemap c'est pour le flan d'un point de vue SEO, mis a part prévenir plus vite de l’apparition d'une page tous les 10 jours mais si c'est juste pour ça tu peux largement ajouter une url a la mano a chaque fois que tu publie des fois que tu ne sache pas faire une requête sur une base de données ...david_WRI a dit:Pour le crawler, j'utilise un logiciel de mon côté, xml-sitemap de tête
ça me fait penser a GG qui te présentent 10 pages de résultat intermédiaire le temps que tu tape ta requêtes tout ça ... Comment va tu faire quand très bientôt tu n'aura plus les moyens de te payer tout ce gaspillage de ressources ?
un gain de temps ? faire crawler l'intégralité d'un site pour trouver les nouvelles pages et supprimer du sitemap celles n'existant plus, tu appelles cela un gain de temps ? :roll:david_WRI a dit:Je maîtrise parfaitement SQL, j'ai utilisé xml-sitemap pour un gain de temps
Il n'y pas que le temps de développement, il faut comprendre comment sont structuré les fichiers sitemaps, j'estime à 1 jour de développement que je n'ai malheureusement pas pour le momentspout a dit:+1 Leonick. Ca dépend l'outil utilisé, dans mon framework ça met moins de temps à coder que de crawler tout le site.
Oui.spout a dit:1 jour de dev 8O
Tu codes en ASM ?
spout a dit:X-Powered-By: PHP/5.4.4-14![]()
c'est sur qu'en lisant les consignes de ggdavid_WRI a dit:Il n'y pas que le temps de développement, il faut comprendre comment sont structuré les fichiers sitemaps,
ça laisse augurer une extrême complexité de création :mrgreen:google a dit:pour les sitemaps Web de base (sitemaps contenant exclusivement des URL de pages Web, mais ne contenant ni images, ni vidéos, ni autres données spécifiques), vous pouvez transmettre à Google un simple fichier texte en indiquant une URL par ligne.
C'est exactement ça plus un retour d'info dans GWT qui n'a d’intéressant que son côté hightech dans des conversations de salon (bref du vent).david_WRI a dit:Si c'est juste une question de latence entre le moment où ma page est publiée et son indexation
Mauvais calcul tu met le serveur a genoux et vue le nombre de pages qui étaient crawlées jusque mi avril on peut supposer un site volumineux (30k crawlé par jour pour 500k pages sur le site chez moi) donc ton système met une grosse patate au serveur a chaque passage. Si de plus pour par faire chier le monde tu fais tourner ça de nuit (juste quand les bots décides de passer pendant la période calme de ton serveur) tu as toute les chances de générer pas mal de pages lentes voir inaccessibles. Dans ce cas les bots lâchent l'affaire rapidement.david_WRI a dit:j'ai utilisé xml-sitemap pour un gain de temps
moi c'est ça qui m'intéresse : à quoi ça sert que gg pompe des ressources au serveur en crawlant des pages tous les jours, alors qu'elles n'ont eu aucune modification sur les 6 derniers mois (voire plus) ?david_WRI a dit:Au niveau trafic ça n'a visiblement pas impacté
C'est peut être aussi une erreur de ma part, mon sitemap n'était pas optimisé : je ne me suis pas occupé des attributs de fréquence des pages, est-ce que du coup Google en tenait compte et a fini par "comprendre" que finalement c'était pas très pertinent ce que j'avais mis ?Leonick a dit:moi c'est ça qui m'intéresse : à quoi ça sert que gg pompe des ressources au serveur en crawlant des pages tous les jours, alors qu'elles n'ont eu aucune modification sur les 6 derniers mois (voire plus) ?david_WRI a dit:Au niveau trafic ça n'a visiblement pas impacté
➡️ Offre MyRankingMetrics ⬅️
pré-audit SEO gratuit avec RM Tech (+ avis d'expert)
coaching offert aux clients (avec Olivier Duffez ou Fabien Faceries)
Voir les détails ici