Bonsoir,
Je viens de lire l'article de WRI concernant l'URL rewriting.
Mais je me pose une petite question :
Est-il recommandé de ne pas généré plus d'un certain nombre de pages dynamiquement ?
Par exemple est ce que cela poserait un problème si un site dynamique créait 1 milliard de pages dépendants de quelques mots clefs générés automatiquement ?
Est ce que google pourrait prendre cela pour une sorte de spam ?
Est ce que cela ne serait pas conseillé sur un petit hébergement car cela consommerait trop en BP (si les bots doivent crawler 1milliard de page a chaque fois...)
Voyez vous d'autres soucis ? Ou cela au contraire est il totalement négligeable ?
Merci d'avance pour vos réponses !
Je viens de lire l'article de WRI concernant l'URL rewriting.
Mais je me pose une petite question :
Est-il recommandé de ne pas généré plus d'un certain nombre de pages dynamiquement ?
Par exemple est ce que cela poserait un problème si un site dynamique créait 1 milliard de pages dépendants de quelques mots clefs générés automatiquement ?
Est ce que google pourrait prendre cela pour une sorte de spam ?
Est ce que cela ne serait pas conseillé sur un petit hébergement car cela consommerait trop en BP (si les bots doivent crawler 1milliard de page a chaque fois...)
Voyez vous d'autres soucis ? Ou cela au contraire est il totalement négligeable ?
Merci d'avance pour vos réponses !