Nouveau WRInaute
Quelque part sur le site il est dit ça:
SAuf que voilà moi ce n'est pas tout à fait ça que je voudrait faire.
* Hébergement premium 1and1
* Un répertoire racine, dans lequel il y a un répertoir logs, un répertoire test et un répertoire sites
* dans le répertoire site, des sous-répertoires site1 , site2 site3 etc...
La différence avec le cas cité pljus haut est qu'il y a aussi domaine1 domaine2 domaine3 etc (du .com du .net du .info etc..., enfin de vrais domaines), lesquels pointent DIRECTEMENT dans le sous-répertoire concerné.
Quelque part la racine de domaine1.com c'est le sous-répertoire sites/site1/
Je veux donc fair emon propre hébergement mutalisé.
Voici donc ma question:
A la racine de l'hébergement:
Est-il possible de faire un robots.txt qui interdise l'accès purement et simplement. (je ne veux pas que Google aille fouiller du côté de la vraie url).
MAIS
Dans CHAQUE sous répertoire site1 site2 site3 etc...
Faire un répertoire robots.txt qui souhaite la bienvenue à google et autres.
Est-il possible d'hermétiser chaque robots.txt de la sorte?
Est-il possible de créer un fichier robots.txt dans chaque répertoire ?
Non !
Le seul fichier robots.txt de votre site doit être situé à la racine
SAuf que voilà moi ce n'est pas tout à fait ça que je voudrait faire.
* Hébergement premium 1and1
* Un répertoire racine, dans lequel il y a un répertoir logs, un répertoire test et un répertoire sites
* dans le répertoire site, des sous-répertoires site1 , site2 site3 etc...
La différence avec le cas cité pljus haut est qu'il y a aussi domaine1 domaine2 domaine3 etc (du .com du .net du .info etc..., enfin de vrais domaines), lesquels pointent DIRECTEMENT dans le sous-répertoire concerné.
Quelque part la racine de domaine1.com c'est le sous-répertoire sites/site1/
Je veux donc fair emon propre hébergement mutalisé.
Voici donc ma question:
A la racine de l'hébergement:
Est-il possible de faire un robots.txt qui interdise l'accès purement et simplement. (je ne veux pas que Google aille fouiller du côté de la vraie url).
MAIS
Dans CHAQUE sous répertoire site1 site2 site3 etc...
Faire un répertoire robots.txt qui souhaite la bienvenue à google et autres.
Est-il possible d'hermétiser chaque robots.txt de la sorte?