Je ne sais pas comment font les autres moteurs, pour le miens, j'ai procédé de la manière suivante ;
-suis-je concerné par le USER-AGENT ?
dans ton 1er cas oui,
-Si OUI, qu'est-ce que je dois ignorer = chaque ligne qui contient disallow …
Donc, les 2 sont bons … le mieux est de ne pas en mettre, ca évite les confusions possibles et les erreurs.
1er ligne : tout les robots peuvent indexer votre contenu
2eme ligne: exclure tout fichier ou repertoire qui se trouve apres /
User-agent: *
Disallow: /(fichier ou repertoire)
2eme ligne : un fichier qui ne doit pas etre indexer par les robots
Si vous voulez specifier le robot qui ne doit pas indexer tout vos contenus modifier le premier ligne par le nom du robot
Ex: User-agent: googlebot
Disallow: /pages/
Voici un robots.txt sans exclusion
User-agent: *
Allow: /
Sitemap: addresse de votre sitemap
Host: addresse de votre site
Robots.txt avec exclusion
User-agent: *
Disallow: /
Sitemap: addresse de votre sitemap
Host: addresse de votre site
NB: chaque exclusion doit etre fait par une ligne de Disallow : /