J'ai créé un sous domaine sur mon site pour un wiki, et étrangement il a choisis un des articles quelconque comme page principal, la page d'accueil apparaissant en deuxième et légèrement décalée.
Vous avez une idée de comment corriger ca
Et en plus il a fait du caca, malgré mon robots.txt il a commencé à référencer des pages d'édition du wiki, donc j'ai 24 pages en duplicate content (on les voit en cliquant sur le liens 'afficher les pages au contenus similaire).
J'ai regardé sur webmaster tools, et heureusement il semble avoir finalement compris, il indique que il y a 600 pages bloquées par le robots.txt.
Il va les effacer de lui même ou je vais devoir en faire la demande ?
Vous avez une idée de comment corriger ca
Et en plus il a fait du caca, malgré mon robots.txt il a commencé à référencer des pages d'édition du wiki, donc j'ai 24 pages en duplicate content (on les voit en cliquant sur le liens 'afficher les pages au contenus similaire).
J'ai regardé sur webmaster tools, et heureusement il semble avoir finalement compris, il indique que il y a 600 pages bloquées par le robots.txt.
Il va les effacer de lui même ou je vais devoir en faire la demande ?