Site hacké et gros nombre de pages à supprimer

  • Auteur de la discussion Auteur de la discussion scredko
  • Date de début Date de début
Nouveau WRInaute
Bonjour,
Quelle est la bonne pratique sur un site hacké ?
En 1 mois, Google a indexé plus de 800 pages de vi@gra suite à une faille sur un site.
Depuis, le site a été nettoyé mais les URL sont elles bien présentes dans l'index et amènent sur des 404. Pour un site qui comporte une 50aine de pages, 800 pages en 404 ça fait un beau signal...
L'option de suppression de Search Console est certainement fastidieuse et surtout la notion de "temporaire" me freine.
Je pensais donc recréer toutes les pages, les placer en no-index et balancer un sitemap de ces pages à Google.
Y a-t-il une solution plus rapide ou plus efficace ? Ou bien faut-il laisser faire la "nature" ?
Merci !
 
WRInaute accro
Salut

J'aurais tendance a dire que des pages 404 sont la meilleure chose à faire. une fois qu'elles ont été retiré et si elles ne sont plus linkées nulle part, ton site redeviendra petit à petit clean.

il n’existe plus aucun lien vers ces pages nulle part ?
 
WRInaute accro
par contre je ne sais pas si il existe un moyen de signaler a Google qu'il désindexe une grande quantité de pages. Plus vite elle seront désindexées moins tu auras de chance de te prendre une pénalité le temps que Google constate toutes tes 404
 
Nouveau WRInaute
Merci Noren.
La solution la plus rapide semble être la soumission sitemap.
Mais ca revient encore une fois à lister toutes les pages indexées par Google
Seul problème, je ne sais pas comment récupérer toutes les URL vu que Google n'en propose au final qu'une petite partie.
J'ai accès au log, mais la ça devient vite compliqué d'aller chercher les URL pourries.

Et je n'avais pas fait gaffe, mais le coup classique, d'autres sites infectés pointent sur le mien...
Bon bah nettoyage aussi à ce niveau dans un premier temps, nettoyage ensuite des URL avec un maximum de pages recrées placées en no-index + sitemap et pour le reste on va laisser les 404 faire le boulot.

Ca me parait être un bon compromis non ?
 
WRInaute accro
Si tu as beacuoup de pages en noindex, je ne suis pas certain que ca soit une bonne chose non plus. Il me semble qu'Olivier sur un de ses articles sur WRI parlait de masse noire.

les 404 ne seraient pas un problème si ces pages n'étaient pas linkées nulle part. Quoi qu'il en soit j'aurais tendance à penser que les 404 reste la meilleure solution. Surtout si tu reçois des BL externes "viagra" etc sur ces pages mieux vaut qu'elles soient en 404 et non en no index. Dans le 1er cas GG ne prendra pas en compte ce Bl dans le seconde oui même si la page cible est en no index (il me semble)

Attend la réponse de membres plus spécialisées que moi qui seront surement mieux te conseiller :wink:
 
Nouveau WRInaute
En effet, vu comme ça, tu as peut être raison.
On va commencer par le désaveu de liens, ce sera un bon début.
 
WRInaute occasionnel
scredko a dit:
En effet, vu comme ça, tu as peut être raison.
On va commencer par le désaveu de liens, ce sera un bon début.
Corrigé par erreur 404, donc désavouer des liens est inutile.
Par contyre, le lien reste. Dans la majorité des sites, la page 404 renvoie vers une page d'erreur (souvent avec des liens). Tous ces bricolages permettent finalement de renvoyer des liens, en plus avec des paramêtres dans le lien. OLa solution n'est pas erreurn 404 mais erreur 403 (pas une page mais une réelle erreur). L'avantage, c'est pas de passage de liens ou de paramêtres pour les visiteurs ou paramêtres. le défaut, plus aucun suivi des ces liens.
 
Nouveau WRInaute
patrick_lejeune a dit:
Corrigé par erreur 404, donc désavouer des liens est inutile.
Par contyre, le lien reste. Dans la majorité des sites, la page 404 renvoie vers une page d'erreur (souvent avec des liens). Tous ces bricolages permettent finalement de renvoyer des liens, en plus avec des paramêtres dans le lien. OLa solution n'est pas erreurn 404 mais erreur 403 (pas une page mais une réelle erreur). L'avantage, c'est pas de passage de liens ou de paramêtres pour les visiteurs ou paramêtres. le défaut, plus aucun suivi des ces liens.

Bonjour Patrick,

Pas sur d'avoir bien compris votre réponse.
Désavouer des liens en provenance de pages hackées, de manière massive n'a aucun intérêt ?
Il faut donc conserver les liens qui pointent depuis ces domaines (pages de viagra pointant ensuite sur mon site sur une page parlant aussi de viagra) mais faire passer toutes les pages hackées de mon site en 403 ?
Dans la pratique, on réalise cela comment ? via htaccess ? Genre ligne par ligne ?

Merci d'avance.
 
Nouveau WRInaute
Bon en fait, là ou ça se complique, c'est que les pages hackées "redirigent" désormais vers un site de pharmacie peu recommandable...
Mais il ne s'agit pas d'une redirection car code 200 sur la page hackée.
J'ai du mal à comprendre comment c'est possible :(

Si je crée un article avec la même URL que la page hackée, je bascule automatiquement sur le site de pharmacie.

Mon idée était de créer massivement des articles ayant les mêmes URL que les pages hackées et d'utiliser l'extension Wordpress 410 (qui permet de placer massivement des articles en 410) et ensuite soumettre un sitemap d'articles.
Problème, l'article bascule automatiquement sur le site pharmacie sans tenir compte de la 410 (testé avec d'autres articles, l'extension fonctionne parfaitement)

Par contre, en utilisant le htaccess et en redirigeant la page vers la 410 ça fonctionne mais au final, ça ne produit pas une 410 mais une redirection vers la 410.

Bref, je sèche un peu là.
 
WRInaute occasionnel
scredko a dit:
Bref, je sèche un peu là.
effacement complet du site par FTP, récupération de la base de donnée par MyAdmin et analyse du contenu (récupère en wordpad et fonction recherche sur notamment l'adresse du site de médicament. réinstallation du serveur si c'est le cas, pour un mutualisé: réinstallation de l'hébergement. Retransfert du site en FTP (et remise en place des chartres graphiques) et de la base de donnée.
Bref, on redémarre presque au début.

PS: encore un CMS pas mis à jour je présume :roll: (et en deuxième) continuez à utiliser des CMS (facile, pas chère et pas sécurisés)
 
Nouveau WRInaute
Oui au final vu que je ne trouve pas exactement l'origine de l'infection, c'est ce que j'ai prévu de faire.
Aucune trace en bdd du site pharmaceutique.
Malheureusement si, le CMS était a jour mais certainement pas assez sécurisé j'en conviens.
Par contre sur l'utilisation de CMS, facile, pas cher, sécurisé si on prend ses dispositions (tout autant voir plus qu'une solution maison) mais très efficace.
Bref, chacun voit midi à sa porte...
 
Discussions similaires
Haut