Les logiciels indispensables au référenceur

WRInaute occasionnel
Bonjour,

Je me posais la question de savoir quels sont les logiciels indispensables à tout référenceur.

D'après vous ?

Perso, j'aurais bien envie de dire que le strict minimum c'est un logiciel de suivi des positions dans les moteurs comme SEOSOFT.

Ensuite, je suis tombé dernièrement sur 2 logiciels qui pourrait être intéressant mais à vérifier. Scrapebox et xrumer. Qu'en pensez vous ?

D'autres logiciels à avoir ?
 
WRInaute discret
Bonjour,

perso j'utilise juste des sites internet comme:

- http://www.alexa.com/
- http://www.positeo.com/check-position/
- http://www.webrankchecker.com/
- http://www.positeo.com/check-duplicate-content/
- http://www.ranks.fr/ (30 jours gratuit)
- Google Analytics
- Outils Pour Les Webmasters (de Google)
- http://viewlike.us/
- http://www.opensiteexplorer.org/

Voilà j'en oublie mais je ne vais pas copier/coller la totalité des mes favoris pour le SEO et la gestion de mon site :P!


Cordialement,
Stéphane
 
Nouveau WRInaute
A Coup Sûr a dit:
Bonjour,

perso j'utilise juste des sites internet comme:

- http://www.alexa.com/
- http://www.positeo.com/check-position/
- http://www.webrankchecker.com/
- http://www.positeo.com/check-duplicate-content/
- http://www.ranks.fr/ (30 jours gratuit)
- Google Analytics
- Outils Pour Les Webmasters (de Google)
- http://viewlike.us/
- http://www.opensiteexplorer.org/

Voilà j'en oublie mais je ne vais pas copier/coller la totalité des mes favoris pour le SEO et la gestion de mon site :P!


Cordialement,
Stéphane

J'aurai pas dis mieux, positeo a quelques bug parfois, j'utilise "Rank tracker" en version gratuite il est pas mal, par contre on peut pas enregistrer nos mots clés dans cette version :(
 
WRInaute occasionnel
Leonick a dit:
johnny-57 a dit:
Scrapebox et xrumer.
avec le nouveau formulaire anti scrapping de gg :roll:
Aucune idée. Tout ce que je sais c'est que SEOSOFT par exemple continue de me donner les positions malgré ce formulaire dont tu parle mais que je n'ai jamais vu.
Mais peut être comme scrapebox utilise une grosse quantité de proxy sans cesse renouvelé et mis à jour, google ne le détecte pas en tant que tel.
 
WRInaute accro
en utilisant ou non des proxy, ça ne change que le fait de se faire (ou non) éjecter de gg lors de l'aspiration. Mais ensuite, la quasi totalité des fois, le scrapping n'est qu'une infame bouillie de texte et ça, c'est ce que gg veut pouvoir reconnaitre pour blacklister
 
WRInaute occasionnel
Leonick a dit:
en utilisant ou non des proxy, ça ne change que le fait de se faire (ou non) éjecter de gg lors de l'aspiration. Mais ensuite, la quasi totalité des fois, le scrapping n'est qu'une infame bouillie de texte et ça, c'est ce que gg veut pouvoir reconnaitre pour blacklister
J'ai du mal à comprendre. J'ai comme l'impression qu'on ne parle pas de la même chose.

Scrapebox extrait des résultats des moteurs de recherche une liste de blog sur la thématique voulue. Il permet ensuite de trier les résultats pour exclure ceux en nofollow et ensuite par PR.
Ensuite soit on est BH soit on est WH.
Donc soit on fait une publication en masse et complétement automatique de commentaire sur les blogs extraits soit on prends chaque blog un à un et on y publie un vrai commentaire adapté à chaque contenue.

J'oubliais au passage, web imago submit (outil d'aide à l'enregistrement dans les annuaires) peut être aussi un bon outil je pense.
 
WRInaute occasionnel
Leonick a dit:
je l'ai plus vu utilisé sous forme BH mais en ajoutant que "mais, on peut aussi l'utiliser en WH"
Ben oui, soit on spam à tour de bras et on aura pas plus à la récolte en qualité que celle qu'on à mis en semant.
Soit on l'utilise de manière pro et responsable et on ne s'en sert que pour dénicher les bons endroits où mettre nos liens en respect de l'éditeur du site, soit avec un commentaire en relation avec son blog.
 
Discussions similaires
Haut