Update Google 25 juin 2013 ?

WRInaute impliqué
C'est dur de voir car en même temps il y a les soldes!
Pour les noms de domaines avec mots clés, c'est une très bonne chose que Google aurait du mettre en place depuis un moment.
 
Nouveau WRInaute
Et apparemment c'est pas fini :
http://www.davidnaylor.co.uk/google-confirm-new-update-ready-will-take-until-after-4th-july-to-complete.html
 
WRInaute accro
alors oui on dirait bien que ca bouge, mais difficile à l'heure actuel en ce qui me concerne d'en tirer des conclusions, d'autant plus que je continuais déjà de bouger depuis le pingouin 4.

Avec les chaleurs, les vacances scolaires etc., ça fausse un peu la donne. Mais j'ai quand même constaté des chutes de qulues positions et certaines montées. Mais les chutes semblent plus importantes.

Ca devient vraiment très dur maintenant de ne pas être pénalisé, que ça soit par panda, pingouin ou les nombreuses mega grosses mises à jour que google met en place. On dirait réellement qu'ils veulent redistribuer les cartes.

Un jour il combat le contenu, ensuite nos liens, puis le thème, puis la couleur et bientôt ca sera en fonction de notre gueule !

Et il y a ceux qui cumulent les pénalisations
 
WRInaute discret
oui ça bouge et pas en bien, je me fais ouvrir sur tous les mots clés que je bosse...
vivement la fin de ces périodes à la con, je pensais avoir passé le plus dur avec penguin... et bim

mon site www.nettoyer-la-maison.com si certains souhaitent faire des échanges de lien faites signes!
 
WRInaute occasionnel
Tu peux inscrire ton site sur autolink-seo.com
C'est un des rares de mes sites qui n'a pas pris de gifle ces 3 derniers jours :mrgreen:
 
WRInaute discret
Ah ben tout s'explique...

1372463356-google-shit.jpg


Mercredi, donc, c'etait le 26. Soit le lendemain de la MAJ...

Et pour les noms de domaine a mot clef je rigole... "monjeanbleu.com" passe devant "jeanbleu.com" putain bien joué google, quelle maj, çà coule de source !!! Rajouter "mon" c'est tellement plus crédible qu'un stupide domaine avec un keyword parfait.
 
WRInaute impliqué
Entre pingouin et cette mise à jour j'ai la section articles qui s'est pris une grosse claque : -30% et comme c'est une section qui représente 30% des visiteurs (1 000 000 / mois pour cette section ), je vous laisse imaginer ...
Pourtant, d'un point de vue qualitatif, tous les articles sont originaux et écris en interne par nos rédacteurs.
Bon, donc, je vais chercher les raisons de ce désamour soudain.

D'un autre côté, une autre partie qui représente à la base le même traffic que cette section fait +20% alors qu'il n'y a aucun nouveau contenu, ni rien d'original dedans.

C'est décourageant pour le côté quali ...
 
WRInaute accro
De toute façon, on l'a bien compris... le contenu de qualité n'est pas important pour GG. Il faut juste qu'il ne doit pas être en DC.
 
WRInaute accro
noren a dit:
On dirait réellement qu'ils veulent redistribuer les cartes.
Quand on constate les types de sites qui passent devant c'est le profil gros portail avec gros moyen gros linking nat et SEO ... sincèrement j'ai vraiment l’impression que c'est du "filtrage artisanat" qui est mis en place. C'est pas une histoire de qualité ou de liens c'est tout bonnement une histoire de soit tu as les moyens soit tu ne les a pas.
Si on mettait le CA des taulier en parallèle on aurait surement le même classement qui n'a rien a voir avec le contenu.
Gralon a dit:
D'un autre côté, une autre partie qui représente à la base le même traffic que cette section fait +20% alors qu'il n'y a aucun nouveau contenu, ni rien d'original dedans.
Je serais curieux de connaître la partie non impactée sur ton portail car on est sur des secteurs proches, on se croise sur G+ assez souvent (cf : Flora) et je me demande si tu n'est as en train de parler de notre point commun où je sent aussi que toutes mes pages "pauvres" remontent au détriment de mes pages "riches". Bref le pari sur la qualité ne paie pas pour le moment sauf vis a vis de l'utilisateur.
 
WRInaute discret
Cette mise a jour elle contente personne en fait, les sites de qualité dégagent, les daubes reviennent sur le devant et les gros se positionnent sur des trucs où ils n'ont rien à faire là...
 
WRInaute accro
Nettoyerlamaison a dit:
les daubes reviennent sur le devant et les gros se positionnent sur des trucs où ils n'ont rien à faire là...
tu ne peut donc pas dire qu'elle ne contente personne : au moins ces sites sont contents :mrgreen:
 
WRInaute occasionnel
Editer les posts pour rendre les liens non cliquable c'est minable comme attitude.
Je suis le forum depuis 2008, je n'ai rien d'un spammeur.
Si vous avez peur pour votre précieux "jus" il suffit de tout mettre en nofollow, c'est quand même plus pratique que de surligner puis cliquer un lien.
 
WRInaute accro
Text Link 4.0.2011021601 permet de charger une page web seulement en double cliquant sur l'url même si elle n'est pas cliquable.
C'est un add-on Firefox et ça fonctionne très bien
 
WRInaute passionné
Une baisse aussi chez moi le 26 mais c'est assez difficile d'etre certain que c'est l'update qui est en cause, car j'ai cumulé quelques erreurs de liens ces derniers sur des tests, mais aussi par une bizarrerie qui vient peut etre de mon serveur car Google a indexé des pages n'existants pas dans les répertoires de destination et a mélangé les sous domaines.

C'est peut etre mon serveur dédié qui fatigue, mais ces milliers d'erreurs 404 sont surement en cause sur cette baisse, sans compter le 25 qui est le jour des soldes avec toutes ces dames a fouiller les "vraies" boutiques ...
Et en plus ... c'est les débuts de vacances pour certains ...

En résumé, 9% de baisse chez moi, mais surement pas bcp de rapport avec cet update.
 
WRInaute impliqué
Bonjour Mr Gralon,

Je suis intéressée par votre retour d'expérience sur cette mise à jour.

Vous disiez avoir perdu gros avec cette mise à jour... (-30% sur la partie rédactionnelle)

Qu'en est-il aujourd'hui ? Avez-vous trouvé des parades ?
Avez-vous du mettre Audrey au chômage technique ?

Désolée, je suis curieuse et le retour d'un "gros" site est tjrs appréciable.

Merci.
 
WRInaute occasionnel
Gralon a dit:
'un autre côté, une autre partie qui représente à la base le même traffic que cette section fait +20% alors qu'il n'y a aucun nouveau contenu, ni rien d'original dedans.
C'est décourageant pour le côté quali ...
C'est aussi ce qu'on a observé.
Depuis les mises a jour Panda (a priori on n'a pas été affecté par Pinguin), c'est a dire depuis Février 2011: trafic divise par 4 ! (-75%) alors qu'en même temps notre contenu original a quasi doublé, et on a aussi amélioré navigation, architecture du site et sections tout en développant une forte présence sur les réseaux sociaux.
Contenu original français/anglais = -80% contre contenu en traduc auto portugais -20%
Donc Panda qui se concentre sur la qualité, malheureusement c'est faux :-(
Pour nous c'est plié, on ferme cet automne :(
 
WRInaute impliqué
Merci pour ce retour EasyExpat.

Attention d'autres pages de faibles qualités peuvent plomber le référencement de votre contenu rédactionnel.

Avez-vous tenté une auto critique de votre site en vous mettant à la place de Google Panda ?

C'est à dire quelles sont nos pages référencées qui sont en DC et celles à faibles valeurs ajoutées.

En creusant un peu et en ouvrant les yeux sans pitié pour son site on en trouve souvent beaucoup : articles de mois de 200 mots, pages de forum avec peu de contenu (1 question mais pas de réponses, ...), pages de formulaires...

En faisant une requete sur GG:

site:www.easyexpat.com

Vous avez le message : "Afin d'afficher les résultats les plus pertinents, nous avons omis quelques entrées qui sont très similaires aux 695 entrées actuelles.
Si vous le souhaitez, vous pouvez relancer la recherche pour inclure les résultats omis."

Ce qui veut dire qu'il y a du Duplicate Content selon Google dans les pages indexées. C'est un signe fort..

De plus la commande site renvoit : 315 000 pages.

Est-ce que vous avez vraiment autant de pages proposées dans votre Sitemap ou y-a-t-il une masse noire de pages indexées que vous ne maitrisez pas ?
 
WRInaute accro
Je confirme que la qualité et la quantité de contenu panda s'en moque éperdument.
j'ai moi même augmenté la quantité et la qualité de mes articles depuis novembre 2012 (suite à une pénalité panda) et je continu de chuter.
pingouin à fini le travail d'extermination!

Par contre la monté de forums, blogs, sites non mis à jour depuis belle lurette semble s’accélérer. Sans oublier les sites inutiles de type seobidule, sitessimilaires, diggtruc... (voir sujet : https://www.webrankinfo.com/forum/ras-bol-des-findsimilarsites-3ref-seotruc ... 66157.html)
On voit également les mastodontes prendre encore plus de places pour tout et n'importe quoi (commentcamarche, wikipedia etc)

Et les SERPs bougent beaucoup continuellement, c'est démoralisant!
 
WRInaute occasionnel
Jeanne5 a dit:
Merci pour ce retour EasyExpat.

Attention d'autres pages de faibles qualités peuvent plomber le référencement de votre contenu rédactionnel.

Avez-vous tenté une auto critique de votre site en vous mettant à la place de Google Panda ?

C'est à dire quelles sont nos pages référencées qui sont en DC et celles à faibles valeurs ajoutées.

En creusant un peu et en ouvrant les yeux sans pitié pour son site on en trouve souvent beaucoup : articles de mois de 200 mots, pages de forum avec peu de contenu (1 question mais pas de réponses, ...), pages de formulaires...

En faisant une requete sur GG:

site:www.easyexpat.com

Vous avez le message : "Afin d'afficher les résultats les plus pertinents, nous avons omis quelques entrées qui sont très similaires aux 695 entrées actuelles.
Si vous le souhaitez, vous pouvez relancer la recherche pour inclure les résultats omis."

Ce qui veut dire qu'il y a du Duplicate Content selon Google dans les pages indexées. C'est un signe fort..

De plus la commande site renvoit : 315 000 pages.

Est-ce que vous avez vraiment autant de pages proposées dans votre Sitemap ou y-a-t-il une masse noire de pages indexées que vous ne maitrisez pas ?

Merci de cette analyse Jeanne5. Je vais essayer d'y répondre rapidement :-)

auto critique de votre site en vous mettant à la place de Google Panda>> oui et on s'est dit "c'est n'importe quoi ce Panda" ;-) Mais bon, comme on a la culture du doute, on s'est aussi dit qu'on avait besoin d'un regard extérieur (malheureusement Olivier Duffez m'a répondu qu'il était trop busy sur la période, comme quoi on a cherché les meilleurs ! 8) ) Donc on a demandé a une boite SEO connue en 2012 et après 6 mois ils nous zont dit: "ben on sait pas, merci pour les €12000 euros".

pages référencées qui sont en DC et celles à faibles valeurs ajoutées>> pas de DC justement, on fait tres attention. De même on n'hésite pas a mettre en NOINDEX quand le contenu est faible: par exemple els pages des annonces et des répertoires qui n'ont pas de contenu sont automatiquement en NOINDEX.
Et non, pages similaires ne veut pas dire DC. Ce peut être expatriés en France et expatriés au Canada par exemple. Et heureusement que Google arrive a voir que ce sont des pages qui entrent dans la même catégorie ;-)

articles de moins de 200 mots>> on cherche a limiter, mais bien sur sur n'importe quel forum on en a a foison... même ici ;-) Par ailleurs nous avons déjà vu plein des contenus de moins de 200 mots mais ciblés se plaçant avant un article de grande qualité ...

312 000 pages>>il n'y a pas de masse noire ;-) Le contenu est justement très grand. Rien que sur le forum on atteint facilement >150,000 pages en comptant les messages, les profils...etc.

Et donc je suis d'accord avec Noren:
noren a dit:
c'est démoralisant!
 
WRInaute accro
J'ai également constaté que le nombre de mots dans un article n'était pas si important, j'ai des articles avec plus de 300 mots qui sont dans les choux et des articles avec 50 mots qui sont bien positionnés.

En ce qui me concerne je met également les pages ayant peu de contenu ou du DC en noindex (depuis plus de 2-3 ans). Et ça ne fait strictement rien.

On se fait chier mais on se fait quand même passer devant par des sites qui ne se prennent pas la tête avec tout ça.

D'ailleurs google ne semble plus capable de traiter le DC interne pour afficher la page la plus pertinente. Chose qu'il est à la base sensé faire au lieu de sanctionner nos sites pour du DC interne.
 
WRInaute occasionnel
noren a dit:
J'ai également constaté que le nombre de mots dans un article n'était pas si important, j'ai des articles avec plus de 300 mots qui sont dans les choux et des articles avec 50 mots qui sont bien positionnés.

En ce qui me concerne je met également les pages ayant peu de contenu ou du DC en noindex (depuis plus de 2-3 ans). Et ça ne fait strictement rien.

On se fait chier mais on se fait quand même passer devant par des sites qui ne se prennent pas la tête avec tout ça.
Je ++ :mrgreen: Tout pareil pour nous et 150% d'accord... ça fait plaisir de voir qu'on n'est pas les seuls à penser cela... (j'en ai un peu marre des réponses: Google a forcement raison donc c'est que tu fais des trucs pas comme il faut :evil: )

C'est pas exactement sur la thématique, mais ici un très bon article montrant qu'un contenu fait pour les visiteurs peut se faire sanctionner : http://www.miss-seo-girl.com/et-si-les-seo-manipulaient-google/
(nous a chaque fois qu'on a privilégié les utilisateurs depuis Panda, a chaque fois aucune différence, voir la sanction Google).
 
WRInaute impliqué
Merci EasyExpat... je vois que vous avez déjà étudié la question de près...

Mon idée n'était absolument pas de dire : "Google a forcement raison donc c'est que tu fais des trucs pas comme il faut".

Mais plutôt de dire : "Il y a forcément un truc qui cloche selon Google dans le site pour que Google le déclasse".
Qu'il ait raison ou pas.
Je ne pense pas à l'aléatoire dans l'algorithme.

Après est-ce que la règle qui s'enclenche pour vous déclasser est pertinente ou non, telle n'est pas la question pour l'algo de Google... il considère la règle certainement globalement bonne même s'il y a de l'effet de bord...

Avec le référencement Google, nous sommes dans un jeu dont on ne connait pas les règles et dont les règles changent continuellement.
Soit on accepte de jouer, soit on se retire comme vous allez le faire...

Peut-être que c'est fait aussi, mais à votre place je reviendrai sur le forum qui est une grosse partie de vos pages référencées.
Rappelez-vous que quelques semaine avant Panda : "Comment ça marche" a desindexé en masse ses Posts avec peu de contenu.... et que au final ca lui a pas mal réussi.

De même vos pages Profils ont-elles vraiment un intérêt pour le moteur ?
 
WRInaute accro
Jeanne5 a dit:
Vous avez le message : "Afin d'afficher les résultats les plus pertinents, nous avons omis quelques entrées qui sont très similaires aux 695 entrées actuelles.
De plus la commande site renvoit : 315 000 pages.
si tu regardes pour wri, tu verras qu'il n'y a que 750 pages d'affichées : la commande site: étant, sciemment limitée

Jeanne5 a dit:
Est-ce que vous avez vraiment autant de pages proposées dans votre Sitemap ou y-a-t-il une masse noire de pages indexées que vous ne maitrisez pas ?
sur un site bien géré (et même si ce n'est pas le cas), gg n'a absolument pas besoin d'un quelconque sitemap pour crawler (et indexer) les pages
 
WRInaute accro
EasyExpat a dit:
C'est pas exactement sur la thématique, mais ici un très bon article montrant qu'un contenu fait pour les visiteurs peut se faire sanctionner : http://www.miss-seo-girl.com/et-si-les-seo-manipulaient-google/
sauf que dans ceux qui viennent se plaindre que gg a été méchant avec eux, on en retrouve pas mal qui continuent à utiliser des ancres hyper optimisées pour renvoyer vers leur site. A croire qu'ils n'ont pas compris que la suroptimisation ça pouvait plomber même un bon site
 
WRInaute impliqué
Merci Leonick.

Je sais bien pour la commande "site" :lol: ,
je gère moi même un site a plusieurs millers de pages indexées.

Ce que je dis c'est que la phrase :
"Afin d'afficher les résultats les plus pertinents, nous avons omis quelques entrées qui sont très similaires aux 695 entrées actuelles." affiché par Google à la 7ème page.

indique souvent du duplicate content détecté selon Google (entrée très similaire : ca veut dire ce que ça veut dire :wink: ).
Ce n'est pour moi pas un bon indicateur de l'avoir notamment sur les 695 entrées qu'il renvoie... Sur les sites où je l'avais, en incluant les pages en plus, j'ai souvent détecté du DC rien qu'en comparant les 2 versions des SERP.

Concernant la gestion d'un sitemap, même pour un gros site.
C'est pour moi primordial, au delà de faciliter l'indexation par Google.

Ca permet de voir :
- Est-ce que Google indexe toutes les pages que je veux qu'il indexe et à quelle vitesse.
- Est-ce qu'il met des pages volontairement de côté. (pas d'indexation => pourquoi ? ).
- Est-ce qu'il n'indexe pas plus de pages que je voudrais. En comparant avec l'état de l'indexation dans GWT (ca donne la taille de la masse noire).

Ce sont pour moi des indicateurs cruciaux pour voir comment il évalue mon contenu (et notamment celui de faible qualité selon Panda) que je n'aurai pas sans Sitemap.
 
WRInaute occasionnel
Jeanne5 a dit:
Mon idée n'était absolument pas de dire : "Google a forcement raison donc c'est que tu fais des trucs pas comme il faut".
Mais plutôt de dire : "Il y a forcément un truc qui cloche selon Google dans le site pour que Google le déclasse".
Qu'il est raison ou pas.
Je ne pense pas à l'aléatoire dans l'algorithme.
En fait la critique n'était pas en rapport avec ton message, mais plutôt a ce qu'on peu lire ici et là sur le/les forum(s).
Non, étant aussi dans le milieu des algo, il n'y a pas d'aléatoires. Mais il peut y avoir des critères sur lesquels on ne peut pas lutter véritablement.
Par exemple si Google intervient manuellement pour certains jugements, si il est décidé de privilégier les gros sites (on fait cela dans l'algo), etc.
Ceci dit on lit de plus en plus ici et là que les sites Google-dépendant sont à terme morts, et qu'il faut se concentrer sur d'autres vecteurs: les réseaux sociaux, les liens de popularité, les forums et ... les pub. Tout ceci malheureusement peu accessible aux "petits" acteurs.

Jeanne5 a dit:
Peut-être que c'est fait aussi, mais à votre place je reviendrai sur le forum qui est une grosse partie de vos pages référencées.
Rappelez-vous que quelques semaine avant Panda : "Comment ça marche" a desindexé en masse ses Posts avec peu de contenu.... et que au final ça lui a pas mal réussi.
J'avais en effet vu cela. Toutefois personnes ne l'a fait dans nos concurrents directs et certains se classent très TRÈS bien, aucun sanction. Par ailleurs des messages avec 0 réponse ont été souvent très bien positionnés (et du même coup ont attiré des visiteurs et des réponses récemment).

Actuellement Google semble privilégier les sites qui répondent exactement aux questions, même si c'est 1 ligne. Genre "je donne mon chat". Et le site qui aura un paragraphe parmi 4 sera moins bien classé que celui qui aura 2 lignes mais avec exactement ces termes, même sans suite (c'est un exemple, je n'ai pas vérifié sur ces mots précis, mais vu souvent - cf forum de réponses Yahoo dans les résultats). Demain ce sera peut être autre chose, il y aura un algo Pancho ou Pinacolada...

Ce qu'on a observé chez nous est: 2005-2010: +30%/an. 2011-2013: -50% par an avec re-design, équipe étoffée, contenu original multiplié, services additionnels pour l'utilisateur et navigation améliorée.

PS: a postériori les sites Arret sur Image et Mediapart qui ont choisit de faire du payant sans pub et sans dépendre de Google s'en sortent bien. Rue89 qui avait choisit une stratégie Google/Pub a été racheté par le Nouvel Obs. C'est aussi révélateur...
 
WRInaute occasionnel
Leonick a dit:
EasyExpat a dit:
C'est pas exactement sur la thématique, mais ici un très bon article montrant qu'un contenu fait pour les visiteurs peut se faire sanctionner : http://www.miss-seo-girl.com/et-si-les-seo-manipulaient-google/
sauf que dans ceux qui viennent se plaindre que gg a été méchant avec eux, on en retrouve pas mal qui continuent à utiliser des ancres hyper optimisées pour renvoyer vers leur site. A croire qu'ils n'ont pas compris que la suroptimisation ça pouvait plomber même un bon site
Euh, j'ai pas compris. Ici l'ancre c'est l'URL générée pour le billet sur le site cité. URL optimisé comme les URLs des messages du forum de WRI.

C'est exactement ce que je dis (merci d'avoir confirmé la fin de mon message ;-) ): c'est pas le gentil Google, c'est de la faute aux pov' types qui n'ont rien compris sur leur site... (même si ça fait 10 ans qu'ils sont dans le secteur):
EasyExpat a dit:
(j'en ai un peu marre des réponses: Google a forcement raison donc c'est que tu fais des trucs pas comme il faut :evil: )
 
WRInaute impliqué
Easyexpat, vous m'avez l'air bien résigné...

Un dernier baroude d'honneur pourrait être de partir avec un nouveau site...
pas de sanction, pas de filtre... que du neuf, on repart avec 100% des "nouvelles" règles GG en tête.

A priori ça marche.
 
WRInaute occasionnel
Jeanne5 a dit:
Easyexpat, vous m'avez l'air bien résigné...
résigné ?

Sinon repartir avec un nouveau site ? Quelqu'un me garantit que ça marche a 100% avant de mettre de l'argent dedans ? Et que dans 6 mois les règles n'auront pas changé ? Parce que c'est bon avec des sites de 10 visiteurs/jours mais ici on parle de plusieurs dizaines de milliers/jour :x
 
WRInaute accro
Jeanne5 a dit:
- Est-ce qu'il met des pages volontairement de côté. (pas d'indexation => pourquoi ? ).
- Est-ce qu'il n'indexe pas plus de pages que je voudrais. En comparant avec l'état de l'indexation dans GWT (ca donne la taille de la masse noire).
sauf que quand tu as plusieurs dizaines ou centaines de milliers de pages, comment fais-tu pour connaitre celles en doublon ou pas indexées dans gg ? en n'oubliant pas que si tu souhaites automatiser cette tâche, tu risques vite d'avoir ton ip blacklistée par gg pour 24h
 
WRInaute impliqué
@Leonick

Je parle d'une surveillance en continue de l'indexation du site en croissance "normale".

C'est sûr que si tu attends d'avoir des dizaines de milleurs de pages pour commencer à étudier de près ton indexation grâce au sitemap... ou que tu veux faire indexer d'un coup des dizaines de milleurs de pages c'est galère... et cette technique ne te donnera qu'une idée d'un % de ce qui est indexé ou non. Ca reste tout de même un meilleur indicateur que de ne pas en avoir du tout... :roll:

Par contre sur un site qui grandit régulièrement c'est jouable de suivre l'état d'indexation du sitemap, voire d' avoir plusieurs sitemap pour affiner... et de tirer des conclusions au fur et à mesure... qu'il grandit.

Apparemment tu as mieux, quelle est ta technique à toi pour suivre l'indexation de tes sites et bâtir tes indicateurs ?
 
WRInaute impliqué
@EasyExpat...

C'est sûr qu'on ne regagne pas du jour au lendemain des dizaines de milleurs de visiteurs par jour.
Et personne ne te garantira à 100% que ca va marcher à ce point.

Par contre comme ton money site est dans une spirale négative.
C'est sûr qu'avec un autre site à côté tu vas générer de la croissance et faire monter ton nombre de visiteurs globalement...

De plus avec l'expérience de ton premier site, tu as sans doute repéré des domaines particuliers qui marchent et que tu monétises mieux... En ciblant ceux-ci en priorité sur ton nouveau site, tu auras un ROI supérieur ...
Tu pourras de plus truster les SERP avec plusieurs sites sur la même page.

Bien sûr n'abandonne pas le premier site, mais divise pour mieux régner.

En comme chacun sait, il ne faut pas mettre tous ses oeufs dans le même panier...
 
WRInaute occasionnel
Jeanne5 a dit:
C'est sûr qu'avec un autre site à côté tu vas générer de la croissance et faire monter ton nombre de visiteurs globalement...
De plus avec l'expérience de ton premier site, tu as sans doute repéré des domaines particuliers qui marchent et que tu monétises mieux... En ciblant ceux-ci en priorité sur ton nouveau site, tu auras un ROI supérieur ...
Tu pourras de plus truster les SERP avec plusieurs sites sur la même page.
Bien sûr n'abandonne pas le premier site, mais divise pour mieux régner.
En comme chacun sait, il ne faut pas mettre tous ses oeufs dans le même panier...
Et tu sais quoi ? C'est ce qu'on a fait il y a 1 an. Résultat du nouveau site: doublement du trafic, qui représente ~5% de l'autre... on va pas bien loin malheureusement...
Bien sur on peut tout recommencer a 0... on a juste bossé 6-7 ans, donc on sait ce qui nous attend... pas sur de vouloir retenter pour se faire dézinguer dans quelques temps :wink:
 
WRInaute accro
Jeanne5 a dit:
Apparemment tu as mieux, quelle est ta technique à toi pour suivre l'indexation de tes sites et bâtir tes indicateurs ?
non, je n'ai pas mieux, mais justement, je cherchais une méthode pour trouver les milliers de pages supplémentaires que gg me trouve, car mes pages de recherches étant en noindex et, visiblement, gg semble en tenir compte, car il n'en a indexé qu'une dizaine en mettant son message "le robot...". Je ne vois donc pas d'où il peut prendre ces pages
 
WRInaute impliqué
Bon si vous avez tout tenté... et si vous n'avez plus d'espoir, effectivement mieux vaut abandonner...
Tu confirmes tout de même que l'on peut générer de la croissance avec un nouveau site... ;-)

Jute une dernière remaque, votre score PageSpeed n'est pas beau à voir...
https://developers.google.com/speed/pagespeed/insights?utm_source=pubi ... bile=false

Cette note fait très certainement aussi partie de l'algo Panda.
Je serai curieuse de savoir ce qu'a fait votre agence SEO pour 12 000 € !
 
WRInaute impliqué
@Leonick:
Dans un autre post Olivier m'a conforté dans l'idée qu'il fallait analyser ses logs pour connaitre les pages que GG visitent et qu'il ne devrait pas indexer. C'est ce que j'ai fait et effectivement j'ai trouvé du DC comme ça.
 
WRInaute accro
le gros problème vient des copies de données mal effectuées : ça peut provenir d'un internaute qui va recopier une url affichée avec des ... histoire de la réduire et on se retrouve donc avec des url mal formées de ce genre qui deviennent linkable quand elles se retrouvent sur d'autres sites/forums. Ca c'est la version manuelle. Mais si on rajoute tous ces aspirateurs de m... qui pompent allègrement le contenu d'autres sites, voire de gg et consors et on se retrouve ainsi avec plein de mauvais url après, soit gg les suit, soit ces url peuvent se retrouver bloquées par le robot.txt et, dans ce cas, tu ne retrouveras aucune trace de ces url dans tes logs.
 
WRInaute occasionnel
Leonick a dit:
le gros problème vient des copies de données mal effectuées : ça peut provenir d'un internaute qui va recopier une url affichée avec des ... histoire de la réduire et on se retrouve donc avec des url mal formées de ce genre qui deviennent linkable quand elles se retrouvent sur d'autres sites/forums. Ca c'est la version manuelle.
Oui en effet j’ai déjà vu cela plein de fois...
 
WRInaute occasionnel
Jeanne5 a dit:
Bon si vous avez tout tenté... et si vous n'avez plus d'espoir, effectivement mieux vaut abandonner...
Tu confirmes tout de même que l'on peut générer de la croissance avec un nouveau site... ;-)

Jute une dernière remarque, votre score PageSpeed n'est pas beau à voir...
https://developers.google.com/speed/pagespeed/insights?utm_source=pubi ... bile=false

Cette note fait très certainement aussi partie de l'algo Panda.
Je serai curieuse de savoir ce qu'a fait votre agence SEO pour 12 000 € !
Sachant que sur un secteur qui devient concurrentiel, le petit site qui se lance a peu de chances par rapport au gros. On commence a 5 visiteurs/jours, puis au bout de 6 mois on en a 100 (y'a du contenu, c'est long a faire - c'est pas du forum ou du FB où c'est l'internaute qui fait tout ;-) ), puis après 200... bref, sachant que ça marche quand tu fais >10,000 jours c'est pas bon :mrgreen:

Concernant le Page Speed il y a plusieurs écoles (et oui, on a tout regardé :lol: ). On a demandé aux ingénieurs système de la boite qui gère les serveurs. Pour améliorer la vitesse, ils peuvent changer le serveur (qui a 4 ans) mais c'est beaucoup de boulot de notre coté.
This is pretty standard for your server from what I can see. This is also why I suggest a hardware upgrade as your entire server is quite old.

As for the page design, it seems to be pretty well put together and is competing well:

http://www.webpagetest.org/result/130403_1W_17YN/1/details/

The only suggestion beyond better hardware would be to consider putting your static content on our CDN so it is served faster.

Alors pour la boite SEO:
~€5000 tu as un audit (l'analyse des concurrents a du être refaite car la boite n'avait pas pris les bons). Les quelques conseils (un ancre ici, du texte là) ont été implanté en 3 jours. Résultat -20% 4 mois plus tard.
~€7000 linking et communiqués. Aucun résultats (ou alors aussi -20%).

Voila
Sinon, comme tu as l'air de t'y connaitre, tu bosses dans le SEO ?
 
WRInaute passionné
Bonjour expat, ca fait toujours mal au coeur de voir une boite qui ferme malgré qu'elle fasse un bon boulot et qui plus est, est utile, serieux, a cause de l'indexation de Google.

En jetant un oeil rapide sur votre site, je remarque immédiatement quelques problèmes majeurs dans lesquels je reconnais mon ancien site que j'ai totalement refondu après etre passé de 40 000 VU/jour (en 2001) a 900 ... (en 2007)... et revenu a 20 000 VU/jour aujourd'hui.

LA STRUCTURE :
- en priorité, l'arborescence trop profonde, Google n'aime plus dutout cela. personnellement, je suis passé aux sous domaines, mais cela ne convient pas a tout le monde et tous les sites.
pour réduire la profondeur, au lieu de http://www.easyexpat.com/it/classifieds/turchia/offerta-au-pair---baby ... er_c13.htm
cela pourrait devenir
-http://www.easyexpat.com/it_classifieds_turchia/offerta-au-pair---babysitter_c13.htm , c'est une piste ...
- Pour ma part, je privilégie la structure de la page en plaçant tout en haut les éléments essentiels : fil d'ariane, balise H1, mini texte de résumé et de présentation. cela oblige a déplacer le menu vertical de gauche vers la droite ou d'utiliser du css avec des blocs différé a positionnement fixe (pas tjrs facile avec les différents formats).Mais une balise H1 en milieu de page est moins efficace qu'en haut de page.
- les liens en haut sur les langues devraient diriger vers la même rubrique et non pas revenir a la racine de la langue.
Quand on est sur la page http://www.easyexpat.com/it/classifieds/turchia/offerta-au-pair---baby ... er_c13.htm , si on clique sur le drapeau français, on revient au menu des annonces en Français au lieu d'atterrir sur la page http://www.easyexpat.com/fr/classifieds/turquie/offre-au-pair---babysi ... er_c13.htm comme on pourrait s'y attendre. Ce problème est plus grave pour Google car cela isole chaque page au lieu qu'elles soient liées dans la même thématique et forme un groupe qui se renforce.
- pour les petites annonces, ca craint (sourire):
toutes les pages ont la même url (http://www.easyexpat.com/fr/classifieds/search-result.htm), et ont tombe par des liens sur des pages sans résultats, il faut vraiment éviter ce genre de lien (afficher le nombre d'annonce en face du lien et le rendre inactif si le résultat est zéro). Exemple : Recherche Au Pair & Babysitter (0) et pas de lien dans ce cas ...
- il reste des balises H1 a mieux optimiser sur certaines de vos pages et notamment de service (déménagement internationaux...)

LE LOOK ANCIEN :
Le look, il devient un peu vieillot je pense, et il y a dans le code html l'utilisation de balises <table> qui donne des avertissements dans w3c validator, je crois que google n'aime plus trop les anciens formats de balise html. J'ai rajouté ces balises sur mon site car les administrations et banques ont des filtres pourris qui décalent tous mes styles (la démo chez mon banquier était une cata, rien ne fonctionnait .., heureusement, j'avais mon ordi portable...). Je pense faire un test de supprimer à nouveau de code est le basculer sur du css, et être à zéro dans les avertissements de w3c validator (pas sur que ce soit important, je ne sais pas tant que je n'est pas fait le test).

LA PUBLICITE :
Côté pub aussi, ca ne me semble pas optimisé au top. Si vous êtes en dynamique (mon site est statique et chaque modif nécessite la régénération / transfert de 5 millions de pages chez moi), n'hésitez pas a faire des tests de formats et d'emplacements différents. Je pense qu'il est crucial de bien séparer la pub et de mettre le contenu en évidence maximum (regarder une de mes page rubrique sur un dept), séparer les espaces pubs (proximité très / trop prononcée des pub thématiques et bannière large sur vos hauts de pages ).
Pour la pub, je part du principe suivant :
1) le visiteur arrive et cerne immédiatement le contenu sans pub visible en haut, il est en confiance. Puis il consulte le contenu, et arrivera en fin de celui-ci. C'est à ce moment là que je lui propose de la pub, la plus optimisée possible ...
2) hormis la liste thématique que je place juste après le résumé du haut de page, toute la pub est en bas ou sur le côté, avec une démarcation nette du contenu, et des bloc les plus grands possibles, et un de chaque ; bannière large, grand vertical, grand rectangle.

LE SERVEUR :
Côté serveur, si c'est votre gagne pain, il faut passer immédiatement sur un dédié avec disque SSD, y a pas photo, et google appréciera. Le surcout sera absorbé par l'augmentation de trafic, même si celle-ci n'est pas fulgurante. A 150€/mois, vous aurez une machine de course.

EN RESUME :
Voilà, je ne fais pas de prestation et ce n'est qu'un avis personnel, même avec 17 ans de pratique du web, ca bouge de mois en mois donc on n'est jamais sur de rien, sauf que je remonte des enfers depuis 2007 ou mon trafic était quasi nul.
Prenez un graphiste "dernière génération" pour redonner du look à la bête, et après quelques modifs essentielles, le trafic va remonter :-)
Bonne chance !
Bon courage.
 
WRInaute occasionnel
longo600 a dit:
Bonjour expat, ca fait toujours mal au coeur de voir une boite qui ferme malgré qu'elle fasse un bon boulot et qui plus est, est utile, serieux, a cause de l'indexation de Google.
Un grand merci pour ce tres long et tres complet message :-)
longo600 a dit:
En jetant un oeil rapide sur votre site, je remarque immédiatement quelques problèmes majeurs dans lesquels je reconnais mon ancien site que j'ai totalement refondu après etre passé de 40 000 VU/jour (en 2001) a 900 ... (en 2007)... et revenu a 20 000 VU/jour aujourd'hui.
Oui, mais nous on faisait encore +30% en 2007... jusqu’à Panda exactement en février 2011... donc je ne sais pas si c'est comparable.
Bon, voici mes commentaires:
LA STRUCTURE :
- en priorité, l'arborescence trop profonde: c'est une bonne idée pour la transfor des URL. Sauf que du point de vue utilisateur on aime mieux les choses biens ordonnées. Les visiteurs peuvent directement supprimer avant le / de leur choix pour remonter les répertoires dans l'URL.
Encore une fois cela voudrait dire que ce qui est mieux et plus clair pour le visiteur est proscrit par Google.
(par ailleurs nos concurrents immédiats qui s'en sortent mieux font pareil depuis des années, alors que nous justement on a changé nos URLs pour adopter cette navigation plus simple)

- Pour ma part, je privilégie la structure de la page en plaçant tout en haut les éléments essentiels : fil d'ariane, balise H1:
on remarquera qu'on a une structure tout de meme avec un H1 placé en haut de l'article, puis des H2 et H3 dans le corps... bref on fait du propre.

- les liens en haut sur les langues devraient diriger vers la même rubrique et non pas revenir a la racine de la langue: en effet ce serait l'idéal. Difficile a faire (tres difficile dans notre cas). Mais on a fait au mieux pour au moins renvoyer dans les bonnes sections et non sur la page d'accueil :-)

- pour les petites annonces, ca craint (sourire):
toutes les pages ont la même url: Non, chacune a une URL différente: http://www.easyexpat.com/en/classifieds/costa-rica/search-guest-house- ... a32879.htm
- afficher le nombre d'annonce en face du lien et le rendre inactif si le résultat est zéro: oui en effet, on va y penser. C'est deja ce qu'on a mis en place sur notre annuaire de sites d'expats.
Par contre on a depuis le début mis en NOINDEX toutes les pages de resultat à 0, donc il ne devrait de toute facon pas y avoir de pb.

LE LOOK ANCIEN :
Le look, il devient un peu vieillot je pense:

Ok ok ;-) Les gouts et les couleurs ;-)
Hé on a fait des progres, regarde: http://easyexpat.blogexpat.com/blog/2009/07/02/nostalgia

Et c'est quand on avait notre ancien look et notre architecture sans queue ni tête qu'on cartonnait aux niveaux visitees et pages/vues (£8,000/mois rien qu'en revenus Adsense, c'était le bon temps).

et il y a dans le code html l'utilisation de balises <table>: sauf que ca, ca marche partout... et que les DIV et autres trucs du genre, et bien c'est la porte ouverte aux catas... j'ai plein d'exemples, mais je vois qu'avec ton banquier tu vois de quoi je parle ;-)

LA PUBLICITE :
Côté pub aussi, ca ne me semble pas optimisé au top:
on a fait des tests... la grande corrélation est en nombre de page vue. Donc si tu divise par 4, tu divise par 4 ou plus aussi les revenus... mais oui on a fait des tests.

LE SERVEUR :
Côté serveur, A 150€/mois, vous aurez une machine de course
: notre serveur coute 380€/mois :-)

EN RESUME :

Le graphisme ne remontera pas les stats Google.
Par contre si je retiens 1 seul truc des échos ici et la c'est que peut etre, en effet, quand on est au fond du trou et qu'on a rien a perdre si le site est off quelques temps, on peut envisager de changer de serveur pour prendre un SSD avec le top au niveau CPU (c'est ce qui est souvent chargé sur notre serveur).

Ceci dit, et c'est un appel, ceux qui veulent s'associer a nous pour remonter peuvent me contacter en MP :-)
 
WRInaute accro
longo600 a dit:
de toutes façons, gg recommande de ne pas faire indexer ses pages de résultats.
Et, quand on y réfléchis, c'est quand même préférable de ne pas les faire indexer, comme ça gg ne pourra pas donner directement l'info aux internautes, s'il connait les requêtes effectuées et les informations données en retour. Perso, je met un noindex à toutes mes pages de résultats
EasyExpat a dit:
Côté pub aussi, ca ne me semble pas optimisé au top: on a fait des tests... la grande corrélation est en nombre de page vue. Donc si tu divise par 4, tu divise par 4 ou plus aussi les revenus... mais oui on a fait des tests.
pas obligatoirement, loin de là. Car moins on affiche de pub sur un site, plus elle sera impactante auprès des internautes : si un site affiche une dizaine de pubs par page, même sans avoir adblock ou équivalent, le cerveau va occulter ces emplacements là, alors que si on en affiche moins et de façon aléatoire, le cerveau pourra être plus réceptif. En plus, au niveau adsense, comme c'est sous forme d'enchère, moins il y aura d'emplacements disponibles, plus les annonceurs devront payer (CPC plus fort ou CTR plus fort) ce qui voudra dire ub plus pertinente pour l'internaute (histoire que l'annonceur ait un bon ROI)
 
WRInaute occasionnel
Leonick a dit:
Car moins on affiche de pub sur un site, plus elle sera impactante auprès des internautes : si un site affiche une dizaine de pubs par page, même sans avoir adblock ou équivalent, le cerveau va occulter ces emplacements là, alors que si on en affiche moins et de façon aléatoire, le cerveau pourra être plus réceptif. En plus, au niveau adsense, comme c'est sous forme d'enchère, moins il y aura d'emplacements disponibles, plus les annonceurs devront payer (CPC plus fort ou CTR plus fort) ce qui voudra dire ub plus pertinente pour l'internaute (histoire que l'annonceur ait un bon ROI)
Bien vu... de toute façon au point ou on en est, en va pouvoir faire du ménage ;-)
 
WRInaute accro
ça parait évident que ce critère seul ne peut pas avoir une grande influence (si tant est qu'il en ait), sinon les sites de réservations de voyages, hôtels, etc... n'apparaitraient plus dans les serp
 
WRInaute accro
mais il est également évident qu'il est pris en compte.

Un site qui met 10mn à s'afficher entrainera certainement un mauvais pogosticking. Résultat déclassement.
De plus si google galère également pour scroller les pages, ça ne va pas aider non plus :wink:

De toute façon qu'il le prenne en compte ou non, on a tout intérêt à ce que nos sites soient rapides à s'exécuter et conçu le plus proprement possible. Ne serait-ce déjà pour les utilisateurs
 
WRInaute accro
"rapide", c'est un critère qui ne veut rien dire dans l'absolu : on n'est pas prêt à attendre la même durée pour une recherche de billet d'avion/hôtel que pour afficher une page de forum ou bien un article parlant d'un fait d'actualité.
Donc non, on n'a pas obligatoirement intérêt à ce que nos sites soient le plus rapide possible, mais plutôt qu'ils renvoient le plus rapidement l'information que l'internaute attend. Et s'il attend 5s une page complètement adaptée à sa demande au lieu de devoir afficher 3 pages (même si chacune s'affiche en 0,8s), il en sera bénéficiaire
 
WRInaute accro
Oui pour certains sites on est habitué à un temps d'attente mais généralement lorsque tu réalise une action. Exemple la recherche d'un billet d'avion. Mais ceci n'a rien à voir avec le référencement car ce type de pages ne sont pas concernés.

Ceci n'a donc pas de rapport direct avec Google. On parle bien ici des pages qui sont référencés dans google et qu'on accède directement après avoir effectué une recherche. C'est seulement dans ce cas la que le Pogosticking est pris en compte et peut avoir une influence sur la position.

Toutes les pages accessibles directement via Google doivent s'afficher le plus rapidement possible, idem pour les pages que google explore quotidiennement de nos sites.
Google se moque de savoir si il y a une bonne raison ou non que le site rame :wink:

Il n'est également pas dans l'intérêt des moteurs de recherche en général de mettre en avant des sites qui mettent des plombs à s'ouvrir.
Je pense donc que la vitesse à une influence (loin d'être aussi négligeable) tout comme de nombreux autres paramètres dans l'algo.
 
WRInaute occasionnel
noren a dit:
Il n'est également pas dans l'intérêt des moteurs de recherche en général de mettre en avant des sites qui mettent des plombs à s'ouvrir.
Euh, ça veut dire quoi des plombes ? Genre 0.6 sec c'est bien mais 0.8 treeeeees mauvais ? :roll: Ou alors plutôt 3-4 secondes ?
 
WRInaute accro
Rooo jouons pas avec les mots :wink: , ce que je veux juste dire c'est que la vitesse d'accès aux pages est certainement un critère pris en compte. Comme indiqué il n’est pas dans l'intérêt des moteurs de recherche d'afficher des pages qui mettent trop de temps à s'afficher. Et si l'accès est trop long de toute façon les utilisateurs quittent et passent sur un autre résultat de recherche, donc mauvais pogosticking puis chute dans les SERPS.

A toi de déterminer ce qui te semble long ou non. Google à certainement sa petite idée la dessus. Faudrait interroger Matt pour ça :wink: (Tu auras des réponses toujours aussi précises, à la MAtt)

De toute façon il est logique de faire en sorte que son site soit le plus optimisé et rapide possible, donc à la limite la question ne se pose même pas. Après si on ne peut pas faire autrement, la non plus la question se pose même pas.

Mais à mon avis penser que la vitesse des pages n'a aucune influence est une erreur.

PS : A mon avis, quand même) pour que ça est un réel impact il faut que le site soit vraiment long a charger, plusieurs secondes. Au delà de 4-5s ça serait déjà un poil trop non? Quand tu fais une recherche attends tu autant de temps?
 
WRInaute occasionnel
En effet noren, je poussais volontairement l'ironie ;-)

Mais on voit ici ou là certains écrire que Google classerait les sites selon la vitesse de téléchargement (0.6 devant le 0.8, etc). Il semble plus probable que l'influence de la vitesse de chargement soit un effet de ricochet par rapport à l’expérience utilisateur : un site rapide sera plus apprécié, plus cité, et plus facile à accéder pour les moteurs.
 
WRInaute impliqué
A noter également, que depuis quelques semaines la vitesse de chargement fait partie des indicateurs du tableau de bord adsense.

Le nombre de point bleu qu'octroie Google a votre site est amha une bonne preuve que Google possède cette donnée.
Ensuite comment il l'utilise et si il l'utilise dans le classement c'est sur que c'est obscur.
Peut-être un des nombreux critères du Trust Rank...

Mais bon, obscur et Google, je frôle le pléonasme là...

Easy Expat, as-tu vu un impact du Panda du 18/07 sur ton site ?
 
WRInaute occasionnel
Jeanne5 a dit:
Easy Expat, as-tu vu un impact du Panda du 18/07 sur ton site ?
Absolument aucun (mais bon, comme on a déjà perdu 70% en 2 ans, faut bien que ça s’arrête un moment :lol: ). Aucun impact sur aucun des sites dont on s'occupe.
 
WRInaute accro
EasyExpat a dit:
Mais on voit ici ou là certains écrire que Google classerait les sites selon la vitesse de téléchargement (0.6 devant le 0.8, etc). Il semble plus probable que l'influence de la vitesse de chargement soit un effet de ricochet par rapport à l’expérience utilisateur : un site rapide sera plus apprécié, plus cité, et plus facile à accéder pour les moteurs.

Vi voilà j'aurais pas mieux dit :mrgreen:
 
WRInaute impliqué
Easy Expat,

Et alors combien de ronds bleus sur votre indicateur Adsense : "État de santé de votre site" ?
 
WRInaute occasionnel
Jeanne5 a dit:
Easy Expat,

Et alors combien de ronds bleus sur votre indicateur Adsense : "État de santé de votre site" ?
2 avec essentiellement 1 reco: il faut mettre les scripts google en async, vous pouvez essayer ici:
http://developers.google.com/speed/pagespeed/insights/?url=http%3A%2F% ... pat.com%2F
tous les autres indicateurs sont verts.
Ok on s'en occupe (Google sanctionnerait-il les sites qui n'utilisent pas les dernieres mises a jours de ses scripts ? J'en doute)
 
WRInaute accro
noren a dit:
Oui pour certains sites on est habitué à un temps d'attente mais généralement lorsque tu réalise une action. Exemple la recherche d'un billet d'avion. Mais ceci n'a rien à voir avec le référencement car ce type de pages ne sont pas concernés.
je suppose que tu as vérifié sur gg avant d'affirmer cela ?
par exemple https://www.google.fr/search?q=billet+avion+paris+madrid m'affiche alibabuy et opodo en 1° liens naturels.
les 2 mettent plus de 5 sec pour s'afficher. :roll:
 
WRInaute accro
Les pages que tu indiques chez moi ne mettent pas 5s à s'afficher, elle sont quasi instantanées ;)

Ensuite ce n’est pas tout à fait ce genre de pages de recherche que je parle (même pas certain que ça en soit d'ailleurs). Généralement quand tu fais une recherche de billets d'avions, tu as un petit moment d'attente avec au centre de l'écran un : "Nous recherchons actuellement les vols aux meilleurs tarifs".

Sur la page d'opodo qu'on obtient dans le résultat des serps, retape une recherche dans les champs, et la tu verra ce que j'appelle une page de recherche :mrgreen:

D'ailleurs pour le cas d'Opodo une vraie page de recherche dans l'url il y a le mot "search" ;)

Après peu importe que les pages de recherches de billets soient référencés ou non, ce n’est pas vraiment le débat, il va de soit qu'il est préférable d'essayer d'avoir un site qui s'affiche le plus rapidement possible et pas au bout de 5s, si tu veux pas que ton visiteur se casse avant. En tout cas moi je ne prendrais pas le risque sous prétexte que certains sur la toile disent que google ne prend pas en compte la vitesse d’accès au pages (ce que je doute fortement)
 
Discussions similaires
Haut