Vous utilisez un navigateur non à jour ou ancien. Il ne peut pas afficher ce site ou d'autres sites correctement. Vous devez le mettre à jour ou utiliser un navigateur alternatif.
Dans une discussion sur ce forum, quelqu'un m'a donné le chiffre de 3%. Certains sites sortens en pôle position avec une densité de 10-12%. Quelqu'un a-t-il expérimenté la chose?
Pour ma part je suis sûr d'une chose : il n'y a pas de densité idéal pour google car cela dépend des balises, de la place (a la suite, dans un paragraphe), de la logique (contexte) et peut etre même du calcul différent selon la somme de densité ( "Body" + "title" + "URL"). (suis-je clair :? )
En fait, chaque critère de google est affaire de densité, meme pour le texte des BL, comme déjà évoqué par certains, si tu as 1000 sites qui te font un lien (toujours le meme), ca fait une densité de 100% (ou 99) sur ce critère et tu risque la pénalité voir le blacklistage...
Bref, selon moi le calcul de la densité c'est la base de tous les critères de l'algo donc ca reste et restera du tatonnement, donc pas de formule idéal car c'est pas si simple (c'est même surement tres complexe)
tu parles de quelle densité ? car il y a la densité dans le titre (title), la densité dans le texte visible, la densité dans les balises h1 ou a, etc.
les indices optimum ne sont pas les memes pour ces différentes zones
Pour le titre, effectivement la densité sera plus élévée. Mais pour le texte? Dans mon cas, comme il s'agit d'une entreprise de transfert, j'ai mis à chaque fois Geneva Airport - destination (Geneva Airport figure devant toutes les destinations). Ce qui fait monter ma densité à presque 10%. J'ai le même PageRank que mes concurrents directs, autant de BL, mais toujours problème... Je me posais donc la question si y'avait pas trop de répétition de mots clés...
tu parles de quelle densité ? car il y a la densité dans le titre (title), la densité dans le texte visible, la densité dans les balises h1 ou a, etc.
les indices optimum ne sont pas les memes pour ces différentes zones
Ce qui est fou Pikassio, c'est qu'un de mes concurrents a depuis plus de 6 mois plus de 2200 mots clés cachés de la même couleur que le background qui se répète successivement parfois jusqu'à 15 fois!!! A ne rien y comprendre...
Des exemples de blacklistage avec des liens dans la balise noscript, il y en a (Franao,...) mais du texte caché "ton sur ton" et bien bizarrement c'est pas si évident... :
Si t'as un texte #FFFFFF avec un fond de cellule #FFFFFF mais avec une image de fond noir, tu ne triches pas, donc heureusement que tu n'es pas pénalisé. Sans rentrer dans les détails l'inverse est possible aussi...
Le mieux c'est de rentre visible, si possible, tous les liens pour les visiteurs et les robots, et de diluer ses mots clés dans du contenu intelligible...
Depuis Janvier google est plus fin qu'il n'y parrait. Il laisse peut etre passer des choses grossieres comme le code couleur, mais pour se positionner sur des requetes concurrentielles, il faut d'autres arguments a faire valoir et heureusement !
Je suis à 100% d'accord avec ta philisophie, que je pratique aussi. Mon code est clean, valide w3c et xhtml...
Pourtant, ce petit malin ne va pas par quatre chemin. Je pensais que Google ne permettrait jamais de tels abus, mais constate par toi-même!