Bing utilise le CTR pour ranker mais pas le temps de chargement

WRInaute discret
Bonjour,
dans un interview avec Eric Enge, Duane Forrester, l'équivalent de Matt Cutts chez Bing, déclare...
  • * Bing n'utilise pas le temps de chargement d'une page comme signal (ils préfèrent une page qui donne satisfaction en 4 secondes plutôt qu'un page que ne convient pas mais se charge en 1 seconde)
    * Bing utilise le CTR dans les résultats comme signal
    * Les 3 signaux les plsu importants sont 1) le contenu 2) les media sociaux et 3) les liens
Source :http://www.stonetemple.com/search-algorithms-and-bing-webmaster-tools-with-duane-forrester/

Par ailleurs, dans un forum de Webmasterworld il a déclaré que Bing utilise plus de 1000 signaux pour ranker.
Source :http://www.webmasterworld.com/msn_microsoft_search/4328329.htm
 
WRInaute impliqué
Je doute que Bing ou tout moteur de recherche affiche le temps de chargement réel que percevra l'utilisateur, s'il disposait d'une bande passante maximale bien entendu.
L'un des éléments les plus ralentissant dans cette histoire est le chargement des publicité, le plus souvent, dépendant de la régie du contenu etc.
 
Nouveau WRInaute
Bigbangbel a dit:
Bonjour,

* Les 3 signaux les plus importants sont 1) le contenu 2) les media sociaux et 3) les liens

Si cette information n'est pas une parabole fumeuse pour noyer le poisson, cet ordre de prise en compte est une petite révolution non ?
il ne me semble pas avoir lu une déclaration aussi tranchée dans la boutique de Matt Cutts.
 
WRInaute passionné
Malgré toute la sympathie que l'on peut accorder à Bing, seul concurrent qui pourrait quelque peu réduire la position dominante de google, il faut bien admettre que ses résultats sont souvent effroyablement peu pertinents, au point que je plains les personnes qui gardent ce moteur installé par défaut sur internet explorer.

Très probablement, la part de marché de Bing est significativement surévaluée dans la mesure où il faut faire beaucoup plus de recherches avec Bing qu'avec google pour obtenir l'information souhaitée.

Quant à Bing Maps, qui avait, encore il y a un an ou deux, une couverture du monde bien meilleure que celle de google maps, il est dépassé maintenant par son concurrent sur ce plan là aussi.

Quant à Bing images, pas mal d'images de ses résultats sont reprises en pages fixes par des portails exotiques qui se font ainsi du contenu à bon compte, ce qui, je présume, implique un certain accord de Bing (mentionné comme source des images).
 
WRInaute accro
peut-être que Microsoft n'utilise pas le temps de chargement des pages car il est incapable de le connaître, contrairement à Google dont le GG Analytics équipe 63% des sites web. Allez savoir....

Quand aux 1.000 critères, je suis sur que c'est un chiffre marketing, jeté en pâture aux médias pour fiare la pige aux 4 à 500 avoués de Google. Ce serait bien dans le style de Redmond un truc comme ça !

De toute façon, plus il y a de critères, moins ils ont d'importance relative.. et donc de valeur ajoutée pour l'algo ahma
 
Olivier Duffez (admin)
Membre du personnel
J'ai repris quelques infos de cette interview (utile pour ceux qui ne lisent pas l'anglais) :

Pour Bing, les réseaux sociaux comptent + que les backlinks pour le référencement

D’après Duane Forrester (chef de produit sénior chez Bing Webmaster), dans les grandes familles de critères utilisés dans l’algorithme de Bing, les réseaux sociaux arrivent en 2ème position après le contenu, mais avant le netlinking. Le comportement de l’internaute dans les SERP est également largement pris en compte.

duane-forrester.jpg
Ces déclarations proviennent d’une interview réalisée par Eric Enge, avec Duane Forrester. Il s’occupe actuellement du programme Bing Webmaster Center ; précédemment il gérait en interne le référencement naturel du portail MSN. Cette interview nous apprend (de manière presque officielle, donc) les éléments suivants…

L’importance cruciale des réseaux sociaux pour le référencement dans Bing
Chez Bing, dans l’algorithme utilisé pour le référencement naturel, les réseaux sociaux ont un poids supérieur à celui du netlinking (stratégies de liens). Si vous souhaitez mieux comprendre comment c’est pris en compte, relisez mon tutoriel sur le référencement par les réseaux sociaux. Et si vous souhaitez de l’aide pour vous mettre enfin aux réseaux sociaux, inscrivez-vous à ma formation Twitter Facebook ;-)

Voici la déclaration exacte de Duane :

In my view the priorities for websites are content, social media and link building, in that order. Think of it as a three-piece pie. At some point, social could be more important than content, but that assumes you have excellent content in place.

On pourrait la traduire de cette façon :

Selon moi, les priorités pour un site web sont le contenu, les réseaux sociaux et le netlinking, dans cet ordre. Imaginez que c’est comme un gâteau à 3 parts. Dans certains cas la part sociale pourrait même être plus importante que le contenu, mais ça implique que vous avez un excellent contenu sur votre site.

Duane a promis que les données liées aux réseaux sociaux seraient prochainement intégrées dans Bing Webmaster Tools. Il s’agit sans doute du nombre de partages des pages de votre site.

Rappelez-vous que Microsoft est actionnaire de Facebook et qu’il a signé un contrat de partenariat avec Twitter. Preuves que Microsoft investit dans les réseaux sociaux (investit au sens financier du terme…).

En ce qui concerne le netlinking (création et obtention de liens, link building en anglais), je vous conseille de relire mes conseils sur les stratégies de liens qui s’appliquent aussi bien à Google qu’à Bing (bien que l’algorithme de Google soit plus abouti sur ce point que celui de Bing).

Une grande attention portée sur l’interaction de l’utilisateur avec les résultats
Selon Duane, Bing est prêt à donner toutes ses chances à n’importe quelle page d’arriver en page 1 des résultats (SERP) mais si le comportement de l’internaute montre qu’elle n’est pas appréciée, alors elle est repoussée plus loin dans les résultats. En d’autres termes, le taux de clics sur les pages de résultats semble être un critère important chez Bing. J’imagine qu’il y en a d’autres, peut-être le pogosticking ?

L’indexation des pages dans Bing
bing-150-60.png
Duane précise que Bing raffole des RSS et des sitemaps, car ça leur fait réaliser énormément d’économies ! Il recommande à tous les webmasters de soumettre des sitemaps dans Bing Webmaster Center. Dommage que Bing ne fasse pas son boulot de crawler, non ? Enfin, si c’est simple pour vous de construire des sitemaps ou des flux RSS, faites-le.

Par contre Bing est assez susceptible avec les sitemaps :-) En effet, il ne tolère que 1% d’erreur environ. A vous de vous assurer que vos sitemaps et autres flux RSS ne contiennent pas des URL inaccessibles (erreurs 404 ou autres).

Si l’interaction des utilisateurs dans les SERP de Bing avec certaines pages de votre site est mauvaise, ou à cause d’autres critères non précisés, alors ces pages peuvent même être supprimées de l’index de Bing… C’est également le cas chez Google en fait.

Le temps de chargement des pages n’est PAS un critère pris en compte par Bing, à la différence de Google.

Retrouvez dans les dossiers WRI d’autres conseils sur le référencement dans Bing.

Que pensez-vous de tout ça ?
 
WRInaute discret
@alain78france
info ou intox, va savoir, mais c'est ce qu'a déclaré Duane Forrester sur les forums webmasterwold dont il est un ancien modérateur.
 
WRInaute accro
si bing donne autant de poids aux médias sociaux, c'est parce qu'il est devenu, l'an passé, le moteur officiel de facebook, sauf que, au même moment, facebook a autorisé gg à indexer ses pages, bizarre quand même :roll:
 
WRInaute passionné
JanoLapin a dit:
peut-être que Microsoft n'utilise pas le temps de chargement des pages car il est incapable de le connaître
Heu, tu ne crois pas qu'en crawlant les pages d'un site, le robot ne détecte pas le temps de chargement d'une page??? Ce n'est quand même pas bien difficile de connaître le délai de réponse d'un serveur ni le poids d'une page. Avec ces deux éléments, tu obtiens le temps de chargement.
 
WRInaute accro
anemone-clown a dit:
Heu, tu ne crois pas qu'en crawlant les pages d'un site, le robot ne détecte pas le temps de chargement d'une page???
non !

Je pense qu'il ne faut pas confondre une mesure unique et une moyenne composée de très nombreuses mesures... Juger sur un seul passage n'a statistquement aucun sens
 
WRInaute accro
anemone-clown a dit:
Ce n'est quand même pas bien difficile de connaître le délai de réponse d'un serveur ni le poids d'une page
ah bon ? les bots lisent les flash et les font fonctionner ? ils uploadent les sons/vidéos et exécutent les js (y compris ceux externes des stats et régies pub) ? :roll:
 
WRInaute accro
ils ne les lisent pas, ce qui ne veut pas dire qu'ils ne peuvent pas en mesurer le temps de download.

A un instant T, comme écrit plus haut...
 
WRInaute passionné
JanoLapin a dit:
ils ne les lisent pas, ce qui ne veut pas dire qu'ils ne peuvent pas en mesurer le temps de download.
Exactement : rien de compliqué... connaître le poids d'un fichier et le délai de réponse du serveur suffisent, non? (en plus des transactions cookies)

Que le fichier soit 100 ko de jpg, flash ou js, ça change quoi au temps de chargement??? On ne parle pas de temps d'exécution. D'ailleurs, c'est strictement ce que fait pagespeed.
 
WRInaute accro
anemone-clown a dit:
Que le fichier soit 100 ko de jpg, flash ou js, ça change quoi au temps de chargement??? On ne parle pas de temps d'exécution. D'ailleurs, c'est strictement ce que fait pagespeed.
oui, mais en soi, à quoi sert d'avoir un temps de chargement ? ce qui intéresse l'internaute, c'est le délai d'exécution de la page (chargement compris) et là, quand tu as des tonnes de librairies js plus des vidéos, ça laggue un max, même si le chargement initiale html est faible
 
WRInaute passionné
Je pense qu'on se rejoint dans nos approches, sauf sur certains paramètres techniques internet (que je maîtrise à 100% si tu connaissais qui je suis ^^).
 
Discussions similaires
Haut