Featured Snippets : Google a recours à l'intelligence artificielle

Olivier Duffez (admin)
Membre du personnel

Intelligence artificielle : Google résume des contenus pour ses Featured Snippets​

Pour améliorer les Featured Snippets (bloc avant le 1er résultat naturel), Google utilise l'intelligence artificielle pour résumer des contenus trouvés sur le web... Heureusement, la source d'information est encore indiquée !

L'avez-vous remarqué ? Google devient de plus en plus un service qui fournit une réponse, plutôt que des liens vers des pages web qui pourraient répondre à la demande de l'internaute. A ce sujet, prévoyez d'aller consulter mon dossier sur les SERP de Google, c'est assez impressionnant.

Dans cette optique, il y a de plus en plus de cas où une réponse concise est apportée au-dessus des résultats naturels, sous forme de texte et parfois d'une image. On appelle ça le Featured Snippet ou le résultat au rang zéro (Google l'a traduit "extrait optimisé" en français).

Généralement, il s'agit d'une réponse succincte à une question directe et précise, comme une définition ou des questions du type "comment", "quel est", etc., mais parfois c'est plus complexe.

Featured Snippets Intelligence Artificielle

Google a recours à des algorithmes d'intelligence artificielle pour rédiger les Featured Snippets en haut de ses résultats de recherches
On apprend par le magazine Wired que Google a mis en place (sur résultats ordinateur, pas encore mobile) une amélioration de ces Featured Snippets, utilisant des techniques d'IA (Intelligence Artificielle). En gros, au lieu d'afficher dans le snippet un extrait exact d'un contenu trouvé sur le web, l'algorithme est capable de choisir des bouts pour former la réponse qui sera affichée en "position zéro".

Avant de détailler la méthode, je vous ai choisi un exemple : la requête "quels sont les plus beaux chateaux de la loire" (tapée telle quelle avec l'aide de Google Suggest). Voici le haut des résultats :

Featured Snippet IA Google

Le texte affiché pour l'extrait optimisé (Featured Snippet) est généré automatiquement par Google
Vous remarquez que :

  • ce "résultat" est extrêmement visible, tout en haut de page
  • la réponse est fournie sous forme de liste, avec un lien pour avoir la liste complète (il pointe vers la page à l'origine du contenu)
  • dans ce cas, le résultat 1 correspond à la même URL que celle indiquée en source d'information (c'est souvent le cas mais pas systématique)
Maintenant, voici un extrait de la page concernée :

Extraction de texte Featured Snippets

L'algo de Google extrait seulement les bouts de texte utiles pour les Featured Snippets
J'ai noté que :

  • la page contient bien plus d'informations que l'extrait affiché dans les résultats de Google
  • Google a récupéré les noms des châteaux, en enlevant le reste
  • les noms sont affichés sur Google par ordre d'importance décroissante, ce qui correspond bien à la demande de l'internaute, alors que dans la page web source ils sont listés dans l'ordre inverse
  • dans cet exemple les éléments extraits sont des balises de titres (h4 ici, ce qui n'est pas correct au passage, lisez mes explications détaillées) mais j'ai trouvé plein d'autres cas où le texte récupéré n'avait pas de formatage particulier
Edit : après coup, on m'a signalé que pour cet exemple Google a trouvé la liste brute en bas de page, donc ce n'est pas le meilleur exemple qui soit pour montrer que Google sait résumer des contenus...

Concrètement, Google s'est basé sur le travail d'une équipe d'une centaine d'experts en linguistique, couvrant actuellement 20 à 30 langues. Ces experts, dirigés par David Orr (de Google) ont "appris" à un algorithme à trouver les bons extraits de mots, expressions ou phrases dans un corpus potentiellement long. Leur équipe a été baptisée Pygmalion.

Il s'agit d'un algorithme de Deep Learning, une branche de l'intelligence artificielle. Ce système utilise des réseaux de neurones convolutifs afin de reconnaître des modèles pendant une phase d'apprentissage supervisé, pour renforcer la justesse de la reconnaissance faite ensuite pendant un mode non-supervisé.

Comme tous les algos de deep learning, le système a besoin d'une énorme masse de données. Celles produites par l'équipe des 100 PhD sont les plus efficaces mais les plus difficiles à obtenir. Ils utilisent donc aussi des données de moins bonne qualité, mais disponibles en plus gros volumes, comme les titres des articles de presse.

La technique utilisée s'appelle "sentence compression algorithm", c'est-à-dire littéralement un algorithme de compression de phrase. C'est une sorte de paraphrase améliorée, l'objectif étant de comprendre la question de l'internaute afin de sélectionner dans le texte uniquement les éléments les plus intéressants.

Pour ma part, ça m'inquiète un peu : dans peu de temps (même pas plusieurs années), Google saura-t-il répondre entièrement aux questions des internautes, en produisant un texte directement par son algo, lequel aura digéré toutes sortes d'informations récupérées sur Internet ? Mais alors, à quoi servirons-nous, éditeurs de sites web ?
 
WRInaute occasionnel
Bonjour,

Existe t-il quelques bons liens pour évaluer ce qu'en pensent les webmasters ?

Et d'autres qui évaluent les conséquences de la mise en avant de contenu par ce biais ?

Pour ma part, cela tient du dilemme : l'audience sur les pages 'featurées" s'effondre, 50 à 100 %.

Par exemple :

Tout le contenu du "Featured Snippet" provient de la page, texte, photo.

Google crée 2 liens vers celle-ci : plus ... et url complète.

Le clic sur la photographie envoie vers l'image mais dans la page de recherche Google - Au survol c'est un lien vers la page originale qui s'affiche.

La page est également première des 10 résultats suivants.

Des images sont également affichées dans le module "image correspondant" - les 2 premières.

Cela fait donc une page de résultat Google avec :

- 1 feature snippet : 2 liens directs + 1 lien vers la page de recherche image Google pour une image contenu dans cette page
- 1 lien direct en première position SERP
- 2 liens vers la recherche d'image Google pour 2 images contenues dans la page

= 3 liens directs + 3 liens indirects par l'intermédiaire de la recherche d'image Google

Pour un résultat : 0 visiteur, ou au mieux, 50 % des valeurs antérieures. 1 clic pour 5 affichages en moyenne (CTR autour de 20% contre 80% auparavant).

J'ai bien envie d'interdire l'utilisation de mon contenu pour cette fonctionnalité. https://support.google.com/webmasters/answer/6229325?hl=fr

Certains ont-il déjà testé l'interdiction?

Cordialement,

Eric

PS : le dilemme est de l'ordre de "si ce n'est pas moi, cela sera un autre."
PS2 : ces informations étaient disponibles également dans une application mobile, Google semble avoir supprimé les liens vers les pages correspondantes de celle-ci depuis cet été. Ici c'est peut-être un problème technique du à un changement de l'indexation des applications - coté Google - l'app publiée n'a pas bougé depuis le printemps.
PS3 : je confond peut-être avec "réponse instantanée"
PS4: pour la véracité des infos : pas de problème, nous faisons le travail et citons les sources - vérifiables. Google également depuis le "featurage".
 
Dernière édition:
WRInaute occasionnel
Bonjour,

Pour faire suite au message précédent : test de la balise
Code:
<meta name="googlebot" content="nosnippet">
.

- mise en place de la balise sur la page concernée
- demande d'indexation à Google
- recherche sur Google avec les mots clefs pour lesquels cette page apparaissait en "Feature snippet"

Cette page, 1 ère dans les serp n'apparaît effectivement plus en "Feature snippet" mas conserve sa position.

C'est maintenant le second dans les résultats qui apparaît en position 0, "feature snippet".

Je laisse ainsi pour voir si cela a une incidence sur le CTR.

Cordialement,

Eric

PS : la recherche ne donnait aucun "Feature snippet" pour ses mots clefs avant fin octobre.

Graphique des visites d'une page concernée (1 ere dans les serp depuis ... et toujours 1ere):

cp-fs.jpg
 
Dernière édition:
WRInaute occasionnel
Bonjour,

Test toujours en cours.

Pas de changement, le CTR est stable - 20% contre 70% avant "featurage".

J'ai trouvé un autre article pour lequel le CTR est passé de 20% à 2% le 2 février 2018. Il n'est jamais remonté depuis. Le nombre d'affichage et la position sont stables avant et après cette date (entre 2 et 5 dans les SERP). La page existe depuis plus de 10 ans - contenu qui nécessite une actualisation et qui est donc mis à jour régulièrement.

Contrôle des résultats sur les mots clefs principaux : pas moins de 4 pages se partagent alternativement le featured snippet. Le snippet standard (sur mobile) a également changé, et présente en parti le contenu - pas le résumé textuel habituel : 4 à 5 fois la réponse sans rendre visite à un seul site.

Cordialement,

Eric
 

➡️ Offre MyRankingMetrics ⬅️

pré-audit SEO gratuit avec RM Tech (+ avis d'expert)
coaching offert aux clients (avec Olivier Duffez ou Fabien Faceries)

Voir les détails ici

coaching SEO
Discussions similaires
Haut