• Contenu du site mis à jour le 16 avril 2024

Bases & Netsources - Accueil

L’intelligence économique commence par une veille intelligente

Les géants du Web face aux « Fake News »

Netsources no
140
publié en
2019.05
664
Tags
Réduire Augmenter Taille de la police
Les géants du Web face aux « Fake News » Image 1
Les géants du Web face aux « Fake News » Image 1

Face aux multiples scandales liés à la désinformation ayant éclaboussé les géants du Web ces dernières années, Google, Facebook, Twitter et les autres n’ont eu d’autre choix que de réagir et proposer des solutions pour lutter contre ce phénomène.

Quels sont les initiatives, outils et fonctionnalités mises en place par les géants du Web aujourd’hui ? En quoi cela impacte-t-il et en quoi cela peut-il aider le professionnel de l’information dans ses pratiques de veille et de recherche d’information et plus précisément au niveau de l’évaluation de l’information et des sources ?

Lire aussi :

La veille et la recherche d'information à l'ère des « fake news » et de la désinformation
Tirer parti du fact-checking et du journalisme d'investigation pour la veille et la recherche d information
Les outils de veille et de recherche professionnels face à la fiabilité des sources
Ces start-ups qui investissent le champ de l'évaluation des sources et contenus
Comment évaluer la fiabilité des sources dans des pays dont on ne connaît pas la langue ?


Google : moins de contenus et sources douteuses sur la première page de résultats

Google reste un des outils de recherche indispensables pour la veille et la recherche d’information. Et le moins que l’on puisse dire, c’est qu’il n’a pas été épargné par les critiques sur son rôle dans la diffusion d’«infox» (voir glossaire) au cours des dernières années : sites douteux, conspirationnistes, racistes, sexistes, révisionnistes etc. très bien classés dans les résultats voire même utilisés dans les featured snippets, accusations de maintenir les internautes dans une bulle de filtres en proposant des résultats personnalisés et adaptés au profil de l’internaute, etc.

Il est vrai qu’aux débuts des featured snippets, ces résultats en position zéro qui extraient des éléments d’une page Web jugée pertinente afin d’apporter directement la réponse à la question de l’internaute, il n’était pas rare de voir émerger des contenus de sites plus que douteux et champions dans la diffusion de fake news.

Il faut dire que ces sites, qui diffusent des infox, avec une intention de nuire, maîtrisent souvent parfaitement les codes du Web et sont généralement très bons en matière de référencement.

Sans qu’on les retrouve nécessairement dans les featured snippets, il n’était pas rare non plus de voir apparaître des sites douteux sur la première page de résultats de Google.

Cette présence de résultats véhiculant des infox dans la première page s’expliquait également par une raison très simple : depuis plusieurs années déjà, Google essaye de comprendre l’intention de l’utilisateur afin de lui fournir des résultats en adéquation avec ses besoins. Le risque est alors de faire ressortir des résultats qui disent à l’internaute ce qu’il a envie d’entendre même si ces résultats proviennent de sites douteux ou diffusant de fausses d’information.

Naturellement, des requêtes du type « est-ce que la terre est plate ? », « le lait est-il cancérigène ? », « les vaccins sont-ils dangereux pour la santé ? » avaient toutes les chances de faire remonter des résultats issus de sites très douteux, voire absolument scandaleux.

Mais force est de constater qu’en quelques années, Google a su améliorer son algorithme afin d’éviter de faire ressortir ce type de résultats sur la première page, même si on n’est jamais à l’abri de quelques surprises. Globalement, ces résultats n’ont pas complètement disparu mais ont souvent été relégués plus loin dans les pages de résultats.

Si la qualité des résultats s’est améliorée, ce n’est peut-être pas uniquement l’œuvre de l’intelligence artificielle et de l’algorithme de Google mais également des search quality evaluators qui travaillent pour Google, soit plus de 10 000 personnes à travers le monde chargées d’évaluer la qualité, l’expertise, l’autorité et la fiabilité de sites et pages Web. Difficile d’évaluer le rôle réel de ces évaluateurs d’autant qu’il y a quelques jours John Mueller, Webmaster Trends Analyst chez Google indiquait qu’en « règle générale, Google n’évalue pas l’autorité d’un site »

Sur ce sujet, on conseillera la lecture d’un livre blanc publié par Google en février dernier et intitulé « How Google fights disinformation » : https://huit.re/Google-fights-disinformation.

On y apprend notamment que, pour Google Search, Google News et YouTube, Google a amélioré son algorithme de ranking pour mieux faire ressortir les sources de qualité, qu’il essaye de mieux détecter les acteurs qui détournent le SEO à des fins non louables et qu’il essaye de fournir toujours plus de contexte et différents points de vue aux internautes afin qu’ils puissent se faire leur propre opinion. On se rappellera ainsi que Google avait annoncé il y a quelques mois le lancement de « Featured Snippets augmentés », capables d’agréger des contenus de sources différentes présentant des avis contradictoires (comme Bing qui l’avait fait quelques mois auparavant).

Du côté de YouTube, Google n’a de cesse de durcir ses conditions d’utilisation et n’hésite pas à supprimer des chaînes jugées « toxiques ».

Et du côté de Google News, Google avait ajouté dès 2017 un label de fact-checking pour certaines informations et articles quand ils avaient été vérifiés par des journalistes.

Enfin, il propose également un moteur de fact-checking disponible à l’adresse suivante https://toolbox.google.com/factcheck/explorer#fce.

Mais en ce qui concerne la baisse de résultats issus de sites douteux, le mérite ne revient peut-être pas uniquement à Google.

En effet, un certain nombre d’acteurs et notamment des entreprises qui voyaient leur image et leur secteur d’activité ternis par des résultats négatifs ou peu flatteurs ont également décidé d’être proactifs (seuls ou aidés par des cabinets spécialisés) en proposant une véritable stratégie de contenu sur le Web (création de pages explicatives, création de portails d’information, posts sponsorisés sur des blogs et sites d’information, etc.) afin de marginaliser ses résultats jugés « nocifs ».

On pensera notamment à cet exemple présenté lors du dernier salon i-expo par le cabinet Boléro sur l’industrie de la laine de verre en France. Certains acteurs de ce secteur, lassés de voir l’image de leur industrie ternie sur la première page de résultats de Google (danger de la laine de verre, alternatives bio à la laine de verre, etc.) ont ainsi choisi une stratégie de production de contenu Web pour mettre en valeur leur industrie (rédaction d’articles, réponses à des interviews dans les médias, création de portails d’information, etc.) et ce, afin de marginaliser les résultats « anxiogènes ».

tags

Déjà abonné ? Connectez-vous...

Les abonnés peuvent poster des commentaires ! N'hésitez pas à vous abonner à Bases et Netsources...