Site icon Actualité Houssenia Writing

Quand Google propage des Fakes News et des rumeurs via ses boites de réponse (Answer Box)

Depuis quelques années, Google propose les boites de réponse (Answer Box) qui vous donne directement une réponse quand vous posez une question. Mais un dossier proposé par un professeur d'histoire du MIT montre que Google se prend les pieds dans le tapis en affichant des Hoax et des rumeurs comme des réponses fiables. Et c'est bien plus grave qu'un site de Fake News.

Le site Outline.com a réalisé un long dossier sur le fait que Google propage des Hoax et des rumeurs via ce que les webmestres appellent l’Answer Box ou boite de réponse. De plus en plus, quand vous posez une question, alors Google va vous afficher directement la réponse dans les résultats de son moteur de recherche en vous évitant d’aller sur le site. En plus d’être considéré comme un vol manifeste de contenus puisque le webmestre perd ses visites, ce dossier montre les impacts catastrophiques quand on délègue la fiabilité d’un contenu à un des algorithmes.

Si vous avez apprécié cet article, soutenez-moi sur Patreon ou Buy me a coffee Vous recevrez chaque semaine du contenu exclusif et des réponses à vos questions. Merci ! 😊

Par exemple, parmi les réponses qui affichent des rumeurs, on a le fait que Warren Harding, ancien président des États-Unis, était un membre du Klu Klux Klan. Sur une requête de type : presidents in the klan, Google va afficher la réponse suivante :

L’Answer Box est un affichage amélioré du résultat et certains l’appellent également comme la position 0 puisqu’on bénéficie d’une grande place dans la première page. Mais quand on regarde la source du site, alors on découvre un site douteux qui cite des pseudo-historiens et une vérification révèle que Harding n’a jamais été membre du KKK et c’est valable pour les autres 3 présidents sur la liste. Harry Truman, cité également dans la liste, était un raciste, mais il avait pris ses distances vis-à-vis du KKK. Mais Google ne propose pas uniquement des Answer Box sur des faits historiques, car c’est une véritable jungle quand on recherche des informations médicales. Une requête de type msg dangers affiche la réponse suivante :

Et il y a des dizaines de requêtes similaires qui affichent de fausses informations ou des Hoax. Ainsi, Google va vous dire qu’Obama prépare un Coup d’Etat ou que les camions rouges des pompiers affichent une réponse provenant d’une blague des Monty Python. Tout le dossier est rempli d’exemples de ce genre, mais le point important à comprendre que Google n’extrait plus les réponses des sites uniquement fiables, mais également ceux qui se classent le mieux. Si vous optimisez votre site en utilisant ce qu’on appelle les données enrichies qui sont proposées par des normes telles que Schema.org, alors vous avez de bonnes chances d’être dans la boite de réponse si votre page est très populaire. Autrefois, Google utilisait uniquement des sites comme Wikipédia ou la base de données de la CIA, mais aujourd’hui, tout le monde peut prétendre à une place dans la boite de réponse si vous jouez le jeu. Et c’est un énorme problème et cela montre l’hypocrisie de Google sur son amélioration de l’expérience de l’utilisateur.

En fait, la boite de réponse est un avantage compétitif de Google, car Bing, Qwant ou Duck Duck Go n’affichent pas cette réponse à la volée. Cela lui permet d’augmenter ses parts de marché et surtout, cela lui donne un avantage crucial sur des applications telles que Google Home ou Google Now où on peut poser toutes sortes de questions à Google et on peut juste imaginer les dégâts quand les fausses informations infectent ces réponses.

Mais on peut jouer à l’avocat du diable en estimant que Google donne des réponses pertinentes par rapport à la question de base. Si votre question est biaisée, alors vous aurez des réponses biaisées. Si vous cherchez une requête du genre : quel vaccin provoque l’autisme, Google vous donne la réponse suivante et notons que ce sont des résultats en français :

La réponse de Google vient clairement d’un site anti-vaccin. Notons qu’on a d’abord tapé la requête “vaccin autisme” et les réponses démontaient tous les liens possibles entre les deux, mais Google aide les complotistes, car il affiche des recherches suggérées et la personne, ayant déjà des soupçons, va cliquer sur la requête correspondante :

Encore une fois, si la question est déjà biaisée, alors on ne peut pas en vouloir à Google de donner une réponse pertinente par rapport à ce biais. Mais parfois, la requête n’est pas biaisé, mais on a des réponses foireuses par Google. En 2015, les utilisateurs avaient rapporté que la requête What happened to the dinosaurs affichait une réponse provenant d’un site créationniste.

Google a supprimé la boite de réponse en catimini, mais aujourd’hui encore, tapez la requête What happened to the dinosaurs et vous aurez toujours le site créationniste dans le premier résultat :

Actuellement, Google affiche des Answer Box pour 20 % des requêtes et s’il y a des réponses aussi biaisées, alors les dégâts sont monstrueux et Google n’a pas de solutions. Toute sa stratégie pour son moteur de recherche se base sur l’automatisation, les algorithmes et les intelligences artificielles. RankBrain, l’IA de Google, était le 3e facteur le plus important pour le référencement et si vous savez optimisé la requête pour cette IA, alors la vérité, on peut s’asseoir joyeusement dessus. Il faut constamment des humains pour vérifier la validité d’un résultat qu’il soit scientifique ou social et même ce résultat validé doit être soumis à une évolution constante. L’automatisation est la meilleure manière pour que les utilisateurs subissent toutes les fausses informations possibles dans leur quotidien.

Si vous avez apprécié cet article, soutenez-moi sur Patreon ou Buy me a coffee Vous recevrez chaque semaine du contenu exclusif et des réponses à vos questions. Merci ! 😊

Quitter la version mobile