Est-ce que Facebook vous emprisonne dans une bulle politique ?



Facebook-politique

Est-ce que vous affiche uniquement du contenu politique selon vos préférences au détriment de la pluralité de l’information ?


 

Est-ce que Facebook favorise un camp politique plutôt qu’un autre ? Depuis des années, les chercheurs en politique se sont demandés si l’affichage du contenu se basait sur un filtrage idéologique tout en censurant le contenu appartenant aux autres camps politiques. Si vous aimez le contenu d’une politique libérale, alors est-ce que Facebook va vous cacher tout le contenu des conservateurs et vice-versa. Une étude menée sur Facebook montre que c’est possible, mais que ses effets sont minimes.

Pour les chercheurs, ce phénomène s’appelle la bulle de filtrage qui est une vue personnalisée selon les algorithmes des entreprises technologiques. Et on peut voir la même chose sur Google. Un géologue ou un musicien qui chercherait l’expression Type of Rocks devrait avoir des résultats basés sur leurs préférences, car le musicien risque de se retrouver avec des résultats sur différents types de pierre tandis que le géologue verra différents types de musique rock. Cela peut aussi affecter les acheteurs en ligne qui verront des comparatifs de prix qui se baseront uniquement sur leurs préférences.

L’équipe de recherche sur Facebook s’est concentré sur la polarisation politique. On a l’impression que le Flux sur Facebook semble naturel qui réflète les publications de vos amis. Mais Facebook intervient en amont pour filtrer ce flux en se basant sur vos préférences. Et cet algorithme évolue constamment, car à la base, le contenu s’affichait en fonction du nombre de Likes ou de clics. Mais désormais, l’algorithme se base sur un score de pertinence pour mieux atteindre l’utilisateur. Ce score de pertinence est évalué par des éléments humains. Par exemple, une publication virale concernant des chatons peut générer beaucoup de Likes, mais son score de pertinence sera proche de zéro puisque ce type de contenu est assimilé à un piège à liens.

Mais cela va au delà de l’amélioration de l’expérience d’utilisateur sur Facebook. Et ils peuvent perdre plus que des images de chatons. Ainsi, les libéraux et les conservateurs connaissent rarement les opinions des uns des autres parce que Facebook cache les résultats des camps politiques respectifs. Et cela peut provoquer une polarisation et un fondamentalisme politique qui est néfaste au concept de la pluralité de l’information et donc, de la démocratie.

Ce n’était pas difficile de connaitre l’affiliation politique des utilisateurs. On peut le dire clairement sur son profil. L’équipe a également cartographié les organisations politiques par une notation idéologique allant de -2 pour les ultra-conservateurs et à +2 pour les ultra-libéraux. En ayant éliminé les américains qui se sont connectés moins de 4 fois par semaine sur Facebook, les chercheurs se sont retrouvés avec 10 millions d’utilisateurs. Et ils les ont testés avec des sujets d’actualité.

Le fait de créer un favoristime politique sur un contenu était assez délicat. Plutôt que de mesurer l’aspect politique de l’actualité en utilisant la sémantique, l’équipe a utilisé une méthode plus expéditive. L’alignement politique de l’actualité était basée sur la moyenne de cet alignement de tous les utilisateurs qui ont fait un lien à cette actualité. Par exemple, le score politique du New-York Time était de -0,62 (un peu libéral) tandis que celui de Fox New était de +0,78 (un peu conservateur). L’actualité a été affichée dans une manière croisée. L’actualité libérale s’affichait chez un utilisateur conservateur et vice-versa. Avec ces chiffres, les chercheurs ont analysé chaque actualité entre 2011 et 2012 avec celle qui ont été filtrée par l’algorithme.

En comparant les 2 groupes d’actualités, les chercheurs ont trouvés que l’algorithme de Facebok crée effectivement un effet d’écho. Mais ce n’est pas aussi puissant qu’on le pensait. L’algorithme filtrait uniquement 1 % des résultats basé sur des aspects politiques. L’équipe conclut que l’utilisateur n’est pas influencé par l’algorithme de Facebook, mais plutôt par les personnes qui lui envoient l’histoire en question. De ce fait, on peut dire que l’effet de bulle n’est pas si inquiétant que ça. Mais cela peut poser un problème sur le long terme. Il y a 3 ans, on sait que Facebook avait biaisé l’affichage des contenus sur la manière de voter des utilisateurs. De ce fait, on ne peut pas dire si Facebook est bon ou néfaste à la démocratie.

 

N'oubliez pas de voter pour cet article !
1 étoile2 étoiles3 étoiles4 étoiles5 étoiles (No Ratings Yet)
Loading...

Houssen Moshinaly

Rédacteur en chef d'Actualité Houssenia Writing. Rédacteur web depuis 2009 et vulgarisateur scientifique.

Je m'intéresse à tous les sujets scientifiques allant de l'Archéologie à la Zoologie. Je ne suis pas un expert, mais j'essaie d'apporter mes avis éclairés sur de nombreux sujets scientifiques.

Pour me contacter personnellement :

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *