Les personnes qui se méfient de leurs semblables font davantage confiance à l’intelligence artificielle


  • FrançaisFrançais


  • Suivez-nous sur notre page Facebook et notre canal Telegram


    La méfiance d’une personne envers les humains prédit qu’elle aura plus confiance dans la capacité de l’intelligence artificielle à modérer le contenu en ligne, selon une étude récemment publiée. Les résultats, selon les chercheurs, ont des implications pratiques pour les concepteurs et les utilisateurs d’outils d’IA dans les médias sociaux.

    “Nous avons trouvé un modèle systématique d’individus qui ont moins confiance dans les autres humains et qui font davantage confiance à la classification de l’IA”, a déclaré S. Shyam Sundar, professeur James P. Jimirro d’effets médiatiques à Penn State. “Sur la base de notre analyse, cela semble être dû au fait que les utilisateurs invoquent l’idée que les machines sont précises, objectives et exemptes de préjugés idéologiques.”

    L’étude, publiée dans la revue de Nouveaux médias et société ont également constaté que les “utilisateurs avertis”, qui sont des utilisateurs expérimentés des technologies de l’information, avaient la tendance inverse. Ils ont moins fait confiance aux modérateurs de l’IA car ils pensent que les machines n’ont pas la capacité de détecter les nuances du langage humain.

    L’étude a révélé que les différences individuelles telles que la méfiance envers les autres et la consommation d’énergie prédisent si les utilisateurs invoqueront des caractéristiques positives ou négatives des machines lorsqu’ils seront confrontés à un système basé sur l’IA pour la modération du contenu, ce qui finira par influencer leur confiance envers le système. Les chercheurs suggèrent que la personnalisation des interfaces en fonction des différences individuelles peut modifier positivement l’expérience utilisateur. Le type de modération de contenu dans l’étude consiste à surveiller les publications sur les réseaux sociaux à la recherche de contenus problématiques tels que les discours de haine et les idées suicidaires.

    “L’une des raisons pour lesquelles certains peuvent hésiter à faire confiance à la technologie de modération de contenu est que nous sommes habitués à exprimer librement nos opinions en ligne. Nous pensons que la modération de contenu peut nous enlever cela”, a déclaré Maria D. Molina, professeure adjointe de arts et sciences de la communication à la Michigan State University, et le premier auteur de cet article. “Cette étude peut offrir une solution à ce problème en suggérant que pour les personnes qui ont des stéréotypes négatifs sur l’IA pour la modération de contenu, il est important de renforcer l’implication humaine lors de la prise de décision. D’autre part, pour les personnes ayant des stéréotypes positifs sur les machines, nous pouvons renforcer la force de la machine en mettant en évidence des éléments comme la précision de l’IA.”

    L’étude a également révélé que les utilisateurs ayant une idéologie politique conservatrice étaient plus susceptibles de faire confiance à la modération alimentée par l’IA. Molina et le co-auteur Sundar, qui co-dirige également le laboratoire de recherche sur les effets des médias de Penn State, ont déclaré que cela pourrait provenir d’une méfiance à l’égard des médias grand public et des entreprises de médias sociaux.

    Les chercheurs ont recruté 676 participants des États-Unis. Les participants ont été informés qu’ils aidaient à tester un système de modération de contenu en cours de développement. Ils ont reçu des définitions du discours de haine et des idées suicidaires, suivies de l’un des quatre messages différents sur les réseaux sociaux. Les messages ont été soit signalés pour correspondre à ces définitions, soit non signalés. Les participants ont également été informés si la décision de signaler ou non le message avait été prise par l’IA, un humain ou une combinaison des deux.

    La démonstration a été suivie d’un questionnaire qui demandait aux participants leurs différences individuelles. Les différences comprenaient leur tendance à se méfier des autres, l’idéologie politique, l’expérience avec la technologie et la confiance dans l’IA.

    “Nous sommes bombardés de tant de contenus problématiques, de la désinformation au discours de haine”, a déclaré Molina. “Mais, en fin de compte, il s’agit de savoir comment nous pouvons aider les utilisateurs à calibrer leur confiance envers l’IA en raison des attributs réels de la technologie, plutôt que d’être influencés par ces différences individuelles.”

    Molina et Sundar affirment que leurs résultats pourraient contribuer à façonner l’acceptation future de l’IA. En créant des systèmes personnalisés pour l’utilisateur, les concepteurs pourraient atténuer le scepticisme et la méfiance, et établir une confiance appropriée dans l’IA.

    “Une implication pratique majeure de l’étude est de trouver des stratégies de communication et de conception pour aider les utilisateurs à calibrer leur confiance dans les systèmes automatisés”, a déclaré Sundar, qui est également directeur du Center for Socially Responsible Artificial Intelligence de Penn State. “Certains groupes de personnes qui ont tendance à trop croire en la technologie de l’IA devraient être alertés de ses limites et ceux qui ne croient pas en sa capacité à modérer le contenu devraient être pleinement informés de l’étendue de l’implication humaine dans le processus.”

    Source de l’histoire :

    Matériaux fourni par État de Penn. Original écrit par Jonathan McVerry. Remarque : Le contenu peut être modifié pour le style et la longueur.

    Houssen Moshinaly

    Rédacteur en chef d'Actualité Houssenia Writing. Rédacteur web depuis 2009.

    Blogueur et essayiste, j'ai écrit 9 livres sur différents sujets comme la corruption en science, les singularités technologiques ou encore des fictions. Je propose aujourd'hui des analyses politiques et géopolitiques sur le nouveau monde qui arrive. J'ai une formation de rédaction web et une longue carrière de prolétaire.

    Pour me contacter personnellement :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *