Un nouveau algorithme permet de détecter les trolls sur le web


  • FrançaisFrançais


  • Suivez-nous sur notre page Facebook et notre canal Telegram


    algorithme-troll

    Un nouveau algorithme permet de détecter les trolls et les comportements anti-sociaux sur le web. Et il est financé par Google…


    Vous feriez bien de réfléchir à 2 fois lorsque vous publiez un commentaire au vitriol sur quelque chose qui vous déplait. Des chercheurs de l’université de Stanford et de Cornell ont développé un nouveau algorithme qui détecte automatiquement les trolls sur le web en aidant les sites à les bannir définitivement.

    Si vous avez apprécié cet article, soutenez-moi sur Patreon ou Buy me a coffee Vous recevrez chaque semaine du contenu exclusif et des réponses à vos questions. Merci ! 😊

    Cette recherche est financée par Google et les chercheurs ont pu reproduire un algorithme qui a seulement besoin de 10 articles ou commentaires pour détecter un troll. Les fautes d’ortographes et grammaticales sont parmi les principaux indicateurs et en général, la qualité et la légitimité des articles et commentaires des trolls tendent à se dégrader au fil du temps.

    Les chercheurs estiment que les trolls préfèrent se concentrer sur quelques articles et ils vont publier des commentaires non-pertinents en espérant obtenir des réactions enragés de la part des autres commentateurs. Cela permet de relever un comportement spécifique qui aide les communautés à les bannir définitivement.

    Parmi les autres critères pour détecter un troll, on a également les réactions très négatives des autres utilisateurs et une augmentation du comportement anti-social à cause d’une seule personne. Mais cette étude a également démontré qu’il n’y a aucun modèle précis lorsqu’on regarde les commentaires négatifs ou insultants. Cela signifie qu’un commentaire trollesque n’est pas unique et que le troll adapte toujours son message pour faire le maximum de dégats. Si on arrive à déceler un modèle unique pour détecter tous les trolls, alors on peut mettre en place une politique de FBU (Futur Banned Users) qui empêche les trolls de s’exprimer.

    Pendant cette recherche, les chercheurs ont étudié 1,7 millions d’utilisateurs et 40 millions d’articles et de commentaires sur CNN, IGN ou Breitbard pendant près de 18 mois. Au final, la conclusion des chercheurs est qu’un algorithme pour détecter les trolls pourrait détecter des comportements douteux en amont, mais qu’il n’est pas fiable à 100 %. Pendant le test, l’algorithme a aussi fait des erreurs puisqu’il a pénalisé 1 bon utilisateur sur 4 trolls avérés. Cela signifie que l’algorithme est efficace à 75 % et qu’on pourrait communiquer dans de meilleures conditions si on pouvait supprimer 75 % des trolls sur le web.

    Les chercheurs suggèrent aussi de donner une seconde chance aux trolls avant de les bannir définitivement.

    Source

    Si vous avez apprécié cet article, soutenez-moi sur Patreon ou Buy me a coffee Vous recevrez chaque semaine du contenu exclusif et des réponses à vos questions. Merci ! 😊

    Houssen Moshinaly

    Rédacteur en chef d'Actualité Houssenia Writing. Rédacteur web depuis 2009.

    Blogueur et essayiste, j'ai écrit 9 livres sur différents sujets comme la corruption en science, les singularités technologiques ou encore des fictions. Je propose aujourd'hui des analyses politiques et géopolitiques sur le nouveau monde qui arrive. J'ai une formation de rédaction web et une longue carrière de prolétaire.

    Pour me contacter personnellement :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *