Youtube part en guerre contre l’extrémisme


  • FrançaisFrançais

  • Avec de nouvelles mesures, Youtube va supprimer les vidéos extrémistes et incitant à la haine sur Youtube. Des mesures qui sont étranges dans la plupart des cas.


    Suivez-nous sur notre page Facebook et notre canal Telegram

    Avec de nouvelles mesures, Youtube va supprimer les vidéos extrémistes et incitant à la haine sur Youtube. Des mesures qui sont étranges dans la plupart des cas.

    Youtube a été très critiqué pour avoir hébergé des vidéos extrémistes, incitant à la haine ou montrant des contenus violents. En représailles, les annonceurs avaient boycotté la plateforme même si au final, c’est juste une guerre de Business pour forcer Youtube à revoir ses tarifs. De plus, les changements algorithmiques de Youtube ont provoqué des dommages collatéraux sur de nombreuses chaines Youtube parce que les algorithmes sont cons comme leurs pieds.1

    Si vous avez apprécié cet article, soutenez-moi sur Patreon ou Buy me a coffee Vous recevrez chaque semaine du contenu exclusif et des réponses à vos questions. Merci ! 😊

    Et Youtube rajoute 4 nouvelles mesures pour supprimer le contenu extrémiste sur sa plateforme. En premier lieu, les algorithmes vont devenir plus présents et plus “performants”. Ainsi, Youtube estime que ses algorithmes peuvent différencier une vidéo montrant un attentat à des buts informatifs par un média ou une autre qui est publiée à des fins de propagande. Youtube estime que ces algorithmes réussissent à détecter 50 % des vidéos extrémistes.

    Mais cela signifie aussi qu’il provoque de faux positifs sur les 50 % restants. Ensuite, Youtube va augmenter le nombre de modérateurs humains pour signaler des vidéos. Il a conclu un partenariat avec 50 experts provenant de 63 ONG. Youtube estime que ces modérateurs humains détectent 90 % des vidéos violentes. Pour les récompenser, Youtube va leur donner des subventions. C’est une bonne nouvelle, mais comment déterminer si le modérateur signale une vidéo de manière objective ou que le contenu ne lui plait pas ? Le risque d’Astroturfing est non négligeable puisqu’on pourrait assister à l’émergence de groupes dans ces modérateurs humains qui vont prêcher uniquement pour leur paroisse. 2 3   Si un modérateur humain n’aime pas les Végans ou les féministes, est-ce qu’il sera objectif ?

    La 3e mesure est la plus importante. Youtube va sanctionner des vidéos qui ne violent pas son règlement. Par exemple, pour des vidéos suprématistes ou des contenus religieux extrémistes, il y aura un interstitiel qui apparaitra avant la vidéo en informant que ce contenu peut être dangereux. De plus, ces vidéos ne seront pas monétisés et elles ne seront pas prises en compte dans les algorithmes de recommandation. En gros, Youtube ne fera rien pour les promouvoir. Pour la plateforme, c’est un bon compromis entre la liberté d’expression et le refus de promouvoir des opinions extrémistes. Vous la sentez venir la grosse polémique ? Cette mesure va faire très mal. D’une part, on revient au même problème qui est déterminer la légitimité d’une vidéo.

    Aujourd’hui, on a des vidéastes qui montrent des erreurs étranges sur leur chaine, car leurs vidéos n’apparaissent plus dans la boite des abonnements. Seules les chaines ayant un nombre d’abonnés suffisants s’affichent dans les abonnements et les petites chaines disparaissent. Et ces vidéastes font uniquement du jeu vidéo. Youtube devra faire très attention avec cette mesure, car c’est une véritable tronçonneuse hors de contrôle. Si ces algorithmes et ces modérateurs ne fournissent pas une précision millimétrique, alors il va y avoir un bain de sang dans les chaines Youtube qui vont disparaitre parce qu’elles ont été signalées.

    Enfin, Youtube va renforcer son partenariat avec Jigsaw pour aider à combattre le contenu terroriste. Jigsaw est une initiative de Google assez opaque, car elle fournit des outils anti-DDoS pour les blogueurs, mais également un machin appelé Perspective qui permet de détecter des trolls et des commentaires haineux grâce à des algorithmes.4 Et donc, Jigsaw va fournir une technologie appelée Redirect. Si un “apprenti terroriste” veut consulter des vidéos extrémistes, alors cette technologie va le diriger vers des contenus anti-terroriste pour lui faire changer d’avis et lui dire que “le terrorisme, c’est maaal”. Il serait étonnant que des contenus éducatifs puissent changer l’opinion de ce type de personne. Ces mesures de Youtube semblent intéressantes sur le papier, mais elles recèlent énormément de pièges qui pourraient provoquer une censure et un contrôle complet de l’information.

    Sources

    1.
    Four steps we’re taking today to fight online terror. Google. https://blog.google/topics/google-europe/four-steps-were-taking-today-fight-online-terror/. Published June 18, 2017. Accessed June 19, 2017.
    2.
    L’astroturfing est une stratégie de communication dont la source réelle est occultée et qui prétend à tort être d’origine citoyenne.
    3.
    Sophie B. Exploration du phénomène d’astroturfing : une stratégie de communication usurpant l’identité citoyenne dans l’espace public. communiquer.revues.org. https://communiquer.revues.org/487. Accessed June 19, 2017.
    4.
    Jigsaw. Jigsaw. https://jigsaw.google.com/projects/. Accessed June 19, 2017.

    Si vous avez apprécié cet article, soutenez-moi sur Patreon ou Buy me a coffee Vous recevrez chaque semaine du contenu exclusif et des réponses à vos questions. Merci ! 😊

    Houssen Moshinaly

    Rédacteur en chef d'Actualité Houssenia Writing. Rédacteur web depuis 2009.

    Blogueur et essayiste, j'ai écrit 9 livres sur différents sujets comme la corruption en science, les singularités technologiques ou encore des fictions. Je propose aujourd'hui des analyses politiques et géopolitiques sur le nouveau monde qui arrive. J'ai une formation de rédaction web et une longue carrière de prolétaire.

    Pour me contacter personnellement :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *