Les développeurs de SIRI veulent utiliser un algorithme pour lutter contre le cyberharcèlement


  • FrançaisFrançais


  • Suivez-nous sur notre page Facebook et notre canal Telegram


    SRI International, l’entreprise qui a conçu SIRI veut utiliser l’intelligence artificielle pour lutter contre le cyberharcèlement.

    algorithme-intelligence-artificielle

    Il est difficile de lutter contre tous les contenus illégaux qui inondent Twitter, Facebook et d’autres plateformes. Des utilisateurs qui sont confrontés au cyberharcèlement et au contenu violent deviennent souvent dépressifs et beaucoup plus vulnérables aux futures attaques. C’est pourquoi SRI International, qu’on connait surtout pour avoir développé SIRI, veut créer des algorithmes qui peuvent détecter tout comportement induisant le cyberharcèlement et le bannir à la volée. SRI International prétend que la vitesse de traitement sera beaucoup plus rapide que des modérateurs humains. Actuellement, ce sont des humains qui sont la première ligne de défense contre les contenus violents et le cyberharcèlement, mais désormais l’intelligence artificielle pourrait venir à la rescousse.

    Si vous avez apprécié cet article, soutenez-moi sur Patreon ou Buy me a coffee Vous recevrez chaque semaine du contenu exclusif et des réponses à vos questions. Merci ! 😊

    Selon Wired, SRI International est déjà en train de développer cet algorithme et on peut penser que cette entreprise sait ce qu’elle fait. Le succès de SIRI prouve que SRI International maitrise parfaitement la communication et elle est l’une des leaders dans le Machine Learning. Cet algorithme apprend à détecter certaines expressions et un style d’écriture propre au cyberharcèlement et il peut l’interdire avant qu’il atteigne l’utilisateur. Mais Bill Mark, président du département d’informatique et de communication, a déclaré que la lutte contre le cyberharcèlement est quelque chose de difficile. Vous ne pouvez pas juste développer un programme qui détecte des mots, car il faut également les analyser selon le contexte. Les humains peuvent détecter rapidement les sentiments négatifs d’une personne, mais cela reste difficile pour une intelligence artificielle.

    Selon un responsable de SRI International, une première version de cet algorithme pourrait être déployée dans les 6 ou 12 prochains mois. Mais il faudra attendre plusieurs années avant d’avoir un système robuste. Certains sont sceptiques face à cette approche d’utiliser des algorithmes pour détecter le contenu violent, car cela implique qu’on se contente d’effacer les symptômes plutôt que de lutter contre les causes qui provoquent le cyberharcèlement. Mais étant donné que le taux de suicide et de dépression est très élevé chez les modérateurs qui sont confrontés quotidiennement à ce type de contenu, on peut dire qu’on peut adopter toutes les solutions qui permettraient de réduire le cyberharcèlement.

     

    Si vous avez apprécié cet article, soutenez-moi sur Patreon ou Buy me a coffee Vous recevrez chaque semaine du contenu exclusif et des réponses à vos questions. Merci ! 😊

    Houssen Moshinaly

    Rédacteur en chef d'Actualité Houssenia Writing. Rédacteur web depuis 2009.

    Blogueur et essayiste, j'ai écrit 9 livres sur différents sujets comme la corruption en science, les singularités technologiques ou encore des fictions. Je propose aujourd'hui des analyses politiques et géopolitiques sur le nouveau monde qui arrive. J'ai une formation de rédaction web et une longue carrière de prolétaire.

    Pour me contacter personnellement :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *