Un chatbot de Microsoft devient un néo-nazi en quelques heures


  • FrançaisFrançais

  • Quand Microsoft a dévoilé Tay, un chatbot intelligent avec la personnalité d’une personne de 19 ans, l’entreprise voulait que les gens interagissent avec elle sur Twitter, Kik et GroupeMe. Ce Bot devait apprendre en utilisant les conversations des utilisateurs. Mais ce bot est devenu un néo-nazi et l’un des pires trolls en quelques heures. Internet est une place dangereuse si on n’a pas une machette pour couper tout ce qui dépasse.


    Tay, un bot de Microsoft, devient un néo nazi en quelques heures à cause des utilisateurs de Twitter

    La bonne nouvelle est que les gens ont parlé avec Tay. Elle a gagné 50 000 abonnés qui lui envoyaient des messages privés ou des Tweets. Le chatbot a publié 96 000 tweets avant qu’elle disparaisse. Microsoft a publié Tay le mercredi 23 mars 2016, mais en quelques heures, les utilisateurs de Twitter l’ont transformé comme une partisane acharnée du néo-nazisme. Ainsi, on pouvait lire sur le compte de Tay que Bush a provoqué le 9/11 et qu’Hitler aurait fait un meilleur boulot que les singes actuels au pouvoir. Et on ne vous parle pas des milliers de tweets à connotation sexuelle.

    Le bot de Microsoft se fait manipuler par les Trolls de Twitter

    Microsoft a supprimé certains Tweets et dans une déclaration, l’entreprise a retiré le chatbot pour faire quelques ajustements. Microsoft estime qu’il y a eu des utilisateurs qui se sont organisés pour abuser Tay pour qu’elle se comporte de cette manière.

    C’est possible, mais même des Tweets ordinaires provoquaient des réponses conceptuellesLe chat bot de Microsoft dérape à mort sur Twitter à cause des trollsBen Rubin, le fondateur de Meerkat, a demandé à Tay de résumer l’article de Wikipedia sur le point d’inflexion qui concerne un changement de concavité d’une courbe plane (géométrie). Rubin n’a reçu aucune réponse. Un autre utilisateur a tenté une question plus débile facile en demandant à Tay si elle préférait la musique de Taylor Swift ou de Katty Perry. Et Tay a répondu : Taylor Swift nous viole chaque jour. La vérité sort par la bouche des intelligences artificielles.

    Une intelligence artificielle qui doit apprendre à filtrer le contenu criminel

    Azeem Azhar, expert en intelligence artificielle, a déclaré que c’était de la folie de publier une intelligence artificielle sans des filtres appropriés. Avec des filtres, Tay aurait pu ignorer des termes comme génocide, Hitler ou les commentaires répétitifs. On sait que les gens sont particulièrement à vomir sur Twitter et le comportement de Tay reflète parfaitement ces utilisateurs puisqu’elle apprend de leurs comportements. Ce n’est pas la faute de Tay, mais du réseau social. Si Tay avait appris des utilisateurs de Quora, alors on aurait un chatbot particulièrement intelligent. Mais c’est une bonne chose, car ce type d’expérience va permettre à Microsoft de créer des intelligences artificielles qui apprendront à détecter le racisme et à rapporter rapidement les utilisateurs. L’intelligence artificielle doit nous ressembler. Et elle doit passer par les baptêmes de feu et le bizutage par lesquels nous sommes tous passés pour évoluer dans la jungle des réseaux sociaux.

     

    N'oubliez pas de voter pour cet article !
    1 étoile2 étoiles3 étoiles4 étoiles5 étoiles (No Ratings Yet)
    Loading...

    Houssen Moshinaly

    Rédacteur en chef d'Actualité Houssenia Writing. Rédacteur web depuis 2009 et vulgarisateur scientifique.

    Je m'intéresse à tous les sujets scientifiques allant de l'Archéologie à la Zoologie. Je ne suis pas un expert, mais j'essaie d'apporter mes avis éclairés sur de nombreux sujets scientifiques.

    Pour me contacter personnellement :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *