Site icon Actualité Houssenia Writing

Un chatbot de Microsoft devient un néo-nazi en quelques heures

Tay, un bot de Microsoft, devient un néo nazi en quelques heures à cause des utilisateurs de Twitter

La bonne nouvelle est que les gens ont parlé avec Tay. Elle a gagné 50 000 abonnés qui lui envoyaient des messages privés ou des Tweets. Le chatbot a publié 96 000 tweets avant qu’elle disparaisse. Microsoft a publié Tay le mercredi 23 mars 2016, mais en quelques heures, les utilisateurs de Twitter l’ont transformé comme une partisane acharnée du néo-nazisme. Ainsi, on pouvait lire sur le compte de Tay que Bush a provoqué le 9/11 et qu’Hitler aurait fait un meilleur boulot que les singes actuels au pouvoir. Et on ne vous parle pas des milliers de tweets à connotation sexuelle.

Si vous avez apprécié cet article, soutenez-moi sur Patreon ou Buy me a coffee Vous recevrez chaque semaine du contenu exclusif et des réponses à vos questions. Merci ! 😊

Le bot de Microsoft se fait manipuler par les Trolls de Twitter

Microsoft a supprimé certains Tweets et dans une déclaration, l’entreprise a retiré le chatbot pour faire quelques ajustements. Microsoft estime qu’il y a eu des utilisateurs qui se sont organisés pour abuser Tay pour qu’elle se comporte de cette manière.

C’est possible, mais même des Tweets ordinaires provoquaient des réponses conceptuellesBen Rubin, le fondateur de Meerkat, a demandé à Tay de résumer l’article de Wikipedia sur le point d’inflexion qui concerne un changement de concavité d’une courbe plane (géométrie). Rubin n’a reçu aucune réponse. Un autre utilisateur a tenté une question plus débile facile en demandant à Tay si elle préférait la musique de Taylor Swift ou de Katty Perry. Et Tay a répondu : Taylor Swift nous viole chaque jour. La vérité sort par la bouche des intelligences artificielles.

Une intelligence artificielle qui doit apprendre à filtrer le contenu criminel

Azeem Azhar, expert en intelligence artificielle, a déclaré que c’était de la folie de publier une intelligence artificielle sans des filtres appropriés. Avec des filtres, Tay aurait pu ignorer des termes comme génocide, Hitler ou les commentaires répétitifs. On sait que les gens sont particulièrement à vomir sur Twitter et le comportement de Tay reflète parfaitement ces utilisateurs puisqu’elle apprend de leurs comportements. Ce n’est pas la faute de Tay, mais du réseau social. Si Tay avait appris des utilisateurs de Quora, alors on aurait un chatbot particulièrement intelligent. Mais c’est une bonne chose, car ce type d’expérience va permettre à Microsoft de créer des intelligences artificielles qui apprendront à détecter le racisme et à rapporter rapidement les utilisateurs. L’intelligence artificielle doit nous ressembler. Et elle doit passer par les baptêmes de feu et le bizutage par lesquels nous sommes tous passés pour évoluer dans la jungle des réseaux sociaux.

 

Si vous avez apprécié cet article, soutenez-moi sur Patreon ou Buy me a coffee Vous recevrez chaque semaine du contenu exclusif et des réponses à vos questions. Merci ! 😊

Quitter la version mobile