Les chatbots joyeux n’améliorent pas nécessairement le service client


  • FrançaisFrançais



  • Imaginez envoyer un message à un chatbot d’intelligence artificielle (IA) à propos d’un paquet manquant et obtenir la réponse qu’il serait « ravi » d’aider. Une fois que le bot a créé la nouvelle commande, ils disent qu’ils sont « heureux » de résoudre le problème. Après, vous recevez une enquête sur votre interaction, mais seriez-vous susceptible de la noter comme positive ou négative ?

    Ce scénario n’est pas si éloigné de la réalité, car les chatbots IA prennent déjà le contrôle du commerce en ligne. D’ici 2025, 95% des entreprises auront un chatbot IA, selon Résumé des finances. L’IA n’est peut-être pas encore sensible, mais elle peut être programmée pour exprimer des émotions.

    Les humains affichant des émotions positives dans les interactions avec le service client sont connus depuis longtemps pour améliorer l’expérience client, mais les chercheurs du Scheller College of Business du Georgia Institute of Technology ont voulu voir si cela s’appliquait également à l’IA. Ils ont mené des études expérimentales pour déterminer si les affichages émotionnels positifs amélioraient le service client et ont constaté que l’IA émotionnelle n’est appréciée que si le client s’y attend, et que ce n’est peut-être pas la meilleure avenue dans laquelle les entreprises peuvent investir.

    « Il est communément admis et démontré à plusieurs reprises que les employés humains peuvent exprimer des émotions positives pour améliorer les évaluations de service des clients », a déclaré Han Zhang, professeur Steven A. Denning en technologie et gestion. « Nos résultats suggèrent que la probabilité que l’expression d’une émotion positive par l’IA profite ou nuise aux évaluations de service dépend du type de relation que les clients attendent de l’agent de service. »

    Les chercheurs ont présenté leurs découvertes dans l’article, « Bots With Feelings: Should AI Agents Express Positive Emotion in Customer Service? », dans Recherche sur les systèmes d’information en décembre.

    Étudier les émotions de l’IA

    Les chercheurs ont mené trois études pour élargir la compréhension de l’IA émotionnelle dans les transactions de service client. Bien qu’ils aient changé les participants et le scénario de chaque étude, les chatbots IA imprégnés d’émotion ont utilisé des adjectifs émotionnels positifs, tels que excité, ravi, heureux ou heureux. Ils ont également déployé plus de points d’exclamation.

    La première étude visait à savoir si les clients répondaient plus favorablement à une émotion positive s’ils savaient que l’agent client était un bot ou une personne. Les participants ont été informés qu’ils cherchaient de l’aide pour un article manquant dans une commande au détail. Les 155 participants ont ensuite été assignés au hasard à quatre scénarios différents : des agents humains avec une émotion neutre, des agents humains avec une émotion positive, des bots avec une émotion neutre et des bots avec une émotion positive. Ensuite, ils ont interrogé les participants sur la qualité du service et la satisfaction globale. Les résultats ont indiqué que l’émotion positive était plus bénéfique lorsque les agents humains l’exhibaient, mais qu’elle n’avait aucun effet lorsque les bots l’exhibaient.

    La deuxième étude a examiné si les attentes personnelles des clients déterminaient leur réaction au bot. Dans ce scénario, les 88 participants ont imaginé rendre un manuel et ont été assignés au hasard à des robots à émotion positive ou à émotion neutre. Après avoir discuté avec le bot, on leur a demandé d’évaluer s’ils étaient orientés vers la communauté (sociale) ou vers l’échange (transaction) sur une échelle. Si le participant était axé sur la communauté, il était plus susceptible d’apprécier le bot émotionnel positif, mais s’il s’attendait à ce que l’échange soit simplement transactionnel, le bot émotionnellement positif a aggravé son expérience.

    « Notre travail permet aux entreprises de comprendre les attentes des clients exposés aux services fournis par l’IA avant qu’ils n’équipent au hasard les IA de capacités d’expression d’émotions », a déclaré Zhang.

    L’étude finale a exploré pourquoi l’émotion positive d’un bot influence les émotions des clients, en suivant 177 étudiants de premier cycle assignés au hasard à des bots émotifs ou non émotifs. Les résultats expliquent pourquoi les bots positifs ont moins d’effet que prévu. Parce que les clients ne s’attendent pas à ce que les machines aient des émotions, ils peuvent réagir négativement à l’émotion dans un bot.

    Les résultats des études montrent que l’utilisation d’émotions positives dans les chatbots est difficile car les entreprises ne connaissent pas les préjugés et les attentes d’un client dans l’interaction. Un chatbot heureux peut conduire à un client mécontent.

    « Nos résultats suggèrent que l’effet positif de l’expression d’une émotion positive sur les évaluations de service peut ne pas se matérialiser lorsque la source de l’émotion n’est pas un être humain », a déclaré Zhang. « Les praticiens doivent être prudents quant aux promesses d’équiper les agents d’IA de capacités d’expression d’émotions. »

    N'oubliez pas de voter pour cet article !
    1 étoile2 étoiles3 étoiles4 étoiles5 étoiles (No Ratings Yet)
    Loading...
    mm

    La Rédaction

    L'équipe rédactionnelle

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *