Des chercheurs intègrent des signaux biologiques à des méthodes d’apprentissage automatique de référence pour permettre des systèmes de dialogue vocal intelligents sur le plan émotionnel


  • FrançaisFrançais


  • Suivez-nous sur notre page Facebook et notre canal Telegram


    La technologie de reconnaissance de la parole et du langage est un domaine en développement rapide, qui a conduit à l’émergence de nouveaux systèmes de dialogue vocal, tels qu’Amazon Alexa et Siri. Une étape importante dans le développement des systèmes d’intelligence artificielle (IA) de dialogue est l’ajout de l’intelligence émotionnelle. Un système capable de reconnaître les états émotionnels de l’utilisateur, en plus de comprendre le langage, générerait une réponse plus empathique, conduisant à une expérience plus immersive pour l’utilisateur.

    “L’analyse multimodale des sentiments” est un groupe de méthodes qui constituent l’étalon-or pour un système de dialogue IA avec détection des sentiments. Ces méthodes peuvent analyser automatiquement l’état psychologique d’une personne à partir de son discours, de la couleur de sa voix, de son expression faciale et de sa posture et sont cruciales pour les systèmes d’IA centrés sur l’humain. La technique pourrait potentiellement réaliser une IA émotionnellement intelligente avec des capacités au-delà de l’humain, qui comprend le sentiment de l’utilisateur et génère une réponse en conséquence.

    Cependant, les méthodes actuelles d’estimation des émotions se concentrent uniquement sur les informations observables et ne tiennent pas compte des informations contenues dans les signaux non observables, tels que les signaux physiologiques. De tels signaux sont une mine d’or potentielle d’émotions qui pourraient améliorer considérablement les performances d’estimation des sentiments.

    Dans une nouvelle étude publiée dans la revue Transactions IEEE sur l’informatique affective, des signaux physiologiques ont été ajoutés pour la première fois à l’analyse des sentiments multimodaux par des chercheurs japonais, une équipe collaborative composée du professeur associé Shogo Okada du Japan Advanced Institute of Science and Technology (JAIST) et du professeur Kazunori Komatani de l’Institut de recherche scientifique et industrielle à l’Université d’Osaka. “Les humains sont très doués pour dissimuler leurs sentiments. L’état émotionnel interne d’un utilisateur n’est pas toujours reflété avec précision par le contenu du dialogue, mais comme il est difficile pour une personne de contrôler consciemment ses signaux biologiques, tels que la fréquence cardiaque, il peut être utile de les utiliser pour estimer leur état émotionnel. Cela pourrait constituer une IA avec des capacités d’estimation des sentiments qui dépassent l’humain », explique le Dr Okada.

    L’équipe a analysé 2468 échanges avec une IA de dialogue obtenue auprès de 26 participants pour estimer le niveau de plaisir ressenti par l’utilisateur lors de la conversation. L’utilisateur a ensuite été invité à évaluer à quel point il trouvait la conversation agréable ou ennuyeuse. L’équipe a utilisé l’ensemble de données de dialogue multimodal nommé “Hazumi1911”, qui combinait de manière unique la reconnaissance vocale, les capteurs de couleur de la voix, l’expression faciale et la détection de la posture avec le potentiel de la peau, une forme de détection de réponse physiologique.

    “En comparant toutes les sources d’informations distinctes, les informations sur les signaux biologiques se sont avérées plus efficaces que la voix et l’expression faciale. Lorsque nous avons combiné les informations sur le langage avec les informations sur les signaux biologiques pour estimer l’état interne auto-évalué tout en parlant avec le système, le Les performances de l’IA sont devenues comparables à celles d’un humain », commente avec enthousiasme le Dr Okada.

    Ces résultats suggèrent que la détection de signaux physiologiques chez l’homme, qui restent généralement cachés à notre vue, pourrait ouvrir la voie à des systèmes de dialogue basés sur l’IA hautement intelligents sur le plan émotionnel, permettant des interactions homme-machine plus naturelles et satisfaisantes. De plus, les systèmes d’IA émotionnellement intelligents pourraient aider à identifier et à surveiller la maladie mentale en détectant un changement dans les états émotionnels quotidiens. Ils pourraient également être utiles dans l’éducation où l’IA pourrait évaluer si l’apprenant est intéressé et excité par un sujet de discussion, ou s’il s’ennuie, ce qui entraînerait des changements dans la stratégie d’enseignement et des services éducatifs plus efficaces.

    Source de l’histoire :

    Matériaux fourni par Institut supérieur des sciences et technologies du Japon. Remarque : Le contenu peut être modifié pour le style et la longueur.

    Houssen Moshinaly

    Rédacteur en chef d'Actualité Houssenia Writing. Rédacteur web depuis 2009.

    Blogueur et essayiste, j'ai écrit 9 livres sur différents sujets comme la corruption en science, les singularités technologiques ou encore des fictions. Je propose aujourd'hui des analyses politiques et géopolitiques sur le nouveau monde qui arrive. J'ai une formation de rédaction web et une longue carrière de prolétaire.

    Pour me contacter personnellement :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *