Un nouveau système d’apprentissage automatique aide les robots à comprendre et à effectuer certaines interactions sociales. —


  • FrançaisFrançais



  • Les robots peuvent livrer de la nourriture sur un campus universitaire et faire un trou d’un coup sur un terrain de golf, mais même le robot le plus sophistiqué ne peut pas effectuer les interactions sociales de base qui sont essentielles à la vie humaine quotidienne.

    Les chercheurs du MIT ont maintenant intégré certaines interactions sociales dans un cadre pour la robotique, permettant aux machines de comprendre ce que cela signifie de s’entraider ou de se gêner, et d’apprendre à adopter ces comportements sociaux par elles-mêmes. Dans un environnement simulé, un robot observe son compagnon, devine quelle tâche il veut accomplir, puis aide ou gêne cet autre robot en fonction de ses propres objectifs.

    Les chercheurs ont également montré que leur modèle crée des interactions sociales réalistes et prévisibles. Lorsqu’ils ont montré aux humains des vidéos de ces robots simulés interagissant les uns avec les autres, les téléspectateurs humains étaient pour la plupart d’accord avec le modèle sur le type de comportement social qui se produisait.

    Permettre aux robots de présenter des compétences sociales pourrait conduire à des interactions homme-robot plus fluides et plus positives. Par exemple, un robot dans une résidence-services pourrait utiliser ces capacités pour aider à créer un environnement plus attentionné pour les personnes âgées. Le nouveau modèle pourrait également permettre aux scientifiques de mesurer quantitativement les interactions sociales, ce qui pourrait aider les psychologues à étudier l’autisme ou à analyser les effets des antidépresseurs.

    « Les robots vivront dans notre monde bien assez tôt et ils ont vraiment besoin d’apprendre à communiquer avec nous en termes humains. Ils doivent comprendre quand il est temps pour eux d’aider et quand il est temps pour eux de voir ce qu’ils peuvent faire pour empêcher quelque chose de se produire. C’est un travail très précoce et nous effleurons à peine la surface, mais j’ai l’impression que c’est la première tentative très sérieuse pour comprendre ce que signifie pour les humains et les machines d’interagir socialement « , déclare Boris Katz, chercheur principal et chef du groupe InfoLab du Laboratoire d’informatique et d’intelligence artificielle (CSAIL) et membre du Center for Brains, Minds, and Machines (CBMM).

    Se joindre à Katz sur l’article sont le co-auteur principal Ravi Tejwani, assistant de recherche au CSAIL; co-auteur principal Yen-Ling Kuo, doctorant CSAIL ; Tianmin Shu, postdoc au Département des sciences du cerveau et cognitives ; et l’auteur principal Andrei Barbu, chercheur au CSAIL et au CBMM. La recherche sera présentée lors de la conférence sur l’apprentissage des robots en novembre.

    Une simulation sociale

    Pour étudier les interactions sociales, les chercheurs ont créé un environnement simulé dans lequel les robots poursuivent des objectifs physiques et sociaux en se déplaçant sur une grille bidimensionnelle.

    Un objectif physique se rapporte à l’environnement. Par exemple, l’objectif physique d’un robot peut être de naviguer vers un arbre à un certain point de la grille. Un objectif social consiste à deviner ce qu’un autre robot essaie de faire, puis à agir en fonction de cette estimation, comme aider un autre robot à arroser l’arbre.

    Les chercheurs utilisent leur modèle pour spécifier quels sont les objectifs physiques d’un robot, quels sont ses objectifs sociaux et l’importance qu’il doit accorder à l’un par rapport à l’autre. Le robot est récompensé pour les actions qu’il entreprend et qui le rapprochent de la réalisation de ses objectifs. Si un robot essaie d’aider son compagnon, il ajuste sa récompense pour qu’elle corresponde à celle de l’autre robot ; s’il essaie de gêner, il ajuste sa récompense pour qu’elle soit le contraire. Le planificateur, un algorithme qui décide des actions que le robot doit entreprendre, utilise cette récompense mise à jour en permanence pour guider le robot dans la réalisation d’un mélange d’objectifs physiques et sociaux.

    « Nous avons ouvert un nouveau cadre mathématique pour modéliser l’interaction sociale entre deux agents. Si vous êtes un robot et que vous voulez aller à l’emplacement X, et que je suis un autre robot et que je vois que vous essayez d’aller à l’emplacement X , je peux coopérer en vous aidant à vous rendre plus rapidement à l’emplacement X. Cela peut signifier rapprocher X de vous, trouver un autre X meilleur ou prendre toute mesure que vous deviez entreprendre à X. Notre formulation permet au plan de découvrir le « comment » ; nous spécifions le « quoi » en termes de ce que signifient mathématiquement les interactions sociales », explique Tejwani.

    Il est important de combiner les objectifs physiques et sociaux d’un robot pour créer des interactions réalistes, car les humains qui s’entraident ont des limites quant à la distance à parcourir. Par exemple, une personne rationnelle ne se contenterait probablement pas de donner son portefeuille à un étranger, dit Barbu.

    Les chercheurs ont utilisé ce cadre mathématique pour définir trois types de robots. Un robot de niveau 0 n’a que des objectifs physiques et ne peut pas raisonner socialement. Un robot de niveau 1 a des objectifs physiques et sociaux, mais suppose que tous les autres robots n’ont que des objectifs physiques. Les robots de niveau 1 peuvent prendre des mesures en fonction des objectifs physiques d’autres robots, comme aider et gêner. Un robot de niveau 2 suppose que les autres robots ont des objectifs sociaux et physiques ; ces robots peuvent prendre des mesures plus sophistiquées comme se joindre pour aider ensemble.

    Évaluation du modèle

    Pour voir comment leur modèle se comparait aux perspectives humaines sur les interactions sociales, ils ont créé 98 scénarios différents avec des robots aux niveaux 0, 1 et 2. Douze humains ont regardé 196 clips vidéo des robots en interaction, puis ont été invités à estimer les effets physiques et sociaux. objectifs de ces robots.

    Dans la plupart des cas, leur modèle correspondait à ce que les humains pensaient des interactions sociales qui se produisaient dans chaque image.

    « Nous avons cet intérêt à long terme, à la fois pour construire des modèles informatiques pour les robots, mais aussi pour approfondir les aspects humains de cela. Nous voulons découvrir quelles fonctionnalités de ces vidéos les humains utilisent pour comprendre les interactions sociales. Pouvons-nous faire un test objectif pour votre capacité à reconnaître les interactions sociales ? Peut-être existe-t-il un moyen d’apprendre aux gens à reconnaître ces interactions sociales et à améliorer leurs capacités. Nous sommes loin de cela, mais même le simple fait de pouvoir mesurer efficacement les interactions sociales est un grand pas en avant », dit Barbu.

    Vers plus de sophistication

    Les chercheurs travaillent au développement d’un système avec des agents 3D dans un environnement qui permet beaucoup plus de types d’interactions, comme la manipulation d’objets domestiques. Ils prévoient également de modifier leur modèle pour inclure des environnements où les actions peuvent échouer.

    Les chercheurs souhaitent également incorporer dans le modèle un planificateur de robot basé sur un réseau de neurones, qui apprend de l’expérience et fonctionne plus rapidement. Enfin, ils espèrent mener une expérience pour collecter des données sur les fonctionnalités que les humains utilisent pour déterminer si deux robots s’engagent dans une interaction sociale.

    « J’espère que nous aurons une référence qui permettra à tous les chercheurs de travailler sur ces interactions sociales et d’inspirer les types d’avancées scientifiques et techniques que nous avons vues dans d’autres domaines tels que la reconnaissance d’objets et d’actions », a déclaré Barbu.

    Cette recherche a été soutenue par le Center for Brains, Minds, and Machines, la National Science Foundation, la MIT CSAIL Systems that Learn Initiative, le MIT-IBM Watson AI Lab, le programme DARPA Artificial Social Intelligence for Successful Teams, l’US Air Force Research Laboratory, l’accélérateur d’intelligence artificielle de l’US Air Force et l’Office of Naval Research.

    N'oubliez pas de voter pour cet article !
    1 étoile2 étoiles3 étoiles4 étoiles5 étoiles (No Ratings Yet)
    Loading...
    mm

    La Rédaction

    L'équipe rédactionnelle

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *