Un programme interactif d’informaticiens aide à la planification de mouvement pour les environnements avec des obstacles –


  • FrançaisFrançais



  • Tout comme nous, les robots ne peuvent pas voir à travers les murs. Parfois, ils ont besoin d’un peu d’aide pour arriver là où ils vont.

    Des ingénieurs de l’Université Rice ont développé une méthode qui permet aux humains d’aider les robots à « voir » leur environnement et à effectuer des tâches.

    La stratégie appelée Bayesian Learning IN the Dark – BLIND, pour faire court – est une nouvelle solution au problème de longue date de la planification des mouvements pour les robots qui travaillent dans des environnements où tout n’est pas clairement visible tout le temps.

    L’étude évaluée par des pairs menée par les informaticiens Lydia Kavraki et Vaibhav Unhelkar et les co-auteurs principaux Carlos Quintero-Peña et Constantinos Chamzas de la George R. Brown School of Engineering de Rice a été présentée à la conférence internationale sur la robotique de l’Institute of Electrical and Electronics Engineers. et l’automatisation fin mai.

    L’algorithme développé principalement par Quintero-Peña et Chamzas, tous deux étudiants diplômés travaillant avec Kavraki, maintient un humain dans la boucle pour « augmenter la perception du robot et, surtout, empêcher l’exécution de mouvements dangereux », selon l’étude.

    Pour ce faire, ils ont combiné l’apprentissage par renforcement inverse bayésien (par lequel un système apprend à partir d’informations et d’expériences continuellement mises à jour) avec des techniques de planification de mouvement établies pour aider les robots qui ont des « degrés de liberté élevés », c’est-à-dire beaucoup de pièces mobiles.

    Pour tester BLIND, le laboratoire Rice a dirigé un robot Fetch, un bras articulé à sept articulations, pour saisir un petit cylindre d’une table et le déplacer vers une autre, mais ce faisant, il a dû franchir une barrière.

    « Si vous avez plus d’articulations, les instructions au robot sont compliquées », a déclaré Quintero-Peña. « Si vous dirigez un humain, vous pouvez simplement dire : ‘Lève la main.’ »

    Mais les programmeurs d’un robot doivent être précis sur le mouvement de chaque articulation à chaque point de sa trajectoire, en particulier lorsque des obstacles bloquent la « vue » de la machine sur sa cible.

    Plutôt que de programmer une trajectoire à l’avance, BLIND insère un processus intermédiaire humain pour affiner les options chorégraphiées – ou les meilleures suppositions – suggérées par l’algorithme du robot. « BLIND nous permet de prendre des informations dans la tête de l’homme et de calculer nos trajectoires dans cet espace à haut degré de liberté », a déclaré Quintero-Peña.

    « Nous utilisons un mode de rétroaction spécifique appelé critique, essentiellement une forme binaire de rétroaction où l’humain reçoit des étiquettes sur des éléments de la trajectoire », a-t-il déclaré.

    Ces étiquettes apparaissent sous la forme de points verts connectés qui représentent les chemins possibles. Au fur et à mesure que BLIND passe de point en point, l’humain approuve ou rejette chaque mouvement pour affiner le chemin, en évitant les obstacles aussi efficacement que possible.

    « C’est une interface facile à utiliser pour les gens, car nous pouvons dire » j’aime ceci « ou » je n’aime pas cela « , et le robot utilise ces informations pour planifier », a déclaré Chamzas. Une fois récompensé par un ensemble de mouvements approuvés, le robot peut effectuer sa tâche, a-t-il déclaré.

    « L’une des choses les plus importantes ici est que les préférences humaines sont difficiles à décrire avec une formule mathématique », a déclaré Quintero-Peña. « Notre travail simplifie les relations homme-robot en intégrant les préférences humaines. C’est ainsi que je pense que les applications tireront le meilleur parti de ce travail. »

    « Ce travail illustre à merveille comment une petite intervention humaine, mais ciblée, peut améliorer considérablement les capacités des robots à exécuter des tâches complexes dans des environnements où certaines parties sont complètement inconnues du robot mais connues de l’homme », a déclaré Kavraki, un pionnier de la robotique dont CV comprend une programmation avancée pour le Robonaut humanoïde de la NASA à bord de la Station spatiale internationale.

    « Cela montre comment les méthodes d’interaction homme-robot, le sujet de recherche de mon collègue le professeur Unhelkar, et la planification automatisée mise au point depuis des années dans mon laboratoire peuvent se combiner pour fournir des solutions fiables qui respectent également les préférences humaines. »

    L’ancienne étudiante de premier cycle de Rice Zhanyi Sun et Unhelkar, professeur adjoint d’informatique, sont co-auteurs de l’article. Kavraki est professeur Noah Harding d’informatique et professeur de bio-ingénierie, de génie électrique et informatique et de génie mécanique, et directeur du Ken Kennedy Institute.

    La National Science Foundation (2008720, 1718487) et une subvention du NSF Graduate Research Fellowship Program (1842494) ont soutenu la recherche.

    Vidéo: https://youtu.be/RbDDiApQhNo

    N'oubliez pas de voter pour cet article !
    1 étoile2 étoiles3 étoiles4 étoiles5 étoiles (No Ratings Yet)
    Loading...
    mm

    La Rédaction

    L'équipe rédactionnelle

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée.