Un robot-chien polyvalent court sur la plage de sable à 3 mètres par seconde


  • FrançaisFrançais


  • Suivez-nous sur notre page Facebook et notre canal Telegram


    Le KAIST (président Kwang Hyung Lee) a annoncé le 25 qu’une équipe de recherche dirigée par le professeur Jemin Hwangbo du Département de génie mécanique a mis au point une technologie de contrôle de robot quadrupède capable de marcher avec agilité, même sur un terrain déformable tel qu’une plage de sable.

    L’équipe de recherche du professeur Hwangbo a développé une technologie pour modéliser la force reçue par un robot marcheur au sol constitué de matériaux granulaires comme le sable et la simuler via un robot quadrupède. En outre, l’équipe a travaillé sur une structure de réseau neuronal artificiel qui permet de prendre des décisions en temps réel nécessaires pour s’adapter à différents types de sol sans information préalable tout en marchant en même temps et l’a appliquée à l’apprentissage par renforcement. Le contrôleur de réseau neuronal formé devrait élargir le champ d’application des robots marcheurs quadrupèdes en prouvant sa robustesse sur un terrain changeant, comme la capacité de se déplacer à grande vitesse même sur une plage de sable et de marcher et tourner sur des sols mous comme un air matelas sans perdre l’équilibre.

    Cette recherche, avec un doctorat. Étudiant Soo-Young Choi du Département de génie mécanique du KAIST en tant que premier auteur, a été publié en janvier dans le Robotique scientifique. (Titre de l’article : Apprentissage de la locomotion quadrupède sur terrain déformable).

    L’apprentissage par renforcement est une méthode d’apprentissage de l’IA utilisée pour créer une machine qui collecte des données sur les résultats de diverses actions dans une situation arbitraire et utilise cet ensemble de données pour effectuer une tâche. Parce que la quantité de données requises pour l’apprentissage par renforcement est si vaste, une méthode de collecte de données par le biais de simulations qui se rapproche des phénomènes physiques dans l’environnement réel est largement utilisée.

    En particulier, les contrôleurs basés sur l’apprentissage dans le domaine des robots marcheurs ont été appliqués à des environnements réels après apprentissage à travers des données collectées dans des simulations pour effectuer avec succès des contrôles de marche sur divers terrains.

    Cependant, étant donné que les performances du contrôleur basé sur l’apprentissage diminuent rapidement lorsque l’environnement réel présente un écart par rapport à l’environnement de simulation appris, il est important de mettre en œuvre un environnement similaire à l’environnement réel lors de la phase de collecte de données. Par conséquent, afin de créer un contrôleur basé sur l’apprentissage qui peut maintenir l’équilibre dans un terrain déformant, le simulateur doit fournir une expérience de contact similaire.

    L’équipe de recherche a défini un modèle de contact qui prédit la force générée lors du contact à partir de la dynamique du mouvement d’un corps en marche sur la base d’un modèle de force de réaction au sol prenant en compte l’effet de masse supplémentaire des milieux granulaires définis dans des études précédentes.

    De plus, en calculant la force générée par un ou plusieurs contacts à chaque pas de temps, le terrain déformant a été efficacement simulé.

    L’équipe de recherche a également introduit une structure de réseau neuronal artificiel qui prédit implicitement les caractéristiques du sol en utilisant un réseau neuronal récurrent qui analyse les données de séries chronologiques des capteurs du robot.

    Le contrôleur appris a été monté sur le robot « RaiBo », qui a été construit de manière pratique par l’équipe de recherche pour montrer une marche à grande vitesse allant jusqu’à 3,03 m/s sur une plage de sable où les pieds du robot étaient complètement immergés dans le sable. Même appliqué à des sols plus durs, tels que des champs herbeux et une piste de course, il a pu fonctionner de manière stable en s’adaptant aux caractéristiques du sol sans aucune programmation supplémentaire ni révision de l’algorithme de contrôle.

    De plus, il tournait avec stabilité à 1,54 rad/s (environ 90° par seconde) sur un matelas pneumatique et démontrait sa capacité d’adaptation rapide même dans la situation où le terrain devenait soudainement mou.

    L’équipe de recherche a démontré l’importance de fournir une expérience de contact appropriée pendant le processus d’apprentissage par rapport à un contrôleur qui supposait que le sol était rigide, et a prouvé que le réseau neuronal récurrent proposé modifiait la méthode de marche du contrôleur en fonction des propriétés du sol.

    La méthodologie de simulation et d’apprentissage développée par l’équipe de recherche devrait contribuer à ce que les robots effectuent des tâches pratiques en élargissant la gamme de terrains sur lesquels divers robots marcheurs peuvent fonctionner.

    Le premier auteur, Suyoung Choi, a déclaré: “Il a été démontré que fournir à un contrôleur basé sur l’apprentissage une expérience de contact étroit avec un sol déformant réel est essentiel pour une application sur un terrain déformant.” Il a ajouté que “le contrôleur proposé peut être utilisé sans information préalable sur le terrain, il peut donc être appliqué à diverses études de marche de robots”.

    Cette recherche a été réalisée avec le soutien du Samsung Research Funding & Incubation Center de Samsung Electronics.

    Houssen Moshinaly

    Rédacteur en chef d'Actualité Houssenia Writing. Rédacteur web depuis 2009.

    Blogueur et essayiste, j'ai écrit 9 livres sur différents sujets comme la corruption en science, les singularités technologiques ou encore des fictions. Je propose aujourd'hui des analyses politiques et géopolitiques sur le nouveau monde qui arrive. J'ai une formation de rédaction web et une longue carrière de prolétaire.

    Pour me contacter personnellement :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *