Comment la technologie d’imagerie oculaire pourrait aider les robots et les voitures à mieux voir


  • FrançaisFrançais


  • Suivez-nous sur notre page Facebook et notre canal Telegram


    Même si les robots n’ont pas d’yeux avec des rétines, la clé pour les aider à voir et à interagir avec le monde plus naturellement et en toute sécurité peut résider dans les appareils de tomographie par cohérence optique (OCT) que l’on trouve couramment dans les cabinets d’ophtalmologistes.

    L’une des technologies d’imagerie que de nombreuses entreprises de robotique intègrent dans leurs ensembles de capteurs est la détection et la télémétrie de la lumière, ou LiDAR en abrégé. Attirant actuellement beaucoup d’attention et d’investissements de la part des développeurs de voitures autonomes, l’approche fonctionne essentiellement comme un radar, mais au lieu d’envoyer de larges ondes radio et de rechercher des réflexions, elle utilise de courtes impulsions de lumière provenant de lasers.

    Le LiDAR traditionnel à temps de vol présente cependant de nombreux inconvénients qui le rendent difficile à utiliser dans de nombreuses applications de vision 3D. Parce qu’il nécessite la détection de signaux lumineux réfléchis très faibles, d’autres systèmes LiDAR ou même la lumière du soleil ambiante peuvent facilement submerger le détecteur. Il a également une résolution de profondeur limitée et peut prendre un temps dangereusement long pour balayer de manière dense une grande surface telle qu’une autoroute ou un sol d’usine. Pour relever ces défis, les chercheurs se tournent vers une forme de LiDAR appelée LiDAR à onde continue modulée en fréquence (FMCW).

    « FMCW LiDAR partage le même principe de fonctionnement que l’OCT, que le domaine du génie biomédical développe depuis le début des années 1990 », a déclaré Ruobing Qian, doctorant travaillant dans le laboratoire de Joseph Izatt, professeur émérite Michael J. Fitzpatrick de génie biomédical. chez Duc. “Mais il y a 30 ans, personne ne savait que les voitures ou les robots autonomes seraient une chose, donc la technologie s’est concentrée sur l’imagerie tissulaire. Maintenant, pour la rendre utile pour ces autres domaines émergents, nous devons échanger ses capacités de résolution extrêmement élevée contre plus de distance. et la vitesse.”

    Dans un article paru le 29 mars dans la revue Nature Communications, l’équipe Duke démontre comment quelques astuces tirées de leurs recherches OCT peuvent améliorer de 25 fois le débit de données FMCW LiDAR précédent tout en atteignant une précision de profondeur inférieure au millimètre.

    L’OCT est l’analogue optique des ultrasons, qui fonctionne en envoyant des ondes sonores dans des objets et en mesurant le temps qu’elles mettent à revenir. Pour chronométrer les temps de retour des ondes lumineuses, les appareils OCT mesurent de combien leur phase s’est décalée par rapport à des ondes lumineuses identiques qui ont parcouru la même distance mais n’ont pas interagi avec un autre objet.

    FMCW LiDAR adopte une approche similaire avec quelques ajustements. La technologie envoie un faisceau laser qui se déplace continuellement entre différentes fréquences. Lorsque le détecteur recueille la lumière pour mesurer son temps de réflexion, il peut faire la distinction entre le modèle de fréquence spécifique et toute autre source lumineuse, ce qui lui permet de fonctionner dans toutes sortes de conditions d’éclairage à très grande vitesse. Il mesure ensuite tout déphasage par rapport aux faisceaux non entravés, ce qui est un moyen beaucoup plus précis de déterminer la distance que les systèmes LiDAR actuels.

    “Il a été très excitant de voir comment la technologie d’imagerie biologique à l’échelle des cellules sur laquelle nous travaillons depuis des décennies est directement traduisible pour une vision 3D à grande échelle et en temps réel”, a déclaré Izatt. “Ce sont exactement les capacités nécessaires aux robots pour voir et interagir avec les humains en toute sécurité ou même pour remplacer les avatars par une vidéo 3D en direct en réalité augmentée.”

    La plupart des travaux antérieurs utilisant LiDAR reposaient sur des miroirs rotatifs pour balayer le laser sur le paysage. Bien que cette approche fonctionne bien, elle est fondamentalement limitée par la vitesse du miroir mécanique, quelle que soit la puissance du laser utilisé.

    Les chercheurs de Duke utilisent à la place un réseau de diffraction qui fonctionne comme un prisme, décomposant le laser en un arc-en-ciel de fréquences qui se propagent à mesure qu’ils s’éloignent de la source. Étant donné que le laser d’origine balaye toujours rapidement une gamme de fréquences, cela se traduit par un balayage du faisceau LiDAR beaucoup plus rapide qu’un miroir mécanique ne peut tourner. Cela permet au système de couvrir rapidement une large zone sans perdre beaucoup de profondeur ou de précision de localisation.

    Alors que les dispositifs OCT sont utilisés pour profiler des structures microscopiques jusqu’à plusieurs millimètres de profondeur dans un objet, les systèmes de vision 3D robotiques n’ont besoin que de localiser les surfaces d’objets à l’échelle humaine. Pour ce faire, les chercheurs ont réduit la gamme de fréquences utilisées par l’OCT et n’ont recherché que le signal de crête généré à partir des surfaces des objets. Cela coûte un peu de résolution au système, mais avec une plage et une vitesse d’imagerie bien supérieures à celles du LiDAR traditionnel.

    Le résultat est un système FMCW LiDAR qui atteint une précision de localisation inférieure au millimètre avec un débit de données 25 fois supérieur aux démonstrations précédentes. Les résultats montrent que l’approche est suffisamment rapide et précise pour capturer les détails des parties du corps humain en mouvement, comme une tête qui hoche la tête ou une main qui se serre, en temps réel.

    “De la même manière que les caméras électroniques sont devenues omniprésentes, notre vision est de développer une nouvelle génération de caméras 3D basées sur LiDAR qui sont suffisamment rapides et capables de permettre l’intégration de la vision 3D dans toutes sortes de produits”, a déclaré Izatt. “Le monde qui nous entoure est en 3D, donc si nous voulons que les robots et autres systèmes automatisés interagissent avec nous naturellement et en toute sécurité, ils doivent pouvoir nous voir aussi bien que nous pouvons les voir.”

    Cette recherche a été soutenue par les National Institutes of Health (EY028079), la National Science Foundation, (CBET-1902904) et le Department of Defense CDMRP (W81XWH-16-1-0498).

    Source de l’histoire :

    Matériaux fourni par université de Duke. Original écrit par Ken Kingery. Remarque : Le contenu peut être modifié pour le style et la longueur.

    Houssen Moshinaly

    Rédacteur en chef d'Actualité Houssenia Writing. Rédacteur web depuis 2009.

    Blogueur et essayiste, j'ai écrit 9 livres sur différents sujets comme la corruption en science, les singularités technologiques ou encore des fictions. Je propose aujourd'hui des analyses politiques et géopolitiques sur le nouveau monde qui arrive. J'ai une formation de rédaction web et une longue carrière de prolétaire.

    Pour me contacter personnellement :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *