Le cadre a pu classer avec précision différentes tumeurs pulmonaires


  • FrançaisFrançais


  • Suivez-nous sur notre page Facebook et notre canal Telegram


    La pathologie numérique est un domaine émergent qui traite principalement des images de microscopie dérivées de biopsies de patients. En raison de la haute résolution, la plupart de ces images de diapositives entières (WSI) ont une grande taille, dépassant généralement un gigaoctet (Gb). Par conséquent, les méthodes d’analyse d’image typiques ne peuvent pas les gérer efficacement.

    Voyant un besoin, des chercheurs de la Boston University School of Medicine (BUSM) ont développé un nouvel algorithme d’intelligence artificielle (IA) basé sur un cadre appelé représentation apprenant à classer le sous-type de cancer du poumon sur la base d’images de tissus pulmonaires provenant de tumeurs réséquées.

    “Nous développons de nouvelles méthodes basées sur l’IA qui peuvent apporter de l’efficacité à l’évaluation des données de pathologie numérique. La pratique de la pathologie est en pleine révolution numérique. Des méthodes informatiques sont en cours de développement pour aider le pathologiste expert. De plus, dans les endroits où il y a aucun expert, de telles méthodes et technologies ne peuvent directement aider au diagnostic », explique l’auteur correspondant Vijaya B. Kolachalama, PhD, FAHA, professeur adjoint de médecine et d’informatique à BUSM.

    Les chercheurs ont développé un transformateur de vision basé sur un graphique pour la pathologie numérique appelé Graph Transformer (GTP) qui exploite une représentation graphique des images de pathologie et l’efficacité de calcul des architectures de transformateur pour effectuer une analyse sur l’image entière de la diapositive.

    “Traduire les dernières avancées de l’informatique en pathologie numérique n’est pas simple et il est nécessaire de créer des méthodes d’IA capables de s’attaquer exclusivement aux problèmes de la pathologie numérique”, explique l’auteur co-correspondant Jennifer Beane, PhD, professeure agrégée de médecine à BUSM .

    En utilisant des images de diapositives entières et des données cliniques de trois cohortes nationales accessibles au public, ils ont ensuite développé un modèle qui pourrait faire la distinction entre l’adénocarcinome pulmonaire, le carcinome épidermoïde pulmonaire et les tissus non cancéreux adjacents. Au cours d’une série d’études et d’analyses de sensibilité, ils ont montré que leur cadre GTP surpasse les méthodes de pointe actuelles utilisées pour la classification d’images de diapositives entières.

    Ils croient que leur cadre d’apprentissage automatique a des implications au-delà de la pathologie numérique. “Les chercheurs intéressés par le développement d’approches de vision par ordinateur pour d’autres applications du monde réel peuvent également trouver notre approche utile”, ont-ils ajouté.

    Ces résultats sont publiés en ligne dans la revue Transactions IEEE sur l’imagerie médicale.

    Le financement de cette étude a été assuré par des subventions des National Institutes of Health (R21-CA253498, R01-HL159620), de Johnson & Johnson Enterprise Innovation, Inc., de l’American Heart Association (20SFRN35460031), du Karen Toffler Charitable Trust et du National Fondation des sciences (1551572, 1838193)

    Source de l’histoire :

    Matériaux fourni par École de médecine de l’Université de Boston. Remarque : Le contenu peut être modifié pour le style et la longueur.

    Houssen Moshinaly

    Rédacteur en chef d'Actualité Houssenia Writing. Rédacteur web depuis 2009.

    Blogueur et essayiste, j'ai écrit 9 livres sur différents sujets comme la corruption en science, les singularités technologiques ou encore des fictions. Je propose aujourd'hui des analyses politiques et géopolitiques sur le nouveau monde qui arrive. J'ai une formation de rédaction web et une longue carrière de prolétaire.

    Pour me contacter personnellement :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *