Les questions éthiques soulevées par l’intelligence artificielle dans la médecine


  • FrançaisFrançais

  • Dans un papier de perspective, plusieurs chercheurs soulèvent des questions éthiques sur l’utilisation, parfois précipitée, de l’intelligence artificielle dans la médecine. Même si les avantages sont nombreux, les inconvénients le sont tout autant.


    Suivez-nous sur notre page Facebook et notre canal Telegram

    Dans un papier de perspective, plusieurs chercheurs soulèvent des questions éthiques sur l'utilisation, parfois précipitée, de l'intelligence artificielle dans la médecine. Même si les avantages sont nombreux, les inconvénients le sont tout autant.

    L’intelligence artificielle est performante pour analyser les données de santé afin d’améliorer les diagnostics et aider les médecins à prendre de meilleures décisions pour leurs patients. Mais les chercheurs de l’École de médecine de l’Université de Stanford affirment que le rythme effréné de la croissance des outils d’apprentissage automatique oblige les médecins et les scientifiques à examiner attentivement les risques éthiques de leur intégration dans la prise de décision.

    Faire attention aux pièges éthiques de l’intelligence artificielle

    Dans un papier de perspective qui sera publié dans le New England Journal of Medicine, les auteurs ont reconnu l’énorme avantage que l’apprentissage automatique peut apporter à la santé des patients. Mais ils ont averti que les avantages de l’utilisation de ce type d’outil pour faire des prédictions et la prise des mesures alternatives ne peut être réalisée sans un examen attentif des pièges éthiques qui l’accompagnent.

    En raison des nombreux avantages potentiels, la société souhaite ardemment que ces outils soient appliqués aux soins de santé selon l’auteur principal, Danton Char, MD, professeur adjoint d’anesthésiologie de médecine périopératoire. Mais nous avons commencé à remarquer, à partir de mises en oeuvre dans des domaines non liés à la santé, qu’il peut y avoir des problèmes éthiques avec l’apprentissage algorithmique quand il est déployé à grande échelle.

    Les préoccupations de l’intelligence artificielle sur la médecine

    • Les données utilisées pour créer des algorithmes peuvent contenir des biais qui se reflètent dans les algorithmes et dans les recommandations cliniques qu’ils génèrent. En outre, les algorithmes peuvent être conçus pour fausser les résultats, en fonction de qui les développe et des motivations des programmeurs, des entreprises ou des systèmes de santé qui les déploient.
    • Les médecins doivent bien comprendre comment les algorithmes sont créés, évaluer de façon critique la source des données utilisées pour créer les modèles statistiques conçus pour prévoir les résultats, comprendre le fonctionnement des modèles et éviter de trop en dépendre. Les données recueillies sur la santé des patients, les diagnostics et les résultats font partie des connaissances collectives des publications et des informations recueillies par les systèmes de santé et peuvent être utilisées sans tenir compte de l’expérience clinique et de l’aspect humain des soins aux patients.
    • L’orientation clinique fondée sur l’apprentissage par machine peut introduire un acteur tiers dans la relation médecin-patient en remettant en question la dynamique de la responsabilité dans la relation et l’attente de la confidentialité. Nous devons être prudents concernant les soins aux personnes suggérés par les algorithmes selon Char. Les gens peuvent faire une chose que les machines ne peuvent pas faire qui est mettre de côté nos idées et les évaluer de manière critique.

    Les sources de biais

    En examinant l’intention des concepteurs, qui est une source de biais, les auteurs ont cité des exemples d’algorithmes privés destinés à garantir des résultats spécifiques comme l’algorithme de Volkswagen qui a permis aux véhicules de passer des tests d’émissions en réduisant leurs émissions d’oxyde d’azote.

    David Magnus, Ph.D., auteur principal du papier et directeur du Stanford Center for Biomedical Ethics, a déclaré que les préjugés peuvent jouer dans les données sur la santé de 3 façons : Le biais humain, le biais qui est introduit par conception et le biais dans la façon dont les systèmes de soins de santé utilisent les données.

    Vous pouvez facilement imaginer que les algorithmes intégrés dans le système de soins de santé pourraient refléter des intérêts différents et contradictoires selon Magnus. Et si l’algorithme est conçu autour de l’objectif d’économiser de l’argent et si différentes décisions de traitement concernant les patients sont prises en fonction du statut de l’assurance ou de leur capacité à payer ?

    L’interférence de l’intelligence artificielle dans la relation médecin-patient

    Les auteurs ont appelé à un débat national sur la tension perpétuelle entre les objectifs d’améliorer la santé et de générer des profits puisque les constructeurs et les acheteurs de systèmes d’apprentissage automatique ont peu de chances d’être les mêmes personnes qui prodiguent des soins. Ils ont également mis la responsabilité de trouver des solutions et de définir le programme pour les professionnels de la santé.

    Des lignes directrices éthiques peuvent être créées pour rattraper l’ère de l’apprentissage automatique et de l’intelligence artificielle selon les auteurs. Les médecins, qui utilisent des systèmes d’apprentissage automatique, peuvent mieux se renseigner sur leur construction, les ensembles de données sur lesquels ils sont construits et leurs limites. Si les médecins ignorent la conception des systèmes d’apprentissage automatique ou qu’ils acceptent que ce soit des boites noires, alors on aura des résultats problématiques. Les auteurs reconnaissent la pression sociale pour intégrer les derniers outils afin d’offrir de meilleurs résultats de santé pour les patients.

    L’intelligence artificielle sera omniprésente dans les soins de santé dans quelques années selon le co-auteur Nigam Shah, MBBS, PhD, professeur agrégé de médecine. Mais les systèmes de santé doivent être conscients des pièges qui se sont produits dans d’autres industries. Shah a noté que les modèles sont aussi fiables que les données recueillies et partagées. Vérifiez les données à partir desquelles votre algorithme va apprendre.

    Les données pourraient-elles remplacer le médecin ?

    Les auteurs écrivent que les médecins doivent fortement pondérer ce qu’ils apprennent des données par rapport à leur propre expérience clinique. Une trop grande confiance dans le guidage de la machine pourrait mener à des prophéties auto-réalisatrices.

    Par exemple, selon les chercheurs, si les cliniciens ne soignent plus les patients présentant certains diagnostics tels qu’une prématurité extrême ou une lésion cérébrale, alors les systèmes d’apprentissage automatique peuvent déterminer que ces diagnostics sont toujours fatals. Inversement, les systèmes d’apprentissage automatique, correctement déployés, peuvent aider à résoudre les disparités dans la prestation des soins de santé en compensant les biais connus ou en identifiant les domaines où davantage de recherches sont nécessaires pour équilibrer les données sous-jacentes.

    Magnus a déclaré que l’exemple d’une étude pilote en cours sur un algorithme développé à Stanford pour prédire la nécessité d’une consultation en soins palliatifs illustre comment un examen collaboratif et minutieux de la conception d’un algorithme et de l’utilisation des données peut éviter toute mauvaise interprétation des données.

    Une meilleure collaboration entre les médecins et les concepteurs

    Shah aide à mener l’étude pilote. Dans ce cas précis, selon Magnus, les médecins et les concepteurs travaillent en étroite collaboration pour s’assurer que l’intégration des prédictions dans l’équation de soins inclut des garanties que le médecin comprend parfaitement que les problèmes du patient sont bien compris. L’insertion des prédictions d’un algorithme dans la relation patient-médecin introduit également une tierce partie en transformant la relation en une relation entre le patient et le système de soins de santé. Cela signifie également des changements significatifs en termes d’attente de confidentialité d’un patient.

    Une fois que l’aide à la décision basée sur l’apprentissage automatique est intégrée dans les soins cliniques, il devient de plus en plus difficile de dissimuler des informations dans les dossiers électroniques, car les patients dont les données ne sont pas enregistrées ne peuvent pas bénéficier d’analyses. Magnus a déclaré que la pression pour se tourner vers les données pour les réponses est particulièrement intense dans les domaines qui se développent rapidement tels que les tests génétiques et le séquençage.

    Dans une situation où vous cherchez des preuves pour informer votre prise de décision, vous aurez toute l’information nécessaire, mais vous ne saurez pas comment l’analyser. C’est pourquoi le fait d’avoir des données claires peut être énormément utile.

    Char, qui effectue une recherche sur les implications éthiques et sociales des tests génétiques élargis chez les enfants gravement malades, a déclaré qu’il est important pour les professionnels de la santé de trouver comment minimiser les résultats négatifs des décisions basées sur les données. Je pense que la société cherche des réponses rapides. Je pense que nous devons être plus prudents dans la mise en ?uvre de l’apprentissage automatique.

    Houssen Moshinaly

    Rédacteur en chef d'Actualité Houssenia Writing. Rédacteur web depuis 2009.

    Blogueur et essayiste, j'ai écrit 9 livres sur différents sujets comme la corruption en science, les singularités technologiques ou encore des fictions. Je propose aujourd'hui des analyses politiques et géopolitiques sur le nouveau monde qui arrive. J'ai une formation de rédaction web et une longue carrière de prolétaire.

    Pour me contacter personnellement :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *