Des chercheurs étudient des moyens de rendre les IA plus robustes en étudiant les modèles dans leurs réponses face à l’inconnu


  • FrançaisFrançais


  • Suivez-nous sur notre page Facebook et notre canal Telegram


    Les systèmes d’intelligence artificielle d’aujourd’hui utilisés pour la reconnaissance d’images sont incroyablement puissants avec un énorme potentiel pour des applications commerciales. Néanmoins, les réseaux de neurones artificiels actuels – les algorithmes d’apprentissage en profondeur qui alimentent la reconnaissance d’images – souffrent d’un énorme défaut : ils sont facilement cassés par des images qui sont même légèrement modifiées.

    Ce manque de “robustesse” est un obstacle important pour les chercheurs qui espèrent construire de meilleures IA. Cependant, la raison exacte de ce phénomène et les mécanismes sous-jacents qui le sous-tendent restent largement inconnus.

    Dans le but de surmonter un jour ces défauts, des chercheurs de la Faculté des sciences de l’information et de génie électrique de l’Université de Kyushu ont publié dans PLOS ONE une méthode appelée « Raw Zero-Shot » qui évalue la façon dont les réseaux de neurones traitent des éléments qui leur sont inconnus. Les résultats pourraient aider les chercheurs à identifier les caractéristiques communes qui rendent les IA “non robustes” et à développer des méthodes pour résoudre leurs problèmes.

    “Il existe une gamme d’applications réelles pour les réseaux neuronaux de reconnaissance d’images, y compris les voitures autonomes et les outils de diagnostic dans le domaine de la santé”, explique Danilo Vasconcellos Vargas, qui a dirigé l’étude. “Cependant, peu importe à quel point l’IA est bien entraînée, elle peut échouer même avec un léger changement dans une image.”

    En pratique, les IA de reconnaissance d’images sont “formées” sur de nombreux échantillons d’images avant d’être invitées à en identifier une. Par exemple, si vous voulez qu’une IA identifie les canards, vous devez d’abord l’entraîner sur de nombreuses photos de canards.

    Néanmoins, même les IA les mieux formées peuvent être induites en erreur. En fait, les chercheurs ont découvert qu’une image peut être manipulée de telle sorte que, même si elle peut sembler inchangée à l’œil humain, une IA ne peut pas l’identifier avec précision. Même un changement d’un seul pixel dans l’image peut prêter à confusion.

    Pour mieux comprendre pourquoi cela se produit, l’équipe a commencé à étudier différentes IA de reconnaissance d’images dans l’espoir d’identifier des modèles dans leur comportement face à des échantillons avec lesquels elles n’avaient pas été entraînées, c’est-à-dire des éléments inconnus de l’IA.

    “Si vous donnez une image à une IA, elle essaiera de vous dire ce que c’est, peu importe si cette réponse est correcte ou non. Nous avons donc pris les douze IA les plus courantes aujourd’hui et appliqué une nouvelle méthode appelée ‘Raw Zero- Shot Learning », poursuit Vargas. “En gros, nous avons donné aux IA une série d’images sans indice ni entraînement. Notre hypothèse était qu’il y aurait des corrélations dans la façon dont ils répondraient. Ils auraient tort, mais de la même manière.”

    Ce qu’ils ont trouvé n’était que cela. Dans tous les cas, l’IA de reconnaissance d’image produirait une réponse, et les réponses – bien que fausses – seraient cohérentes, c’est-à-dire qu’elles se regrouperaient. La densité de chaque cluster indiquerait comment l’IA a traité les images inconnues en fonction de sa connaissance fondamentale des différentes images.

    “Si nous comprenons ce que faisait l’IA et ce qu’elle a appris lors du traitement d’images inconnues, nous pouvons utiliser cette même compréhension pour analyser pourquoi les IA se cassent lorsqu’elles sont confrontées à des images avec des changements d’un seul pixel ou de légères modifications”, déclare Vargas. “L’utilisation des connaissances que nous avons acquises en essayant de résoudre un problème en l’appliquant à un problème différent mais connexe est connue sous le nom de transférabilité.”

    L’équipe a observé que Capsule Networks, également connu sous le nom de CapsNet, produisait les clusters les plus denses, ce qui lui donnait la meilleure transférabilité parmi les réseaux de neurones. Ils pensent que cela pourrait être dû à la nature dynamique de CapsNet.

    “Bien que les IA d’aujourd’hui soient précises, elles manquent de robustesse pour une utilité supplémentaire. Nous devons comprendre quel est le problème et pourquoi il se produit. Dans ce travail, nous avons montré une stratégie possible pour étudier ces problèmes”, conclut Vargas. “Au lieu de nous concentrer uniquement sur la précision, nous devons rechercher des moyens d’améliorer la robustesse et la flexibilité. Ensuite, nous pourrons peut-être développer une véritable intelligence artificielle.”

    Source de l’histoire :

    Matériaux fourni par Université de Kyūshū. Remarque : Le contenu peut être modifié pour le style et la longueur.

    Houssen Moshinaly

    Rédacteur en chef d'Actualité Houssenia Writing. Rédacteur web depuis 2009.

    Blogueur et essayiste, j'ai écrit 9 livres sur différents sujets comme la corruption en science, les singularités technologiques ou encore des fictions. Je propose aujourd'hui des analyses politiques et géopolitiques sur le nouveau monde qui arrive. J'ai une formation de rédaction web et une longue carrière de prolétaire.

    Pour me contacter personnellement :

    2 réponses

    1. 1 juillet 2022

      […] Des chercheurs étudient des moyens de rendre les IA plus robustes en étudiant les modèles dans le…  Houssenia Writing Lire plus […]

    2. 13 octobre 2022

      […] de rendre les IA plus robustes en étudiant les modèles dans leurs réponses face à l’inconnu. https://actualite.housseniawriting.com/science/intelligence-artificielle/2022/07/01/des-chercheurs-e…• [Seconde vie] Ce que les arts disent des âges de la vie (et réciproquement). Relation entre […]

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *