L'éthique sur la robotique et l'intelligence artificielle


  • FrançaisFrançais


  • Suivez-nous sur notre page Facebook et notre canal Telegram


    drone-ai

    4 chercheurs partagent leurs réflexions sur les problèmes et les solutions à apporter concernant la robotique et l’intelligence artificielle.


    Stuart Russell : Prendre position sur les armes basées sur l’intelligence artificielle

    Professeur d’informatique à l’université de Californie

    L’intelligence artificielle et la robotique font face à d’importantes décisions éthiques. Et la plus importante est de supporter ou de s’opposer au développement des armes autonomes mortelles (LAWS). Les technologies ont atteint un point où le déploiement de ces systèmes automatisés sera une réalité en quelques années. Et les armes de type LAWS sont considérées comme une révolution dans la guerre qui sera similaire à la poudre à canon et aux armes nucléaires.

    Les armes autonomes sélectionnent et tirent sur des cibles sans aucune intervention humaine. Et on peut les considérer comme des armes mortelles lorsque les cibles sont humaines. Une arme LAWS peut inclure, par exemple, un quadrocoptère qui peut rechercher et éliminer des ennemis dans une ville, mais cela n’inclut pas des missiles de croisière et des drones où ce sont des humains qui prennent la décision de viser une cible donnée.

    Les composants existants sur l’intelligence artificielle et la robotique peuvent fournir des plateformes physiques, la perception d’une cible, le contrôle du moteur, la navigation, la cartographie, la prise de décision tactique et la planification sur le long terme. Pour le moment, ces composants sont séparés, mais on peut le combiner assez facilement. Par exemple, la technologie a déjà été démontrée par les voitures sans chauffeur dont l’IA se base sur le système DQN de DeepMind.

    Actuellement, on a 2 programmes qui prévoient d’utiliser les LAWS. Les 2 ont été conçus par la DARPA. Le premier programme s’appelle Fast Lightweight Autonomy (FLA) et le second est Collaborative Operations in Denied Environment (CODE). Le projet FLA va programmer des petits giravions autonomes qui peuvent voler à une très grande vitesse dans les zones urbaines et les immeubles. Le projet CODE veut développer des ensembles de véhicules aériens autonomes qui peuvent s’occuper de toutes les tâches d’une mission Commando qui consiste à trouver, fixer, traquer, viser et engager des ennemis. CODE a été spécialement conçu dans le cas où le brouillage des communications par l’ennemi fait qu’on ne peut plus communiquer avec le centre de commandement. Le projet CODE a été annoncé en public, mais d’autres pays pourraient développer des programmes similaires dans la plus grande clandestinité.

    Les lois internationales humanitaires qui régissent les attaques sur des humains en temps de guerre n’a pas prévu le cas des armes autonomes, mais elles sont quand même applicables. La Convention de Genève de 1949 en temps de guerre nécessite qu’une attaque doive satisfaire les 3 critères suivants : La nécessité militaire, la différenciation entre les combattants et les non-combattants et la proportionnalité entre la valeur de l’objectif militaire et le potentiel des dommages collatéraux. On a également la clause Martens de 1977 qui interdit les armes qui violent les principes humains et dicte la conscience publique. Et les intelligences artificielles ne peuvent pas inclure ces jugements puisque ces principes sont purement subjectifs.

    Les Nations Unies ont tenu une série de conférences concernant les LAWS sous l’auspice de la Convention on Certain Conventional Weapons (CCW) à Genève. Dans les prochaines années, ce processus pourrait résulter d’un traité international qui limite ou interdit les armes autonomes comme celui qui a concerné les armes aveuglantes au laser en 1995. Mais s’il n’y a pas ce type de traité, alors on aura un statu quo et on va assister à une nouvelle course aux armements.

    En tant que spécialiste de l’intelligence artificielle, on m’a demandé de fournir un témoignage d’expert dans la 3e réunion sous le CCW qui s’est tenue en avril. Et j’ai entendu les déclarations des pays et des ONG. Plusieurs pays ont proposé une interdiction immédiate. L’Allemagne a déclaré qu’elle n’acceptera jamais que la décision de vie ou de mort d’une personne soit prise par une arme autonome. Le Japon a déclaré qu’il n’envisage pas de développer des robots qui ne soient pas contrôlés par des humains et qui pourraient commettre un meurtre.

    Les États-Unis, l’Angleterre et Israël qui sont les 3 pays les plus avancés dans les LAWS ont suggérés qu’un traité n’est pas nécessaire parce qu’ils possèdent déjà des processus de vérification en interne qui respectent les lois internationales.

    La plupart des pays qui ont participé au CCW estiment qu’il est nécessaire d’avoir un contrôle humain significatif sur le ciblage et les décisions d’engagement qui sont prises par les armes robotisées. Mais aucune des parties n’a avancé une définition précise du terme significatif.

    Le débat a plusieurs facettes. Certains arguent que l’efficacité supérieure des armes autonomes peut minimiser les pertes civiles en visant uniquement des combattants. D’autres insistent que les LAWS vont minimiser l’importance d’entrer en guerre en pouvant attaquer l’ennemi sans courir de risques. De plus, des terroristes ou des ennemis pourraient les utiliser pour infliger des dommages catastrophiques aux civils.

    Les LAWS peuvent violer les principes fondamentaux de la dignité humaine en permettant aux machines de décider qui doit mourir. Par exemple, on peut les programmer pour éliminer toute personne qui affiche un comportement menaçant. Pour les ONG, il est évident que les LAWS ont le potentiel de provoquer un bain de sang sur des manifestations ou des mouvements pacifiques.

    De mon point de vue, ces problèmes cruciaux se résoudront d’eux-mêmes quand on voit l’évolution de cette technologie. Les capacités des armes autonomes seront plus limitées par les lois de la physique, notamment par des limites de distance, de vitesse et de chargement que par des erreurs hypothétiques des intelligences artificielles qui vont les contrôler. Par exemple, les robots volants deviennent de plus en plus compacts avec une liberté de manoeuvre plus grande et une réduction de risques pour qu’ils soient pris comme cible. Ils ont une portée limitée, mais ils pourront porter une charge d’un gramme d’explosif qui pourrait faire exploser un crâne humain. Même avec les limites de la physique, on peut déployer des petits robots volants par millions ce qui laissera les humains totalement sans défense. Et personne ne désire ce type de futur.

    Les scientifiques de la robotique et de l’intelligence artificielle sont obligés de prendre position. Les physiciens l’ont fait pour l’arme nucléaire, les chimistes sur les agents chimiques et les biologistes sur les armes bactériologiques. Les débats doivent être organisés dans des réunions scientifiques, les arguments doivent être étudiés par des comités d’éthique et les prises de position doivent être officialisées dans les revues scientifiques. Et on doit appeler à un vote des membres de la société civile.

    Ne rien faire équivaut à promouvoir le développement et le déploiement des armes autonomes.

    Sabine Hauert : Accepter plutôt que de fuir le débat

    Conférencière dans la robotique à l’université de Bristol

    Dégoutés par les titres racoleurs et la peur exagérée qui est propagée par les médias de masse sur l’intelligence artificielle et la robotique, certains chercheurs ont décidé d’arrêter de communiquer avec les médias ou le public. Mais nous ne devons pas nous isoler. Le public inclut des contribuables, des législateurs, des investisseurs et ils peuvent bénéficier de la technologie. Le public entend uniquement un seul point de vue (celui des médias de masse) qui leur fait peur sur le fait qu’ils vont perdre leurs boulots à cause des robots ou que l’intelligence artificielle puisse représenter une menace et se demandent si on ne doit pas voter des lois hypothétiques pour contrôler la technologie.

    robonaut-2

    Le Robonaut 2 de la NASA

    Mes collègues et moi, nous essayons d’expliquer au public que nous ne sommes pas malveillants et qu’au contraire, nous avons travaillé pendant des années sur des systèmes qui peuvent aider les vieux, améliorer le système de santé ou la productivité au travail. La robotique nous permettra d’explorer l’espace ou les océans.

    Le Robotnaut 2 de la NASA peut être utilisé dans la médecine, l’industrie ou la construction de stations spatiales. Les experts ont besoin de devenir des messagers. Avec les médias sociaux, les chercheurs ont une plateforme publique qu’ils peuvent utiliser pour créer le débat. On peut fournir les derniers développements et nous pouvons démystifier la technologie. J’ai utilisé les médias sociaux pour faire du crowdsourcing sur le design de nanorobots qui peuvent guérir le cancer et j’ai trouvé mon premier doctorant via son blog sur la nanomédecine.

    Les communautés de l’intelligence artificielle et celle de la robotique ont besoin d’engager la discussion avec des scientifiques célèbres tels que le physicien Stephen Hawking ou l’entrepreneur Elon Musk. Nous devons être présents dans les réunions internationales telles que le forum économique de Davos. L’engagement public permet aussi de générer des financements. Le financement participatif de JIBO, un robot personnel pour l’utilisation domestique développé par Cynthia Breazeal du MIT, a généré près de 2,2 millions de dollars.

    Mais il y a des obstacles. En premier lieu, il y a des chercheurs qui n’ont jamais Twettés, blogué ou fait des vidéos Youtube. Secundo, l’engagement avec le public est encore une autre chose à faire. Et tertio, la construction d’une présence sur les médias sociaux peut prendre des années. Et quarto, les efforts pour s’engager ne sont pas valorisés par la recherche et les comités de financement.

    On a besoin de formation, de support et de promotion. Par exemple, je suis la co-fondatrice et président du Robohub.org qui permet de connecter la communauté de la robotique avec le public. On fournit des cours de communication sur l’intelligence artificielle et comment utiliser les médias sociaux de manière efficace. Nous invitons des experts en communication et des journalistes pour aider les chercheurs à préparer leur article. Les communicants expliquent comment créer le message pour le rendre clair et concis, mais nous nous assurons que le chercheur dirige l’histoire et contrôle le résultat final. Nous amenons aussi des caméras et nous demandons aux chercheurs qui font des présentations à des conférences de résumer leurs travaux en moins de 5 minutes. Ces vidéos sont publiés sur Youtube et nous avons construit un portail qui permet de propager les blogs et les tweets pour augmenter la portée des publications à des milliers de personnes.

    Je peux lister tous les avantages de la science de communication, mais l’incitation doit venir des agences et des instituts de financement. Les citations ne sont pas la seule mesure du succès et de la progression académique. Nous devons également mesurer les vues, les partages, les commentaires et les Likes. Rodney Brook, un chercheur en robotique du MIT, a écrit un article en 1986 intitulé subsumption architecture qui est une technique inspirée par la biologie pour que les robots interagissent avec leur environnement. À ce jour, cet article a généré seulement 10 000 citations. Mais une vidéo de Sawyer, un robot crée par l’entreprise Rethink Robotics qui appartient à Brook, a généré 60 000 vues en 1 mois.

    Les gouvernements, les instituts de recherche et les agences de développement commencent à investir sur des méthodes de communication. Mais chaque projet se développe dans son coin et le résultat est un paquet de petites communications qui ont peu d’impacts.

    Selon moi, les investisseurs dans l’intelligence artificielle et la robotique doivent réunir une portion de leur budget (environ 0,1 %) pour proposer une communication unifiée qui serait plus puissante. Des groupes d’intérêts tels que Small Unmanned Aerial Vehicles Coalition qui promeut l’utilisation des drones commerciaux aux États-Unis est en train de défendre les intérêts des grandes entreprises aux législateurs. Mais on néglige les efforts concertés pour promouvoir la robotique et l’intelligence artificielle au public.

    Des communications communes vont produire une nouvelle génération de roboticiens qui seront profondément connectés avec le public et qui seront capables de donner leur point de vue dans les discussions sans passer par les médias. Et cette approche est essentielle si nous voulons contrer la Hype médiatique basée sur la peur qui affecte le financement, la perception et la législation sur ces technologies.

    Russ Altman : Distribuer les bienfaits de l’intelligence artificielle de manière équitable

    Professeur en bio-ingénierie, en génétique, en médecine, en informatique à l’université de Stanford

    L’intelligence artificielle possède un énorme potentiel pour accélérer la découverte scientifique dans la biologie et la médecine et elle peut révolutionner le système de santé. L’intelligence artificielle permet d’exploiter de nouveaux types de données telles que les mesures provenant des omics tels que la génomique, la protéomique et la métabolomique ainsi que les données médicales et biométriques.

    Les analyses par ensemble permettent de définir de nouveaux syndromes en identifiant des maladies bien distinctes alors qu’autrefois, on les confondait avec le même trouble. Les technologies de reconnaissance de pattern permettent d’aligner des traitements de manière optimale avec les différents états d’une maladie. Par exemple, moi et mes collègues, nous avons identifié un groupe de patients qui peut réagir à des médicaments qui régulent le système immunitaire en se basant sur les fonctions transcriptomiques et cliniques.

    Le robot Kirobo

    Le robot Kirobo

    Dans les consultations, les médecins pourront afficher des données à partir d’une pléthore de patients virtuels. C’est comme si chaque patient était assis l’un à côté de l’autre et qu’on pourrait les utiliser pour optimiser le diagnostic ou les traitements possibles. On pourrait prendre des décisions médicales de manière interactive ou utiliser des simulations pour prédire le résultat en se basant sur les données du patient et ceux de ces patients virtuels.

    Mais je suis préoccupé par 2 problèmes. Les technologies d’intelligence artificielle peuvent exacerber les inégalités sur le système de santé à moins qu’on les implémente de manière à ce qu’elles bénéficient à tous les patients. Par exemple aux États-Unis, le système de santé des chômeurs est très variable et certains ne possèdent aucune couverture de soins. Un système de santé pyramidal où seuls ceux qui peuvent payer seront les seuls à bénéficier des systèmes de soins avancés serait la pire des injustices. C’est la responsabilité conjointe des gouvernements et ceux qui développent la technologie de s’assurer que les technologies d’intelligence artificielle soient distribuées de manière équitable.

    Secundo, je m’inquiète de la capacité des cliniciens à comprendre et à expliquer les systèmes de soin à base d’intelligence artificielle. La plupart des fournisseurs de soins n’accepteront pas un traitement de soin complexe sans une description claire du fonctionnement du système. Malheureusement, la complexité de l’intelligence artificielle est proportionnelle à la difficulté de l’expliquer. Les analyses Bayesiennes sont faciles à expliquer puisqu’elles se basent sur des probabilités, mais les réseaux de Deep-Learning sont une autre histoire.

    Les chercheurs sur l’intelligence artificielle qui créent les infrastructures de ces systèmes ont besoin de communiquer avec les médecins, les infirmiers et les patients pour qu’ils comprennent comment l’intelligence artificielle prend ses décisions.

    Manuela Veloso : Adoptez un monde habité par des robots et des humains

    Professeur d’informatique à l’université Carnegie Mellon

    Les humains possèdent des facultés naturelles sur la perception, la cognition et l’action. Nous utilisons nos capteurs pour comprendre l’état du monde et nos cerveaux pensent et choisissent les actions à entreprendre. Ensuite, nos corps peuvent effectuer ces actions. Mon équipe de recherche tente de construire des robots qui sont capables de faire la même chose avec des capteurs artificiels (des caméras, des micros et des scanners). Et ensuite, des algorithmes et des servocommandes contrôlent ces mécanismes.

    Mais les capacités sont très différentes entre des robots autonomes et des humains. Les robots peuvent avoir des limites dans la perception, la cognition et les fonctions motrices. Ils ne pourront pas percevoir entièrement une scène, reconnaitre ou manipuler un objet et ils ne pourront pas comprendre toutes les langues parlées ou écrites. Les robots ne pourront pas se déplacer sur certains types de terrains. Je pense que les robots vont assister les humains et non les remplacer. Mais les robots devront apprendre à demander de l’aide et comment exprimer leur fonctionnement interne.

    Pour mieux comprendre l’interaction entre les humains et les robots, nous avons développé 4 robots collaboratifs, appelé CoBots, depuis les 3 dernières années. Ces robots ressemblent à des lutrins mécaniques. Ils possèdent des roues omnidirectionnelles qui leur permettent de gravir les obstacles, des systèmes à base de caméras pour fournir une vision détaillée, des ordinateurs pour le traitement, des écrans pour la communication et des paniers pour transporter des choses.

    Dès le début de l’expérience, nous avons compris les défis des robots lorsqu’ils sont confrontés à des environnements réels. Les CoBots ne pouvaient pas reconnaitre tous les objets et ils n’avaient pas de bras ou de main pour ouvrir de simples portes. Et ils ne pouvaient pas prendre ou manipuler des objets. Et même s’ils pouvaient communiquer, ils ne savaient pas comment interpréter leurs besoins par une langue qui serait compréhensible par des humains.

    Nous avons introduit le concept d’autonomie symbiotique qui permet aux robots de demander de l’aide aux humains ou via le web. Maintenant, les robots et les humains s’aident mutuellement pour dépasser leurs limites respectives. Les CoBots escortent les visiteurs à travers l’immeuble et ils peuvent transporter des objets entre différents endroits. Et ils peuvent collecter des informations utiles pendant leur déplacement. Par exemple, ils peuvent générer une cartographie précise des espaces, mesurer la température, l’humidité, la nuisance sonore, le niveau de luminosité ou la force d’un signal Wifi. Nous aidons les robots à ouvrir des portes, à presser sur des boutons d’ascenseur, à prendre des objets ou suivre des dialogues pour demander des éclaircissements.

    Il y a toujours des obstacles pour que les robots et les humains puissent cohabiter de manière sûre et productive. Mon équipe cherche comment les robots et les humains peuvent communiquer plus facilement avec le langage et les gestes et comment les robots et les humains peuvent se mettre d’accord sur leur représentation d’objets, de tâches et d’objectifs.

    Nous étudions aussi comment l’apparence du robot améliore les interactions. Par exemple, les indicateurs de lumière peuvent indiquer les états internes du robot aux humains. Si le robot est occupé, alors sa lumière est jaune et vert lorsqu’il est disponible. Même si le chemin est encore long, je pense que le futur sera positif si les humains et les robots peuvent s’aider et se compléter mutuellement.

     

    Houssen Moshinaly

    Rédacteur en chef d'Actualité Houssenia Writing. Rédacteur web depuis 2009.

    Blogueur et essayiste, j'ai écrit 9 livres sur différents sujets comme la corruption en science, les singularités technologiques ou encore des fictions. Je propose aujourd'hui des analyses politiques et géopolitiques sur le nouveau monde qui arrive. J'ai une formation de rédaction web et une longue carrière de prolétaire.

    Pour me contacter personnellement :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *