Le dilemme du robot ou apprendre l’éthique aux machines

L’un des plus grands défis de la robotique sera d’apprendre l’éthique à l’intelligence artificielle.



Dans sa nouvelle de 1942 intitulée Cercle Vicieux, l’auteur de science-fiction Isaac Asimov a introduit les 3 lois de la qui sont des règles d’éthiques qui seront la pierre angulaire dans des dizaines d’autres histoires et de romans du même auteur. Ces trois lois de la sont qu’un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger, un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la Première loi, un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la Première ou la Deuxième loi.

Ces 3 lois de la robotique sont devenues un mantra au fil des années, mais en 2015, de nombreux spécialistes de la robotique les citent à tout bout de champ. Leurs robots deviennent de plus en plus autonomes et ils ont besoins d’être guidés. En mai 2015, un panel de discussion a eu lieu sur les voitures autonomes et il a été organisé par la Brookings Institution qui est un Think Tank à Washington. La discussion concernait le comportement des voitures autonomes lorsqu’elles seraient confrontées à une crise. Est-ce que ce type de véhicule doit freiner brusquement pour sauver ses passagers, mais que cela risque de créer un accident pour les voitures qui le suivent ? Ou qu’est-ce qui se passe si une voiture autonome fait une embardée pour éviter un enfant, mais qu’il risque de percuter d’autres personnes ?

Nous voyons de plus en plus de systèmes automatisés et autonomes dans notre vie quotidienne selon Karl-Josef Kuhn, un participant à ce panel et un ingénieur de Siemens à Munich en Allemagne. Et il demande comment des chercheurs doivent créer un robot qui doit prendre une décision entre 2 mauvais choix. Et ce type de développement va bientôt affecter les robots dans le domaine de la santé, les drones militaires et d’autres appareils autonomes qui sont capables de décisions qui peuvent sauver ou blesser des humains. Les chercheurs sont convaincus que l’acceptation des robots par la société dépendra de la manière dont ils sont programmés pour proposer une sécurité maximale. Et cette sécurité va permettre de changer les normes sociales et augmenter la confiance des personnes à utiliser des robots. Nous avons besoin de faire des progrès sérieux sur la réussite d’une lorsqu’elle prendra des décisions éthiques selon Marcello Guarini, un philosophe de l’université de Windsor au Canada.

Et plusieurs projets tentent de résoudre l’éthique de l’intelligence artificielle incluant des initiatives financées par l’US Office of Naval Research ou le conseil de financement de l’ingénierie du gouvernement britannique. Et ces initiatives doivent résoudre des questions scientifiques très difficiles telles que le type d’intelligence qui est nécessaire pour prendre des décisions éthiques et comment doit-on intégrer ces décisions dans une machine. Ce domaine de la robotique est tellement vaste qu’il attire des informaticiens, des spécialistes en robotique, des experts en éthique et des philosophes. S’il y a 5 ans, vous m’aviez demandé si vous allions créer des robots éthiques alors j’aurais dit non selon Alan Winfield, un spécialiste de la robotique au Bristol Robotics Laboratory, mais aujourd’hui, je pense que cette idée ne soit pas aussi folle que ça.

L’apprentissage automatique des machines (Machine Learning)

Pour comprendre les défis de l’éthique sur l’intelligence artificielle, on cite souvent l’exemple d’un robot-jouet appelé Nao qui a été programmé pour rappeler aux gens qu’ils doivent prendre leurs médicaments. Cela parait simple à première vue selon Susan Leigh Anderson, une philosophe de l’université du Connecticut à Stamford qui a créé ce robot avec son mari, l’informaticien Michael Anderson de l’université de Hartford au Connecticut. Mais même avec cette tâche basique, on a déjà des questions d’éthique qui apparaissent. Par exemple, comment Nao doit se comporter si un patient refuse de prendre le médicament ? Si Nao obéit, alors cela peut nuire à la santé du patient, mais le fait d’insister nuit à l’autonomie et au libre arbitre du patient. Pour aider Nao à résoudre ce type de dilemme, les Andersons lui ont donné des exemples de cas qui ont permis de résoudre les conflits qui incluaient l’autonomie, le danger et le bénéfice du patient. On a utilisé l’apprentissage automatique (Machine Learning) sur ces exemples de cas jusqu’à ce qu’on ait trouvé des Patterns qui aideront le robot à gérer de nouvelles situations.

Avec ce type d’apprentissage automatique, un robot peut extraire une connaissance utile à partir de données ambiguës. En théorie, cette approche permettrait au robot de prendre de meilleures décisions éthiques selon de nouvelles situations qu’il va rencontrer. Mais certains scientifiques ont peur du prix à payer avec ces avantages. Les principes qui émergent du Machine Learning ne sont pas écrits dans le code et vous n’avez aucun moyen de savoir pourquoi une intelligence artificielle va créer une règle qui est éthiquement correcte ou non selon Jerry Kaplan qui enseigne l’intelligence artificielle et l’éthique à l’université de Stanford en Californie. Selon plusieurs ingénieurs, il faut utiliser différentes tactiques pour résoudre ces problèmes. Certains vont créer explicitement des règles définies plutôt que de demander au robot de créer les siennes. L’année dernière, Winfield a publié les résulats d’une expérience sur une simple question : Quelles sont les règles qu’on devrait créer pour permettre à une machine de sauver quelqu’un qui risque de tomber dans un trou ? Winfield a réalisé que la réponse la plus évidente est que le robot a besoin de détecter son environnement pour connaitre l’emplacement du trou, de la personne et de sa propre position qui est relative à ces 2 éléments. Mais le robot avait aussi besoin de règles qui lui permettaient d’anticiper les effets de ses propres actions.

L’expérience de Winfield

L’expérience de Winfield est devenue une référence dans la robotique. Il a utilisé des robots de la taille d’un palet de hockey sur une surface. Certains des robots étaient intitulés H pour les humains et il y avait le robot principal (le sauveur) qui était intitulé A en hommage à Asimov, car ce robot respectait la première loi de la robotique. Si le robot A voyait que le robot H risquait de tomber dans le trou, alors il devait se précipiter pour le sauver. Winfield a fait des dizaines de tests avec les robots et il a trouvé que le robot A a sauvé le robot H à chaque fois. Ensuite, Winfield s’est demandé sur le comportement du robot A, en se basant toujours sur la première loi de la robotique, s’il y avait 2 robots H qui risquaient de tomber dans le trou en même temps.

Les résultats ont suggéré que même une éthique minimale était utile a déclaré Winfield. Le robot A a sauvé fréquemment un des humains en se déplaçant sur celui qui était le plus proche de lui. Parfois, s’il se déplaçait rapidement, le robot A sauvait les 2 humains en même temps. Mais l’expérience a montré les limites du minimalisme de l’éthique. Dans la moitié des cas, le robot A se retrouvait dans une hésitation perpétuelle et les 2 humains mourraient parce que le robot n’arrivait pas à résoudre son dilemme. Et pour résoudre ce problème, il faut beaucoup plus de règles éthiques pour prendre la décision sur des choix qui impliquent systématiquement un dilemme. Si un des robots H était un enfant et que l’autre était un adulte, alors comment le robot A allait prendre sa décision ? Et c’est un scénario qu’on a déjà vu au cinéma dans le film I, Robot interprété par Will Smith. Dans ce film, une voiture plonge dans un fleuve avec un adulte et un enfant dedans. Un robot voit la scène et il plonge, mais il sauve l’adulte, car il a calculé que l’adulte avait les meilleures chances de survie comparée à l’enfant. Dans la vie réelle, les experts s’accordent à dire que c’est une question de jugement et non plus d’éthique. Si on devait répéter ce scénario de voiture avec 100 humains à la place du robot, alors on peut parier que certains sauveraient l’adulte et d’autres sauveraient l’enfant. Dans ce type de situation, ce n’est pas l’éthique qui compte, mais un phénomène bien plus important qui sera d’une difficulté titanesque dans l’intelligence artificielle, car il s’agit du libre arbitre. Les scientifiques en intelligence artificielle ne savent pas coder ces règles explicites de l’éthique, car ils ignorent ces règles ou que la plupart des règles d’éthique ne pourront jamais prendre en compte toutes les situations.

Coder toutes les règles d’éthique dans la machine

ethique-robot_1Les partisans de cette approche, qui est de coder toutes les règles en amont, estiment qu’elle a un avantage majeur. Il est toujours clair de comprendre le choix de la machine parce qu’on a créé explicitement toutes les règles. Et c’est un problème qui devient crucial pour l’armée américaine dont les systèmes autonomes sont devenus la priorité depuis quelques années. Que ce soit des machines qui aident des soldats ou qui effectuent des missions mortelles, la dernière chose que vous voulez est d’envoyer un robot autonome dans une mission militaire et lui dire : Débrouille-toi pour suivre les meilleures décisions d’éthique en plein combat selon Ronald Arkin qui travaille sur des logiciels d’éthique pour l’IA à la Georgia Institute of Technology à Atlanta. Si un robot peut choisir entre sauver un soldat ou aller vers un ennemi, alors il est important de prévoir les choix qu’il va effectuer. Avec le support du département de la défense, Arkin est en train de créer un programme qui s’assure qu’un robot militaire va fonctionner selon les règles internationales d’engagement. Une série d’algorithmes, appelée gouverneur éthique, va calculer si une action telle que le tir d’un missile est autorisée et le tir est effectué uniquement si la réponse est Oui.

Dans un test virtuel avec ce gouverneur éthique, on a fait une simulation avec un véhicule autonome qui était capable de tirer sur des cibles ennemies. Mais il ne pouvait pas tirer s’il y avait des civils à côté des cibles. On a testé plusieurs scénarios tels que l’emplacement du robot par rapport à la zone d’attaque et la proximité de zones telles que des hôpitaux ou des logements résidentiels. Ensuite, ce sont les algorithmes qui décident si le robot peut accomplir ses missions. Les armes autonomes mortelles font l’objet de débats enragés et beaucoup estiment qu’on doit les interdire. Mais Arkin argue que ces machines seraient mieux que des soldats humains, car une machine ne brise jamais ses règles de programmation tandis qu’un humain peut le faire. Les informaticiens qui travaillent sur une éthique rigoureuse de l’intelligence artificielle sont partisans des conditions logiques. Par exemple, si une telle condition est vraie, alors il faut s’avancer et si la même condition est fausse, alors il faut rester sur place. La logique est le choix idéal pour apprendre l’éthique aux machines selon Luís Moniz Pereira, un informaticien au Nova Laboratory for Computer Science and Informatics à Lisbonne. Selon lui, la logique est notre manière de raisonner avec nos choix éthiques.

Le dilemme du train

Mais c’est un sacré défi que de créer des instructions qui sont capables d’étapes logiques pour des décisions éthiques. Par exemple, selon Pereira, les langages logiques utilisés par les programmes informatiques ont dû mal à tirer des conclusions sur des scénarios hypothétiques tel que la contradiction qui est cruciale pour résoudre certains dilemmes éthiques. Et l’un des meilleurs exemples du dilemme éthique est le problème du train. Imaginez un train à wagons hors de contrôle qui risque de tuer 5 personnes innocentes sur les rails. Vous pouvez les sauver uniquement si vous actionnez un levier qui redirige le train vers un autre rail sur lequel il y a un passant. Le train va percuter et tuer ce passant. Qu’est-ce que vous allez faire ? Une autre variante de ce scénario est que la seule manière de stopper le train est de pousser le passant sur les rails. Les gens répondent souvent que le bon choix est d’actionner le levier, mais ils rejettent viscéralement l’idée de pousser le passant. Cette intuition basique, connue par les philosophes comme la doctrine de l’effet double, est qu’on ne doit jamais faire du mal à quelqu’un quel que soit la situation. Une manière de dire qu’on ne doit jamais faire le mal même pour faire le bien. Toutefois, ce rejet disparait si le fait de faire le mal n’est pas délibéré. Par exemple, le passant se trouvait simplement sur les rails et que ce n’est la faute de personne.

Et ce type de décision est d’une difficulté inouïe pour une analyse qui serait effectuée par une intelligence artificielle. Pour commencer, le programme devra être capable de voir 2 futurs possibles, le premier dans lequel le train tue les 5 personnes et le second dans lequel le train tue une personne. Le programme doit ensuite se demander sur la meilleure action possible parce que la perte de 5 vies est intolérable tandis qu’une action entrainant une seule perte de vie est tolérable parce qu’on a sauvé 5 personnes. Et pour le découvrir, le programme devra être capable de dire ce qui se produit s’il ne pousse pas le passant ou qu’il n’actionne pas le levier afin de prendre en compte la contradiction. Ce serait comme si le programme se débuguerait en permanence selon Pereira, car il doit trouver la ligne de code qu’il doit changer tout en anticipant les impacts de ce changement. Pereira et Ari Saptawijaya, un informaticien de l’université d’Indonésie à Depok, ont réussi à écrire un programme logique qui peut prendre des décisions en se basant sur la doctrine de l’effet double, mais également sur une doctrine plus sophistiquée avec un effet triple. Ce dernier prend en compte si le tort causé est le résultat espéré de l’action ou simplement nécessaire.

Les humains, la morale et les machines

La manière de créer des robots éthiques aura des conséquences majeures sur le futur de la robotique selon les chercheurs. Michael Fisher, un informaticien à l’université de Liverpool, estime que les robots avec des règles prédéfinies peuvent rassurer le public. Selon ce chercheur : Les gens auront peur des robots s’ils ne sont pas sûrs de ce qu’ils pourraient faire, mais si nous pouvons analyser et prouver les raisons de leurs actions, alors nous pouvons surmonter ce problème de confiance. Ce chercheur travaille avec Winfield et d’autres sur un projet financé par le gouvernement qui permet d’anticiper systématiquement les décisions d’éthique d’une machine.

En revanche, l’approche du Machine Learning nous promet des robots qui peuvent apprendre de leurs expériences ce qui les rendra plus flexibles et utiles que leur homologue totalement rigidifié dans leurs règles. De nombreux spécialistes en robotique estiment que la meilleure manière est d’utiliser une combinaison des 2 approches. C’est comme la psychothérapie selon Pereira et vous ne pouvez pas utiliser une seule approche. Mais un autre défi, qui n’a pas encore été résolu, est d’utiliser ces 2 approches pour qu’elles fonctionnent ensemble. On peut penser que ce sont des décisions qui deviendront importantes dans un futur lointain, mais en fait, elles sont déjà nécessaires aujourd’hui dans le secteur des transports. Google a déjà déployé ses voitures autonomes dans certaines régions de Californie. Et en mai 2015, des camions autonomes du constructeur Daimler ont traversé le désert du Nevada. Les ingénieurs travaillent d’arrache-pied sur la programmation de ces véhicules pour qu’ils obéissent à la fois aux règles d’éthique tout en s’adaptant aux situations qu’ils rencontrent sur la route.

Jusqu’à maintenant, on utilise des robots sur des tâches qui ne sont pas effectuées correctement par des humains selon Bernhard Weidemann, un porte-parole de Daimler. Par exemple, le fait de maintenir une attention constante sur la route ou freiner rapidement face à une situation imprévue. Dans le futur, on devra créer des programmes avec des capacités qui viennent naturellement aux humains, mais pas aux machines.

 

N'oubliez pas de voter pour cet article !
1 étoile2 étoiles3 étoiles4 étoiles5 étoiles (No Ratings Yet)
Loading...

Houssen Moshinaly

Rédacteur en chef d'Actualité Houssenia Writing. Rédacteur web depuis 2009 et vulgarisateur scientifique.

Je m'intéresse à tous les sujets scientifiques allant de l'Archéologie à la Zoologie. Je ne suis pas un expert, mais j'essaie d'apporter mes avis éclairés sur de nombreux sujets scientifiques.

Pour me contacter personnellement :

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *