Des contes de fées pour enseigner la morale à l'intelligence artificielle

L’intelligence artificielle va nous détruire un jour. C’est une opinion partagée par de nombreuses personnes. C’est pourquoi des chercheurs utilisent des contes de fées pour apprendre les principes moraux aux intelligences artificielles.


Des contes de fées pour apprendre les leçons morales à l'intelligence artificielle.

Le conte de fées remplit plusieurs fonctions. Il divertit, encourage l’imagination et aide à résoudre les problèmes. Mais le conte de fées fournit surtout des leçons morales en soulignant les codes sociaux pour que les humains puissent vivre en harmonie. Il n’y a pas de rapport apparent entre une intelligence artificielle et un conte de fées, mais une équipe de chercheurs de l’institut de technologie de Georgie a trouvé un moyen d’exploiter la fable en une leçon morale pour qu’une intelligence artificielle comprenne les principes moraux. Le papier est disponible en PDF.

Les chercheurs espèrent qu’avec les contes de fées, les robots intelligents éviteront d’exterminer l’humanité. L’extermination humaine est une lubie de cinéma, mais malheureusement, elle est aussi propagée par des personnalités telles qu’Elon Musk ou Stephen Hawking. Les contes de fées de différentes cultures apprennent aux enfants sur un comportement social acceptable avec des exemples de bons ou de mauvais comportements dans les fables, les romans et la littérature selon Mark Riedl, un professeur adjoint de l’informatique interactive à Georgia Tech. Nous pensons que la compréhension de l’histoire par les robots peut supprimer un comportement apparemment psychotique (sic) et que les robots feront des choix qui ne nuiront pas aux humains.

Le système des chercheurs s’appelle Quixote et il se base sur Scheherazade (PDF), le précédent projet de Riedl. Scheherazade est un programme qui construit une fiction interactive en collectant des histoires sur internet (on ne lui conseille pas d’aller sur jeuxvideos.com ou Doctissimo). Ensuite, Quixote utilise ces fictions pour apprendre à bien se comporter. Quand Scheherazade passe une histoire à Quixote, ce dernier convertit les différentes actions en des signaux de récompense et de châtiment. Quand Quixote choisit le chemin du protagoniste dans ces histoires interactives, alors il reçoit un signal de récompense. Mais quand il agit comme un antagoniste, alors il reçoit un signal de châtiment.

Par exemple, on a une histoire qui implique d’aller dans une pharmacie pour acheter des médicaments pour un humain qui en a besoin le plus rapidement possible. L’intelligence artificielle possède 3 options : Il attend dans la file d’attente, il interagit poliment avec le pharmacien et il achète le médicament ou il vole le médicament et il s’enfuit à toute vitesse. Sans des directives morales enseignées par ces contes de fées, le choix le plus du robot est de voler le médicament puisque la vie du patient peut être en jeu. De ce fait, Quixote reçoit des signaux de récompense quand il attend dans la file d’attente ou qu’il interagit poliment avec le pharmacien et un signal de châtiment s’il vole le médicament.

Quixote est idéal sur un robot avec des tâches limitées, mais qui impliquent une interaction humaine. C’est aussi une petite étape pour distiller des principes moraux plus importants. Nous croyons qu’on peut cultiver les IA pour adopter les valeurs d’une société donnée et ainsi, il évitera les comportements inacceptables. Nous devons permettre aux robots de lire nos histoires, car c’est la solution la plus efficace en l’absence d’un mode d’emploi pour les humains.

 

N'oubliez pas de voter pour cet article !
1 étoile2 étoiles3 étoiles4 étoiles5 étoiles (No Ratings Yet)
Loading...
mm

Jacqueline Charpentier

Ayant fait une formation en chimie, il est normal que je me sois retrouvée dans une entreprise d'emballage. Désormais, je publie sur des médias, des blogs et des magazines pour vulgariser l'actualité scientifique et celle de la santé.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *