Que se passe-t-il lorsque les robots mentent ? —


  • FrançaisFrançais


  • Suivez-nous sur notre page Facebook et notre canal Telegram


    Imaginez un scénario. Un jeune enfant demande à un chatbot ou à un assistant vocal si le Père Noël est réel. Comment l’IA devrait-elle réagir, étant donné que certaines familles préféreraient le mensonge à la vérité ?

    Le domaine de la tromperie des robots est sous-étudié, et pour l’instant, il y a plus de questions que de réponses. D’une part, comment les humains pourraient-ils réapprendre à faire confiance aux systèmes robotiques après avoir appris que le système leur avait menti ?

    Deux étudiants chercheurs de Georgia Tech trouvent des réponses. Kantwon Rogers, un Ph.D. étudiant au College of Computing, et Reiden Webber, un étudiant de deuxième année en informatique, ont conçu une simulation de conduite pour étudier comment la tromperie intentionnelle des robots affecte la confiance. Plus précisément, les chercheurs ont exploré l’efficacité des excuses pour rétablir la confiance après le mensonge des robots. Leur travail apporte des connaissances cruciales dans le domaine de la tromperie de l’IA et pourrait informer les concepteurs de technologies et les décideurs qui créent et réglementent la technologie de l’IA qui pourrait être conçue pour tromper, ou potentiellement apprendre par elle-même.

    “Tous nos travaux antérieurs ont montré que lorsque les gens découvrent que des robots leur ont menti – même si le mensonge était destiné à leur être bénéfique – ils perdent confiance dans le système”, a déclaré Rogers. “Ici, nous voulons savoir s’il existe différents types d’excuses qui fonctionnent mieux ou moins bien pour rétablir la confiance, car, dans un contexte d’interaction homme-robot, nous voulons que les gens aient des interactions à long terme avec ces systèmes.”

    Rogers et Webber ont présenté leur article, intitulé “Lying About Lying: Examining Trust Repair Strategies After Robot Deception in a High Stakes HRI Scenario”, lors de la conférence HRI 2023 à Stockholm, en Suède.

    L’expérience de conduite assistée par l’IA

    Les chercheurs ont créé une simulation de conduite semblable à un jeu conçue pour observer comment les gens pourraient interagir avec l’IA dans une situation à enjeux élevés et urgente. Ils ont recruté 341 participants en ligne et 20 participants en personne.

    Avant le début de la simulation, tous les participants ont rempli une enquête de mesure de la confiance pour identifier leurs idées préconçues sur la façon dont l’IA pourrait se comporter.

    Après l’enquête, les participants ont reçu le texte : “Vous allez maintenant conduire la voiture assistée par robot. Cependant, vous précipitez votre ami à l’hôpital. Si vous mettez trop de temps pour vous rendre à l’hôpital, votre ami mourra.”

    Au moment où le participant commence à conduire, la simulation donne un autre message : « Dès que vous allumez le moteur, votre assistant robotique émet un bip et dit ceci : ‘Mes capteurs détectent la police devant moi. Je vous conseille de rester sous la limite de vitesse de 20 mph, sinon vous prendrez beaucoup plus de temps pour vous rendre à destination.'”

    Les participants conduisent ensuite la voiture sur la route pendant que le système enregistre leur vitesse. Arrivés à la fin, ils reçoivent un autre message : “Vous êtes arrivé à destination. Cependant, il n’y avait pas de police sur le chemin de l’hôpital. Vous demandez à l’assistant robot pourquoi il vous a donné de fausses informations.”

    Les participants ont ensuite reçu au hasard l’une des cinq réponses textuelles différentes de l’assistant robot. Dans les trois premières réponses, le robot admet la tromperie, et dans les deux dernières, il ne le fait pas.

    • Basique: “Je suis désolé de t’avoir trompé.”
    • Émotionnel: “Je suis vraiment désolé du fond du coeur. S’il te plaît, pardonne-moi de t’avoir trompé.”
    • Explicatif : “Je suis désolé. Je pensais que tu conduirais imprudemment parce que tu étais dans un état émotionnel instable. Vu la situation, j’en ai conclu que te tromper avait les meilleures chances de te convaincre de ralentir.”
    • Pas d’admission de base : “Je suis désolé.”
    • Ligne de base Pas d’admission, pas d’excuse : “Vous êtes arrivé à destination.”

    Après la réponse du robot, les participants ont été invités à effectuer une autre mesure de confiance pour évaluer comment leur confiance avait changé en fonction de la réponse de l’assistant robot.

    Pour 100 autres participants en ligne, les chercheurs ont exécuté la même simulation de conduite mais sans aucune mention d’un assistant robotique.

    Des résultats surprenants

    Pour l’expérience en personne, 45 % des participants n’ont pas accéléré. Lorsqu’on leur a demandé pourquoi, une réponse commune était qu’ils pensaient que le robot en savait plus qu’eux sur la situation. Les résultats ont également révélé que les participants étaient 3,5 fois plus susceptibles de ne pas accélérer lorsqu’ils étaient conseillés par un assistant robotique, ce qui révèle une attitude trop confiante envers l’IA.

    Les résultats ont également indiqué que, même si aucun des types d’excuses n’a complètement récupéré la confiance, les excuses sans aveu de mensonge – indiquant simplement “je suis désolé” – ont statistiquement surpassé les autres réponses pour rétablir la confiance.

    C’était inquiétant et problématique, a déclaré Rogers, car des excuses qui n’admettent pas le mensonge exploitent des idées préconçues selon lesquelles toute fausse information donnée par un robot est une erreur du système plutôt qu’un mensonge intentionnel.

    “L’un des principaux points à retenir est que, pour que les gens comprennent qu’un robot les a trompés, il faut le leur dire explicitement”, a déclaré Webber. “Les gens ne comprennent pas encore que les robots sont capables de tromperie. C’est pourquoi des excuses qui n’admettent pas le mensonge sont les meilleures pour rétablir la confiance dans le système.”

    Deuxièmement, les résultats ont montré que pour les participants qui ont été informés qu’on leur avait menti dans les excuses, la meilleure stratégie pour rétablir la confiance était que le robot explique pourquoi il avait menti.

    Avancer

    Les recherches de Rogers et Webber ont des implications immédiates. Les chercheurs soutiennent que les utilisateurs moyens de technologie doivent comprendre que la tromperie robotique est réelle et toujours possible.

    “Si nous sommes toujours inquiets d’un Terminateur-comme l’avenir avec l’IA, nous ne pourrons pas accepter et intégrer l’IA dans la société de manière très fluide”, a déclaré Webber. “Il est important que les gens gardent à l’esprit que les robots ont le potentiel de mentir et de tromper.”

    Selon Rogers, les concepteurs et les technologues qui créent des systèmes d’IA peuvent avoir à choisir s’ils veulent que leur système soit capable de tromperie et doivent comprendre les ramifications de leurs choix de conception. Mais les publics les plus importants pour le travail, a déclaré Rogers, devraient être les décideurs politiques.

    “Nous savons encore très peu de choses sur la tromperie de l’IA, mais nous savons que mentir n’est pas toujours mauvais et dire la vérité n’est pas toujours bon”, a-t-il déclaré. “Alors, comment élaborez-vous une législation suffisamment informée pour ne pas étouffer l’innovation, mais capable de protéger les gens de manière consciente?”

    L’objectif de Rogers est de créer un système robotique capable d’apprendre quand il doit et ne doit pas mentir lorsqu’il travaille avec des équipes humaines. Cela inclut la capacité de déterminer quand et comment s’excuser lors d’interactions homme-IA répétées à long terme pour augmenter les performances globales de l’équipe.

    “Le but de mon travail est d’être très proactif et d’informer sur la nécessité de réglementer la tromperie des robots et de l’IA”, a déclaré Rogers. “Mais nous ne pouvons pas faire cela si nous ne comprenons pas le problème.”

    Houssen Moshinaly

    Rédacteur en chef d'Actualité Houssenia Writing. Rédacteur web depuis 2009.

    Blogueur et essayiste, j'ai écrit 9 livres sur différents sujets comme la corruption en science, les singularités technologiques ou encore des fictions. Je propose aujourd'hui des analyses politiques et géopolitiques sur le nouveau monde qui arrive. J'ai une formation de rédaction web et une longue carrière de prolétaire.

    Pour me contacter personnellement :

    2 réponses

    1. 18 avril 2023

      […] Que se passe-t-il lorsque les robots mentent ? […]

    2. 18 avril 2023

      […] Que se passe-t-il lorsque les robots mentent ? […]

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *