Voiture autonome : Le dilemme moral et narcissique

Les voitures autonomes sont testées sur les routes et la disponibilité commerciale n’est qu’une question de temps. Mais est-ce que vous acceptez qu’une voiture autonome vous tue pour protéger des piétons ? C’est la question d’une étude et disons que les réponses montrent que la nature humaine privilégie toujours le chacun-pour-soi.


Est-ce que vous acceptez qu'une voiture autonome tue son chauffeur pour protéger le maximum de vies ?

Quel est le critère d’une voiture autonome ? Comment doit-elle protéger son conducteur et ses passagers ? La sera disponible pour le grand public tôt ou tard, mais est-ce qu’elle doit protéger ses passagers à n’importe quel moyen ? Ou peut-elle vous tuer en choisissant la solution la moins pire ? Et une nouvelle étude répond oui aux 2 questions.

Les scientifiques ont proposé un sondage à 451 personnes. La question est qu’une voiture autonome détecte qu’un accident est inévitable. Est-ce qu’elle doit sacrifier les passagers ou les piétons ? Dans l’éthique, on connait ce problème comme le dilemme du Tramway. Quand le ratio est de 1 pour 1, 1 passager pour 1 piéton, alors 75 % des sondés ont répondu que le passager doit être sauvé. Mais quand le nombre de piétons a augmenté, alors les sondés ont changé d’avis et c’est une bonne chose. S’il y a 5 piétons contre 1 passager, alors 50 % ont répondu que le passager doit être sauvé. Bon, ce n’est pas une bonne nouvelle, car 50 % estime que la vie d’un seul passager vaut celle de cinq piétons. Et quand on a augmenté le nombre à 100 piétons, alors 20 % des sondés ont répondu que le passager doit être sauvé. Donc, on a 80 % qui sont d’accord pour mourir dans la bagnole si ça sauve 100 piétons.

Et ces réponses correspondent avec un second sondage sur 259 personnes. À ces derniers, on a demandé si les constructeurs doivent programmer leur voiture autonome pour protéger le plus de vies possible. Et 70 % ont répondu que oui. Mais quand on leur a demandé si les constructeurs doivent programmer leur voiture autonome pour sacrifier le conducteur, alors 30 % ont seulement répondu oui. C’est la même problématique, mais interrogé avec 2 questions différentes. Est-ce que vous voulez protéger le maximum de vies ? OUI. Est-ce que vous êtes prêts à vous sacrifier pour protéger le maximum de vies ? NON, je ne suis pas très chaud. Ce dilemme de l’éthique sur l’intelligence artificielle va poser des problèmes aux constructeurs et aux législateurs. Car, il faut envisager des accidents inévitables et on doit programmer la voiture autonome d’une certaine façon. On ne peut pas simplement dire à l’IA de la voiture : Ben en fait, débrouille-toi. Même s’il semble que la voiture autonome va augmenter la sécurité routière, les dilemmes moraux sont nombreux et il ne faut pas que des marques comme Google ou BMW se précipitent et qu’ils découvrent des problèmes qui deviendront insolubles par la suite.

Source : Revue Science

N'oubliez pas de voter pour cet article !
1 étoile2 étoiles3 étoiles4 étoiles5 étoiles (No Ratings Yet)
Loading...

Houssen Moshinaly

Rédacteur en chef d'Actualité Houssenia Writing. Rédacteur web depuis 2009 et vulgarisateur scientifique.

Je m'intéresse à tous les sujets scientifiques allant de l'Archéologie à la Zoologie. Je ne suis pas un expert, mais j'essaie d'apporter mes avis éclairés sur de nombreux sujets scientifiques.

Pour me contacter personnellement :

1 réponse

  1. newsoftpclab dit :

    Personne ne peut acheter une voiture autonome?Pourtant on en parle déjà.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *