Sur le risque existentiel d’une intelligence artificielle


  • FrançaisFrançais

  • Des débats plutôt houleux ont lieu actuellement sur le risque existentiel d’une super intelligence artificielle. Et disons que pour le moment, personne ne peut prédire ce qui va se passer.


    Suivez-nous sur notre page Facebook et notre canal Telegram

    Des débats plutôt houleux ont lieu actuellement sur le risque existentiel d'une super intelligence artificielle. Et disons que pour le moment, personne ne peut prédire ce qui va se passer.

    L’intelligence artificielle fait souvent la une des médias et cela va de pair avec la robotisation. Ces 2 concepts, malgré similaires, sont assez différents. La robotisation menace des millions de travailleurs même s’il faut toujours être nuancé. Ainsi, des personnes estiment qu’il sera difficile pour les machines de remplacer les humains, car les tâches nécessiteront toujours de la créativité même pour les travaux les plus simples. Un exemple est un robot qui doit emballer des composants dans un carton.

    Testés en Chine, les ingénieurs ont compris rapidement les limites de ce type de machine. Pour que le robot soit efficace, il faut que le carton soit placé exactement à un endroit précis pour que ces commandes internes se déclenchent pour placer les composants. Si le carton est à l’envers, mal placé ou tout autre paramètre incorrect, alors le robot ne peut pas comprendre que le carton est mal placé, car pour lui, il n’y pas de carton. L’humain, même dans une tâche aussi primitive, détectera rapidement la mauvaise position du carton et prendra les décisions en conséquence. On peut arguer que les robots vont acquérir cette habileté au fil du temps, mais il faudra qu’ils puissent improviser ce qui n’est pas du tout évident. Le Machine Learning et le Deep Learning ne proposent pas d’improvisations, mais plutôt des prédictions sur des ensembles de données.

    Des nuances entre le Sauveur et le Destructeur

    Mais le risque existentiel concerne les algorithmes et les intelligences artificielles qui vont prendre des décisions médicales, environnementales ou climatiques. En 2014, Nick Bostrom, un philosophe a écrit un livre intitulé Superintelligence dans lequel il a effectué des sondages sur les meilleurs experts en intelligence artificielle sur les probabilités qu’une super intelligence artificielle va émerger dans le futur et qu’elle sera foncièrement négative pour l’humanité. Pour ceux qui suivent l’actualité de la physique théorique et des territoires pouvant relever de la métaphysique, ils reconnaitront le nom de Nick Bostrom puisqu’il est à l’origine de l’hypothèse que nous vivons dans une simulation informatique.

    Oren Etzioni est un partisan acharné de l’intelligence artificielle et dans un récent article, il estime que Bostrom raconte des bêtises et que son livre est exagéré à mort. Dans le préambule de l’article, il nous dit que si vous demandez à des personnes qui s’y connaissent vraiment, alors vous trouverez qu’il y en a peu qui croient que l’intelligence artificielle est une menace pour l’humanité. Notons que Etzioni a effectué son propre sondage pour détruire celui de Bostrom. Mais ce préambule est malhonnête, car il sous-entend que Bostrom a effectué son sondage auprès de péquenots qui n’y connaissent rien alors que c’est exactement le contraire. Bostrom a effectué son sondage sur 100 meilleurs chercheurs en IA et 15 % ont répondu qu’une intelligence artificielle sera partiellement ou extrêmement mauvaise sur l’humanité.

    On parle de l’équilibre entre les bienfaits et les inconvénients. Pour des personnes comme Etzioni, l’intelligence artificielle est une bonne chose malgré les risques, car elle permettra de guérir des maladies, d’empêcher des conflits en analysant la situation internationale ou réduire des accidents routiers. Bostrom n’est pas contre l’intelligence artificielle, mais il estime qu’on doit la contrôler et que pour la contrôler, il faut envisager les pires scénarios et on doit le faire maintenant. On a deux écoles de pensée qui s’affrontent. D’un côté, nous avons les partisans d’une IA totalement libre de ses mouvements, car la moindre interférence humaine provoquerait de mauvaises décisions. Ce type de partisan estime que l’humanité est foncièrement mauvaise et qu’elle corrompt tout ce qu’elle touche. Bostrom est plus nuancé et surtout, il envisage le risque systémique. Ce qui m’inquiète dans ces débats est que les différents arguments s’inspirent de croyances telles que le Basilic de Roko. À l’époque où nous avions écrit cet article, nous avions prévenu que les idées qui sont utilisées dans le Basilic risquent de débarquer dans le débat public alors que c’est un mythe à la base.

    Le risque existentiel est trop faible pour être envisagé ?

    Quand on parle de risque existentiel, on ne parle pas d’une intelligence artificielle qui va prendre vos emplois ou créer des inégalités, mais bien un risque d’extinction pour toute l’humanité. Le problème de Bostrom est qu’il utilise les mêmes arguments que les anti-OGM qui estiment qu’on ne doit pas jouer avec le vivant, car même le risque le plus minimal est trop important, car les conséquences sont infinies et incontrôlables.

    Est-ce qu’on doit réfléchir sur le risque existentiel d’une intelligence artificielle ? La réponse est non avec une certaine hésitation, car vous devez envisager les risques face à une chose réelle. Une super intelligence artificielle n’existe pas pour le moment, mais les experts, que ce soit dans le sondage de Bostrom ou d’Etzioni, estiment qu’elle pourrait émerger dans les 25 prochaines années. Et à l’échelle humaine, 25 % n’est qu’un clin d’oeil. Pour ceux qui sont méfiants envers la super intelligence artificielle, c’est comme si on ne doit pas alerter sur le réchauffement climatique sous prétexte que ses effets les plus dévastateurs ne se produiront que dans 100 ans. Ou encore, on doit empêcher les chercheurs de nous alerter sur les risques d’une réaction en chaine dans une centrale nucléaire sous prétexte que le risque est trop faible. Mais cet argument n’est pas valable dans le cas d’une IA singulariste, car le réchauffement climatique et les accidents nucléaires existent déjà. Dans la même trempe, Google avait déclaré qu’il est inutile de penser aux dangers existentiels de l’intelligence artificielle puisque c’est comparable à ne pas aller sur la planète Mars, car cela provoquerait une surpopulation sur le long terme.

    Le dilemme de Collingridge

    Dans le cas de la technologie, on est confronté au terrible dilemme de Collingridge. Il postule qu’on ne peut pas prédire les impacts d’une technologie tant qu’on ne l’a pas utilisé de manière intensive. Et une fois que ces impacts négatifs existent, il était difficile de changer, car nous serons trop enchainés à la technologie. On ne peut pas prédire les dangers de l’intelligence artificielle tant qu’elle n’a pas envahi totalement nos vies et on ne pourra rien faire à ce moment-là puisqu’elle aura justement envahi nos vies. Par la suite, Collingridge est revenu sur l’aspect fataliste de ce dilemme, mais cela dépend de la manière dont nous pouvons contrôler la technologie… Et c’est justement ce que nous ne pouvons pas faire.

    Je n’ai pas encore d’avis tranché sur la question, car les arguments des 2 parties se valent, mais je pressens des lacunes dans chacun de ces arguments même si je n’arrive pas à mettre le doigt dessus. Peut-être que les questions qu’on doit se poser ne concernent pas forcément l’apparition d’un Skynet ou d’un Oblivion, mais pourquoi nous avons créé ces intelligences artificielles à la base. Est-ce qu’ils nous facilitent la vie ? Quel est l’objectif de leurs développeurs ? Est-ce que l’humanité se portera mieux avec les intelligences artificielles ? Concernant le dilemme de Collingridge, la réponse peut se trouver dans les entités qui contrôlent la technologie. Aujourd’hui, la technologie dominante est contrôlé par quelques mains, mais je pense que le risque peut être réduit si tout le monde peut regarder ce qu’il y a sous le capot et prendre des décisions collectives. Car le principal problème est là. On nous demande de prendre position sur une intelligence artificielle qui est simplement une boite noire avec des clés qui sont hors de notre portée.

     

    Houssen Moshinaly

    Rédacteur en chef d'Actualité Houssenia Writing. Rédacteur web depuis 2009.

    Blogueur et essayiste, j'ai écrit 9 livres sur différents sujets comme la corruption en science, les singularités technologiques ou encore des fictions. Je propose aujourd'hui des analyses politiques et géopolitiques sur le nouveau monde qui arrive. J'ai une formation de rédaction web et une longue carrière de prolétaire.

    Pour me contacter personnellement :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *