L’Europe se sabote avec la loi sur l’IA : un désastre économique annoncé


  • FrançaisFrançais

  • L’Europe est-elle en train de se tirer une balle dans le pied avec la loi sur l’IA ? Certains experts et entrepreneurs craignent que la réglementation européenne ne freine l’innovation et la croissance dans le domaine de l’intelligence artificielle.


    Suivez-nous sur notre page Facebook et notre canal Telegram

    L’Europe est-elle en train de se tirer une balle dans le pied avec la loi sur l’IA ? Certains experts et entrepreneurs craignent que la réglementation européenne ne freine l’innovation et la croissance dans le domaine de l’intelligence artificielle.

    Maintenant que les grandes lignes de la loi sur l’IA sont connues, un débat commence à éclater autour de ses implications possibles. Un camp estime que des règles sont nécessaires pour limiter les risques liés à la puissante technologie de l’IA, tandis que l’autre est convaincu que la réglementation sera nuisible pour l’économie européenne. Est-il inconcevable que des produits d’IA sûrs apportent également la prospérité économique ?

    Si vous avez apprécié cet article, soutenez-moi sur Patreon ou Buy me a coffee Vous recevrez chaque semaine du contenu exclusif et des réponses à vos questions. Merci ! 😊

    La Troisième Révolution industrielle… sans l’Europe

    L’UE « empêche la révolution industrielle de se produire » et se présente comme « n’étant pas partie prenante du monde futur », a déclaré Joe Lonsdale à Bloomberg. Il apparaît régulièrement dans les médias américains autour des sujets liés à l’IA en tant que fervent défenseur de la technologie. Selon lui, la technologie a le potentiel de provoquer une troisième révolution industrielle, et chaque entreprise devrait déjà l’avoir mise en œuvre dans son organisation.

    Il a obtenu une licence en informatique en 2003. Il a ensuite cofondé plusieurs entreprises technologiques, dont certaines qui déploient l’intelligence artificielle. Il est devenu par la suite un homme d’affaires et un capital-risqueur.

    La seule question est de savoir si les inquiétudes sont fondées. À tout le moins, la prudence semble nécessaire pour éviter de voir disparaître les principaux produits d’IA d’Europe. Sam Altman, une figure plus connue de l’informatique en tant que PDG d’OpenAI, s’était déjà exprimé sur la possible disparition des entreprises d’IA d’Europe si les règles deviennent trop difficiles à appliquer. Il n’a pas l’intention de retirer ChatGPT d’Europe à cause de la loi sur l’IA, mais il met en garde ici contre les actions possibles d’autres entreprises.

    Des normes par qui et pour qui ?

    Le PDG lui-même est essentiellement un fervent partisan d’une législation sur la sécurité de l’IA. Il plaide pour des exigences de sécurité claires que les développeurs d’IA doivent respecter avant la sortie officielle d’un nouveau produit.

    Lorsqu’un acteur majeur du domaine de l’IA appelle à une réglementation de la technologie avec laquelle il travaille, peut-être devrions-nous, en tant qu’Europe, écouter. C’est ce qui se passe avec la loi sur l’IA, par laquelle l’UE essaie d’être la première au monde à établir un ensemble de règles pour l’intelligence artificielle. L’UE est pionnière, mais elle devra aussi découvrir les pièges d’une politique en l’absence d’un exemple concret dans le monde.

    Les règles seront continuellement testées jusqu’à ce qu’elles entrent officiellement en vigueur en 2025 par des experts qui donnent publiquement leur avis sur la loi. Une période de test publique que les développeurs d’IA devraient également trouver importante, selon Altman. L’Union européenne évite ainsi de se faire dicter des règles par le haut pour un domaine qu’elle ne connaît pas très bien elle-même. La législation viendra du bas vers le haut en impliquant les entreprises et les développeurs déjà activement engagés dans l’établissement des normes.

    Copier-coller

    Bien que l’UE affirme souvent que la loi sur l’IA sera la première réglementation mondiale de l’intelligence artificielle, d’autres endroits bricolent également un cadre juridique. Le Royaume-Uni, par exemple, est désireux d’adopter la technologie mais veut aussi avoir des garanties quant à sa sécurité. Pour ce faire, il se plonge dans la technologie et obtient un accès précoce aux modèles de DeepMind, OpenAI et Anthropic à des fins de recherche.

    Cependant, le Royaume-Uni n’a pas l’intention de sanctionner les entreprises qui ne se conforment pas. Le pays se limite à un cadre de cinq principes que l’intelligence artificielle doit respecter. Le choix semble jouer au détriment de la sécurité garantie des produits d’IA, car le pays dit qu’il est nécessaire de ne pas imposer un cadre politique obligatoire aux entreprises, pour attirer les investissements des entreprises d’IA au Royaume-Uni. Ainsi, des produits d’IA sûrs et la prospérité économique ne semblent pas bien s’accorder selon le pays. Reste à voir si la loi européenne sur l’IA valide cela.

    Si vous avez apprécié cet article, soutenez-moi sur Patreon ou Buy me a coffee Vous recevrez chaque semaine du contenu exclusif et des réponses à vos questions. Merci ! 😊

    Houssen Moshinaly

    Rédacteur en chef d'Actualité Houssenia Writing. Rédacteur web depuis 2009.

    Blogueur et essayiste, j'ai écrit 9 livres sur différents sujets comme la corruption en science, les singularités technologiques ou encore des fictions. Je propose aujourd'hui des analyses politiques et géopolitiques sur le nouveau monde qui arrive. J'ai une formation de rédaction web et une longue carrière de prolétaire.

    Pour me contacter personnellement :

    2 réponses

    1. 1 octobre 2023

      […] L’Europe se sabote avec la loi sur l’IA : un désastre économique annoncé […]

    2. 1 octobre 2023

      […] L’Europe se sabote avec la loi sur l’IA : un désastre économique annoncé […]

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *