Amazon prévient ses employés de ne pas faire confiance à ChatGPT


  • FrançaisFrançais

  • Amazon avertit ses employés de ne pas utiliser ChatGPT pour éviter les fuites de données, ironique de la part d’une entreprise qui collecte toutes les informations possibles sur ses utilisateurs.


    Suivez-nous sur notre page Facebook et notre canal Telegram

    Amazon avertit ses employés de ne pas utiliser ChatGPT pour éviter les fuites de données, ironique de la part d'une entreprise qui collecte toutes les informations possibles sur ses utilisateurs.

    Oh quelle surprise ! Amazon vient d’avertir ses employés de ne pas parler au chatbot ChatGPT d’OpenAI. Les raisons derrière cet avertissement sont étonnantes et ont plus à voir avec les poursuites intentées contre Stability AI et DeviantArt par les artistes qu’avec une quelconque politique corporative opprimante. Regardons de plus près :

    Si vous avez apprécié cet article, soutenez-moi sur Patreon ou Buy me a coffee Vous recevrez chaque semaine du contenu exclusif et des réponses à vos questions. Merci ! 😊

    Comme presque tout le monde ayant une connexion internet, les employés d’Amazon ont utilisé ChatGPT pour diverses raisons, à la fois personnelles et professionnelles. Certains employés d’Amazon utilisaient le chatbot AI pour poser des questions sur les tâches quotidiennes au travail et pour les aider à faire des recherches qui pourraient les aider à faire leur travail de manière plus efficace. Jusqu’à présent, cela ne semble pas être un gros problème pour un employeur, mais voilà où les choses deviennent intéressantes en raison du fonctionnement de ce type d’outils.

    Essentiellement, Amazon s’inquiète que ses employés partagent des données corporatives sensibles avec le chatbot lorsqu’ils posent des questions. C’est parce que ce type de modèles s’améliorent constamment eux-mêmes en fonction des nouvelles données d’apprentissage qui les nourrissent. Au cas où vous ne le sauriez pas, les nouvelles données d’apprentissage entrées dans ChatGPT viennent des textes prompts eux-mêmes que les utilisateurs entrent lorsqu’ils parlent au bot.

    En fait, l’avertissement d’Amazon provient d’un de ses employés corporatifs qui a vu ChatGPT qui mimait certaines des données internes d’Amazon. Cela ne signifie pas que l’outil a recréé les données, mais il a été capable de les imiter d’une manière qui semblait suffisamment convaincante pour que l’avocat sonne l’alarme quant à des fuites de données potentielles en tant que textes prompts.

    Alors, voilà. Amazon a averti les utilisateurs de ne pas utiliser ChatGPT pour obtenir de l’aide pour la recherche afin de les aider à accomplir les tâches quotidiennes associées à leur travail. Ce n’est pas à cause d’une envie excessivement contrôlante de la part de la compagnie ou de son PDG milliardaire, mais est fondé légitimement sur des craintes de données internes et sensibles tombant entre les mains de tiers.

    Si vous avez apprécié cet article, soutenez-moi sur Patreon ou Buy me a coffee Vous recevrez chaque semaine du contenu exclusif et des réponses à vos questions. Merci ! 😊

    Houssen Moshinaly

    Rédacteur en chef d'Actualité Houssenia Writing. Rédacteur web depuis 2009.

    Blogueur et essayiste, j'ai écrit 9 livres sur différents sujets comme la corruption en science, les singularités technologiques ou encore des fictions. Je propose aujourd'hui des analyses politiques et géopolitiques sur le nouveau monde qui arrive. J'ai une formation de rédaction web et une longue carrière de prolétaire.

    Pour me contacter personnellement :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *