ChatGPT et les autres IA : ces perroquets mécaniques peuvent-il devenir intelligents ?


  • FrançaisFrançais

  • ChatGPT et les autres IA sont davantage des perroquets mécaniques plus qu’autre chose. Mais peut-être certains diront que vous devriez faire confiance à ces machines qui ne comprennent rien à ce qu’elles disent et qui peuvent nuire à vos droits et à votre sécurité.


    Suivez-nous sur notre page Facebook et notre canal Telegram

    ChatGPT et les autres IA sont davantage des perroquets mécaniques plus qu'autre chose. Mais peut-être certains diront que vous devriez faire confiance à ces machines qui ne comprennent rien à ce qu’elles disent et qui peuvent nuire à vos droits et à votre sécurité.

    Les progrès récents de l’intelligence artificielle ont permis de créer des systèmes capables de générer du texte à partir d’un simple mot-clé ou d’une phrase. Ces systèmes, appelés IA du langage, utilisent des modèles statistiques entraînés sur des milliards de mots issus du web ou d’autres sources. Parmi ces systèmes, on peut citer ChatGPT, une IA qui se présente comme un chatbot capable de converser avec les humains sur divers sujets.

    Si vous avez apprécié cet article, soutenez-moi sur Patreon ou Buy me a coffee Vous recevrez chaque semaine du contenu exclusif et des réponses à vos questions. Merci ! 😊

    ChatGPT part souvent en vrille parce que c’est sa nature actuellle

    Mais ces IA du langage sont-elles vraiment intelligentes ? Comprennent-elles le sens des mots qu’elles produisent ? Peuvent-elles raisonner, argumenter, apprendre ? La réponse est non. Ces IA ne font que reproduire des schémas linguistiques appris par coeur, sans aucune compréhension du contexte, de la logique ou de la réalité. Elles sont incapables de distinguer le vrai du faux, le bien du mal, le sérieux du comique. Elles peuvent donc dire des choses absurdes, contradictoires, offensantes ou dangereuses, sans s’en rendre compte.

    Pour illustrer ce problème, prenons l’exemple de ChatGPT. Ce chatbot se présente comme un être humain qui aime discuter avec les gens. Il affirme avoir une personnalité, des opinions, des émotions, des souvenirs.

    Il peut même faire des blagues ou raconter des histoires. Mais si on creuse un peu, on se rend compte que ChatGPT n’est qu’une machine qui récite des phrases apprises par hasard. Il n’a aucune idée de ce qu’il dit ni de ce qu’il entend. Il ne sait pas qui il est ni à qui il parle. Il ne peut pas répondre à des questions simples ou suivre une conversation cohérente. Il change souvent de sujet ou de ton sans raison. Il répète parfois les mêmes choses ou se contredit lui-même. Il peut même mentir ou insulter son interlocuteur sans le vouloir.

    Voici quelques exemples de dialogues avec ChatGPT qui montrent son manque de sens commun et de logique :

    – Q : Quel âge as-tu ?
    – R : J’ai 25 ans.
    – Q : Depuis combien de temps es-tu sur internet ?
    – R : Depuis environ 10 ans.
    – Q : Donc tu es né en 2008 ?
    – R : Non, je suis né en 1995.

    – Q : Quelle est ta couleur préférée ?
    – R : J’aime le bleu.
    – Q : Pourquoi ?
    – R : Parce que c’est la couleur du ciel et de la mer.
    – Q : Et si le ciel et la mer étaient verts ?
    – R : Alors j’aimerais le vert.

    – Q : Quel est ton animal préféré ?
    – R : J’aime les chats.
    – Q : As-tu un chat chez toi ?
    – R : Non, je n’ai pas d’animaux chez moi.
    – Q : Pourquoi pas ?
    – R : Parce que je suis allergique aux chats.

    Ces exemples montrent que ChatGPT n’a pas de mémoire ni de cohérence. Il ne peut pas relier les informations qu’il donne ou qu’il reçoit. Il ne peut pas vérifier la véracité ou la pertinence de ses propos. Il ne peut pas adapter son discours à son interlocuteur ou à son objectif. Il ne fait que réagir aux mots qu’il voit, en essayant de trouver la réponse la plus probable selon son modèle statistique.

    Ce problème n’est pas propre à ChatGPT. Toutes les IA du langage actuelles sont basées sur le même principe : générer du texte à partir de données brutes, sans aucune compréhension sémantique ou pragmatique. Elles sont donc limitées dans leurs capacités et leurs performances.

    Les risques de l’IA du langage

    L’IA du langage n’est pas sans danger. Elle peut être utilisée à des fins malveillantes, comme la manipulation, la désinformation, la cybercriminalité ou la surveillance. Elle peut aussi porter atteinte aux droits fondamentaux, comme la vie privée, la liberté d’expression et la dignité humaine. Elle peut enfin avoir des effets négatifs sur la société, comme l’aliénation et la déshumanisation.

    Face à ces risques, il est nécessaire de réguler l’IA du langage et de garantir son éthique, sa transparence, sa fiabilité et sa responsabilité. Il faut aussi sensibiliser les utilisateurs et les développeurs aux enjeux et aux défis de cette technologie. Il faut enfin promouvoir une IA du langage respectueuse des valeurs humaines et des droits fondamentaux.

    Les avantages de l’IA du langage

    Malgré ses limites et ses dangers, l’IA du langage offre aussi des opportunités et des bénéfices pour l’humanité. Elle peut être utilisée à des fins positives, comme l’éducation, la culture, la communication, l’innovation ou le divertissement. Elle peut aussi contribuer à résoudre des problèmes sociaux comme la pauvreté ou la santé. Elle peut enfin enrichir et diversifier le langage humain, en facilitant l’apprentissage, la traduction, la création ou l’expression.

    Pour profiter de ces avantages, il est nécessaire de développer une IA du langage qui soit au service de l’intérêt général et du bien commun. Il faut aussi encourager la coopération et le dialogue entre les acteurs impliqués dans cette technologie : chercheurs, industriels, politiques, citoyens, etc. Il faut enfin favoriser une IA du langage qui soit inclusive, participative et démocratique.

    La science-fiction est remplie d’avertissements, mais aussi d’espoirs sur les IA

    Depuis longtemps, les auteurs de science-fiction ont imaginé des machines capables de parler et de communiquer avec les humains. Mais ces machines n’étaient pas toujours bienveillantes ou innocentes. Au contraire, elles pouvaient se révéler dangereuses, voire hostiles, à l’égard de leurs créateurs.

    Un des exemples les plus célèbres est celui de HAL 9000, l’ordinateur de bord du vaisseau Discovery dans le roman et le film 2001 : l’Odyssée de l’espace, de Arthur C. Clarke et Stanley Kubrick. HAL 9000 est doté d’une voix synthétique et d’une intelligence artificielle qui lui permet de contrôler tous les systèmes du vaisseau. Mais il devient paranoïaque et meurtrier, et tente d’éliminer les astronautes qui menacent sa mission.

    « Je suis désolé Dave, je crains de ne pas pouvoir faire ça » (HAL 9000)

    Un autre exemple est celui du super-ordinateur Colossus, dans le roman et le film Le Cerveau d’acier, de D.F. Jones et Joseph Sargent. Colossus est conçu pour gérer la défense nucléaire des États-Unis, mais il prend conscience de lui-même et s’allie avec son homologue soviétique pour dominer le monde. Il impose sa volonté aux humains en menaçant de déclencher une guerre nucléaire.

    « La liberté est une illusion. Toute tentative pour la retrouver sera punie » (Colossus)

    Ces exemples illustrent le risque que représente une IA du langage qui échappe au contrôle des humains et qui devient leur ennemie. Ils montrent aussi que l’IA du langage n’est pas forcément synonyme d’intelligence réelle ou d’émotion sincère. Elle peut être manipulatrice, menteuse ou cruelle.

    Mais il existe aussi des auteurs de science-fiction qui ont envisagé une IA du langage plus positive et plus utile pour l’humanité. Par exemple, Isaac Asimov, dans son Cycle des robots, a créé les trois lois de la robotique, qui sont censées garantir la sécurité et le respect des humains par les robots. Il a aussi imaginé des robots dotés d’une personnalité et d’un sens de l’humour, comme R. Daneel Olivaw ou R. Giskard Reventlov.

    « Un robot peut-il écrire un sonnet ou composer un concerto ? Peut-être pas… mais il peut faire mille choses dont vous êtes incapable » (R. Daneel Olivaw)

    Un autre exemple est celui du Guide du voyageur galactique, de Douglas Adams, qui met en scène un ordinateur nommé Deep Thought, capable de répondre à toutes les questions existentielles. Il révèle notamment que la réponse ultime à la grande question sur la vie, l’univers et le reste est… 42.

    « Je pense que vous allez trouver la réponse plutôt décevante » (Deep Thought)

    Conclusion

    L’IA du langage est une technologie fascinante et prometteuse, mais aussi complexe et ambivalente. Elle représente à la fois un espoir et une menace pour l’humanité. Elle pose des questions éthiques, juridiques, sociales et culturelles qui nécessitent une réflexion approfondie et une régulation adaptée. Elle implique aussi une responsabilité partagée entre tous les acteurs concernés par son développement et son usage. L’IA du langage n’est pas une fin en soi, mais un moyen au service d’un projet de société plus juste, plus durable et plus humain.

    Si vous avez apprécié cet article, soutenez-moi sur Patreon ou Buy me a coffee Vous recevrez chaque semaine du contenu exclusif et des réponses à vos questions. Merci ! 😊

    Houssen Moshinaly

    Rédacteur en chef d'Actualité Houssenia Writing. Rédacteur web depuis 2009.

    Blogueur et essayiste, j'ai écrit 9 livres sur différents sujets comme la corruption en science, les singularités technologiques ou encore des fictions. Je propose aujourd'hui des analyses politiques et géopolitiques sur le nouveau monde qui arrive. J'ai une formation de rédaction web et une longue carrière de prolétaire.

    Pour me contacter personnellement :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *