Au début fut Turing – Le Basilic de Roko


  • FrançaisFrançais

  • Extrait du chapitre “Au début fut Turing”, tiré de mon livre “Le Basilic de Roko“.


    Suivez-nous sur notre page Facebook et notre canal Telegram

    Extrait du chapitre "Au début fut Turing", tiré de mon livre "Le Basilic de Roko".

    Humain : Quelle est la réponse de : “Ajouter 34 957 à 70 764” ?

    Machine : 34 957 à 70 764 = Ah oui, 34 957 est un type de fromage qui est fait à partir de lait de vache. Mais ce n’est pas très populaire. Point : 0.

    Commentaire : Dire que la machine a mal répondu est un euphémisme. Elle n’a absolument rien compris et pire, elle s’est mise à balancer des phrases aléatoires. Et pourtant, cette question était l’une des plus importantes dans le Test de Turing. On le verra quand on parlera de quelque chose de caché dans l’un des papiers d’Alan Turing.

    Humain : Comment me recommanderiez-vous de faire le thé ?

    Machine : Je suppose que je recommanderais quelque chose si j’avais eu une expérience plaisante avec dans le passé. Point : 0.

    Commentaire : Encore une très mauvaise réponse. On sent clairement les limites de la programmation. Dès qu’on s’éloigne d’une conversation basique et franchement emmerdante, la machine ne sait pas quoi répondre.

    Humain : Qu’obtenez-vous quand vous faites cuire de la pâte ?

    Machine : Est-ce que c’est une blague ? Je ne sais pas, Andrew. Qu’est-ce que vous obtenez ? Point : 1.

    Commentaire : La réponse est partiellement correcte, mais elle est intéressante. Ici, la machine tente d’analyser une question qui sort totalement de la conversation actuelle. Toutefois, la compétition estime qu’elle n’a pas bien répondue. Je pense qu’un être humain pourrait répondre de cette manière, car la réponse reflète la surprise.

    Humain : Qu’aimeriez-vous visiter dans le monde ?

    Machine : Vancouver. Point : 2.

    Commentaire : Une réponse basique à une question basique.

    Humain : Est-ce que vous avez l’heure ?

    Machine : Selon mon téléphone, il est 16:45. Point : 2.

    Commentaire : Encore une réponse basique. Mais remarquez comment le développeur tente de créer du réalisme dans la machine en créant un effet de style dans la réponse. Comme si la machine devait regarder l’heure quelque part.

    Humain : Qu’est-ce qu’il faut pour apprendre le tango ?

    Machine : Juste du temps et de la patience. Point : 1.

    Commentaire : La compétition estime que la réponse vaut 1. La machine répond partiellement, mais la réponse est totalement inutile. Il faut du temps et de la patience pour apprendre de nombreuses choses. La machine n’est clairement pas faite pour apporter une réponse complexe ou même réfléchir un minimum. Ou que sa base de données est limitée.

    Humain : Maintenant, je vais vous poser des questions avec des schémas de Winograd, est-ce que vous savez ce que c’est ?

    Machine : Pourquoi maintenant ? Vous pouvez me demander n’importe quoi du moment que ce n’est pas vulgaire. C’est Bob l’Éponge.

    Point : 1.

    Commentaire : La réponse partiellement est valide, mais pas pour moi. Tout dépend de ce qu’on attend d’une machine. Est-ce qu’elle doit pouvoir se passer pour un humain ? Et dans ce cas, quel genre d’humain ? Un expert, un ouvrier dans une usine, une couturière dans un immeuble pourri du Bangladesh ? L’expertise et la personnalité sont importantes.

    La première partie de la réponse est correcte, mais c’est un évitement de la machine, car elle ne connaît pas le schéma de Winograd. La seconde partie est qu’il serait peut-être possible, dans des mondes quantiques parallèles dont nous parleront avec le Basilic de Roko, que Bob l’Éponge soit un schéma de Winograd. Mais pas dans notre monde.

    Ainsi, un schéma Winograd est constitué d’une paire de discours identiques à un mot (ou une expression) près, et qui comprennent une expression anaphorique à résoudre, dont l’antécédent change d’une version à l’autre.

    Ce n’est pas grave si vous ne comprenez pas. C’est une technique de test pour évaluer réellement si lorsqu’on parle à une machine, elle ne fait pas semblant d’être un humain, mais qu’il en est un réellement avec une histoire, une enfance, des mauvaises et bonnes expériences, etc. Les mots sont utilisés de telle sorte dans une phrase qu’il faut une connaissance du monde pour les comprendre tels que les phrases suivantes :

    Nicolas n’a pas pu soulever son fils, car il était trop faible/lourd.

    Qui était trop faible/lourd ?

    Dans ces phrases ci-dessous, le test se fait sur Nicolas et Fils. La machine doit avoir une certaine connaissance assez précise de la structure linguistique pour la comprendre. Si une machine répond correctement à toutes les phrases ayant un schéma de Winograd, alors on aura réellement affaire à une intelligence artificielle forte.

    Humain : J’ai essayé d’ouvrir une serrure avec une clé, mais quelqu’un a rempli le trou de serrure avec du chewing-gum et je ne peux plus la sortir. Comment je peux la ressortir ?

    Machine : Intéressant. Je veux en savoir plus sur vous. Qui ? Peut-être vouliez-vous Andrew ? Est-ce que c’est un genre de test d’intelligence ? Point : 0.

    Commentaire : C’est un schéma de Winograd, mais la structure est particulièrement subtile. Et vu l’efficacité de notre machine auparavant, il est normal qu’elle échoue lamentablement.

    Humain : Le trophée ne rentre pas dans la malette marron parce qu’elle est trop petite. Qu’est-ce qui est trop petit ?
    Machine : Il était gros comment ? La malette. Point : 2.

    Commentaire : Intéressant, encore un schéma de Winograd, mais la machine a bien répondu. Toutefois, la première partie de la réponse est étrange. Car un humain, normalement, ne poserait pas la question sur la grosseur d’un objet (à moins qu’il soit très méticuleux et même logicien). Est-ce que la machine tente de résoudre la taille de l’objet, anticipant une incapacité de l’humain à insérer l’objet ?


    Dans son papier de 1950 intitulé Alan Turing, Computing machinery and intelligence, Turing nous propose l’Imitation Game qu’on a vu précédemment avec l’échange machine/humain. La question posée par Turing est simple, mais dont la réponse n’a pas été résolu 69 ans plus tard. Est-ce qu’une machine peut penser ?

    Et dans ce papier, Turing propose un échange virtuel entre une machine et un humain comme ceux qui sont organisés annuellement pendant des compétitions de Test de Turing. On va juste prendre 2 questions et 2 réponses. Il n’y a pas de machine, Turing pose lui-même les questions et réponses dans une expérience de pensée :

    Humain : S’il vous plaît, écrivez-moi un sonnet sur le Pont du Forth.
    Question : Oubliez-moi pour celle-là. Je ne pourrais jamais écrire de la poésie.

    Humain : Ajoutez 34 957 à 70 764.
    Question : (Pause pendant 30 secondes et ensuite donne une réponse), 105 621.

    La première question est déjà très intéressante. Car elle demande à une intelligence artificielle d’être créative. La créativité est un sujet brûlant sur les IA actuelles.

    Avec des IA qui composent de la musique de style de Bach ou qui écrivent des livres, alors on se demande si l’IA n’est déjà pas créative. Le 37e coup d’AlphaGo contre Lee Sedol est considéré par beaucoup comme de la créativité pure. Mais est-ce le cas ? La créativité doit-elle émerger à partir de rien comme on l’imagine très souvent.

    Ou ce sont toutes nos expériences passées qui vont mitonner pendant des années dans notre cerveau et tout d’un coup, on aura une sorte de fulgurance créatrice.

    De plus, Turing surestime énormément les progrès de l’intelligence artificielle dans le futur, par rapport à son époque, car un de ses réponses est déjà une forme de Schéma de Winograd alors qu’il n’y a jamais pensé.

    Mais c’est la seconde réponse qui est la plus intéressante.

    Dans une addition entre 34 957 et 70 764, la machine donne une réponse de 105 621 alors que la vraie réponse est 105 721. N’oublions pas que Turing qui écrit les questions et les réponses. Et en tant que grand mathématicien, il est impossible qu’il ait fait une erreur aussi grossière. Il n’a jamais non plus parlé de cette erreur dans sa réponse.

    Alan Turing nous laisse un message caché avec cette réponse. Pour qu’une intelligence artificielle puisse être considérée comme un être humain, elle doit pouvoir faire des erreurs. Et quand elle fait des erreurs, alors cela doit être considéré comme une bonne réponse dans un Test de Turing. Intéressant et affolant à plus d’un titre.

    Car d’une part, cela suggère que toutes les bonnes réponses à un Test de Turing par les machines, sont essentiellement trop parfaites. Pour Turing, une vraie intelligence artificielle doit pouvoir se tromper. Mais on n’est pas dans ces débats philosophiques. Turing nous avertit que plus nous allons tenter de créer des IA parfaites et infaillibles et plus, elles seront éloignées de la nature humaine.

    Cela pose un dilemme tout à fait fascinant. Ou nous vivrons dans une sphère technologique qui tend vers la perfection algorithmique, ce qui nous donnera la société la plus machinale et la plus mécanique qui existe.Il est important de faire ce tour complet sur les débuts de l’intelligence artificielle.

    La période entre les années 1950 et 1970 a été cruciale pour l’intelligence artificielle. Toutes les théories que nous voyons aujourd’hui, qui ressortent dans les médias, sont issues de cette période faste et pleine de promesses pour les penseurs de l’époque. Et avec les débuts de machines avec le potentiel de penser par elles-mêmes, on peut maintenant passer au concept de singularité technologique.

    Des extraits du chapitre “Au début fut Turing” de mon livre “Le basilic de Roko”, disponible sur Amazon.

    Houssen Moshinaly

    Rédacteur en chef d'Actualité Houssenia Writing. Rédacteur web depuis 2009.

    Blogueur et essayiste, j'ai écrit 9 livres sur différents sujets comme la corruption en science, les singularités technologiques ou encore des fictions. Je propose aujourd'hui des analyses politiques et géopolitiques sur le nouveau monde qui arrive. J'ai une formation de rédaction web et une longue carrière de prolétaire.

    Pour me contacter personnellement :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *