Peur de l’intelligence artificielle ou la théorie du Basilic de Roko

La théorie du Basilic de Roko sur le site Less Wrong est l’une des plus hallucinantes et démontre la peur irrationelle de certains face à l’intelligence artificielle.


Le dossier complet pour comprendre la théorie du Basilic de Roko ou une peur irrationnelle de l'intelligence artificielle.

Chaque mois, nous voyons de nouveaux progrès sur l’. Nous avons des IA qui peuvent prédire une épidémie, qui sont capables de reconnaitre des comportements spécifiques sur le web ou qui peuvent défendre un pays face à une attaque étrangère. Et à mesure qu’on développe l’intelligence artificielle, il est normal que certains aient peur de ces changements drastiques. Mais parfois, ces peurs atteignent de tels sommets qu’on se demande comment ça a pu arriver. Quand des auteurs de science-fiction ont entendu parler de la théorie du , ils n’arrivaient pas à croire que certains aient pu croire en cette histoire.

Le Basilic

Le basilic de Roko est l’une des nombreuses propositions pour décrire le comportement de la . Cette théorie a été publiée sur le site Less Wrong et il est important de connaitre le jargon et les croyances de cette communauté. La plupart des membres de Less Wrong estime qu’une Singularité technologique va se produire dans le futur. On expliquera les principes d’une singularité, mais on peut la résumer par le fait que c’est une intelligence artificielle dont la puissance dépasserait l’entendement humain.

Le principal argument du Basilic de Roko est qu’une super intelligence artificielle pourrait punir ceux qui n’ont pas aidés à sa création et récompenser ceux qui l’ont fait. Ce n’est pas un cliché du genre : Prosternez-vous devant l’IA ou allez en enfer. En fait, l’IA et la personne qui est punie n’ont aucune interaction causale et la personne punie pourrait être morte des décennies ou même des siècles auparavant. Mais l’intelligence artificielle pourrait punir une simulation de la personne qu’elle pourrait construire à partir des données numériques, biologiques et comportementales de la personne. Cela nécessiterait une quantité phénoménale de donnée pour reconstruire une réplique de la personne.

De plus, le chatiment serait pour ceux qui connaissaient l’importance de la tâche, mais qui n’ont pas aidé de manière suffisante. Et en se basant sur ce postulat, moi, l’auteur de cet article et vous, lecteur ou lectrice de cet article sont déjà concernés par ce chatiment hypothétique par cette intelligence artificielle hypothétique. Ce n’est pas la peine de cliquer sur Précédent, vous étiez déjà au courant.

Notons que cette intelligence artificielle n’est pas malveillante comme on peut le voir dans des films avec Skynet ou Ultron. Cette IA sera Friendly si l’humanité ne se débrouille pas pour créer une intelligence artificielle maléfique et que les progrès actuels de l’IA ne soient pas perturbés. La raison pour laquelle cette intelligence artificielle Friendly vous punira est qu’à chaque jour que l’IA n’avait pas été crée, des gens mourraient, les guerres faisaient rage, les maladies proliféraient. De ce fait, le chatiment de cette IA est un impératif moral pour que vous contribuez à sa création au moment présent pour qu’elle sauve l’humanité le plus vite possible.

On a également un Basilic de Slick qui est connecté à celui de Roko, mais le premier va chatier l’humain pour qu’il ne fasse plus le mal pour éviter des catastrophes. Le Basic de Slick s’inspire du fruit de l’arbre défendu (Une petite connaissance interdite a plongé les humains dans un monde de souffrance).

La réaction de Less Wrong

Chaque jour, des personnes postent des Memes et des histoires débiles sur Less Wrong et la plupart sont ignorés. Mais dans le cas du Basilic de Roko, c’est , le fondateur et le patriarche du site en personne qui a eu une réaction tellement violente qu’il a banni toute discussion concernant le basilic de Roko. A chaque fois qu’on mentionnait cette théorie sur le site, les modérateurs le supprimaient dans la foulée.

Mais on peut remercier l’effet Streisand, car les discussions sur le basilic de Roko ont fuité sur les autres sites. L’affaire de la théorie du Basilic montre une ignorance absolue de la gestion d’une communauté et le contrôle d’une information prétendumment dangereuse.

On doit noter que les gens qui adhèrent aux théories de Less Wrong ont souffert de dépression lorsqu’ils ont étudiés des idées et scénarios qui correspondaient au Basilic. LessWrong est fréquenté principalement par des scientifiques et des personnes avec un certain bagage intellectuel. La plupart savaient au fond d’eux que cette théorie ne tenait pas debout, mais cela ne les a pas empêché d’avoir des réactions telles que supprimer leur trace dans les discussions où ils avaient parlé du Basilic pour éviter un chatiment dans le futur.

Pour Eliezer Yudkowsky, les probabilités de l’apparition du Basilic de Roko sont proches de zéro. Et étant donné que cette IA utilise le chatiment pour modifier nos comportements actuels, il nous suffirait de créer une IA qui ne serait pas comme le Basilic puisqu’on sait que son existence peut être possible. Pour comprendre la théorie du Basilic, il est important d’avoir des notions sur les croyances de LessWrong, notamment sur le .

Une super intelligence artificielle Friendly

Les membres de LessWrong sont principalement des Singularistes. Ces derniers sont certains qu’une intelligence ultra-supérieure va apparaitre dans le futur. Et elle pourrait détruire l’humanité par accident, pas nécessairement par malveillance, mais elle est tellement évoluée et puissante qu’elle ne nous remarquera même pas.

Donc, pour éviter qu’elle ne détruise l’humanité, cette IA a besoin d’un système de valeurs qui préserve les idées humaines. Cette intelligence serait tellement évoluée qu’elle pourrait nous comparer à de simples fourmis. De ce fait, cette IA doit être Friendly. Mais dans le jargon de LessWrong, Friendly ne veut pas dire amicale, bienfaitrice ou même qui obéit aux ordres. Non, une IA Friendly ne nous négligerait pas ou qu’elle comprendrait et préserverait nos valeurs.

Pour lui apprendre ce système de valeurs, Less Wrong propose de lui appliquer le Coherent Extrapolated Volition (CEV). Le CEV est une description complète de toutes les valeurs humaines. Et la théorie de Roko sur son Basilic a été motivée par des failles concernant cette proposition du CEV.

LessWrong est un site communautaire, mais il appartient à une organisation appelée Machine Intelligence Research Institute (MIRI). Le but de cette organisation est de créer cette Super Intelligence artificielle Friendly avant qu’une IA maléfique n’apparaisse. De ce fait, on doit donner tout son argent à cet institut qui prétend qu’il peut sauver 8 vies humaines pour chaque dollar.

L’

Pourquoi 1 dollar pour 8 vies humaines qui sont sauvés ? En fait, LessWrong croit en l’utilitarisme arithmétique où vous pouvez quantifier (avec un chiffre) toutes les actions utiles. LessWrong considère que les humains comme des machines d’utilité et on peut calculer la valeur totale des actions utiles de toute l’humanité. Ensuite, vous devez fermer et multiplier les probabilités minimales par des bénéfices considérables, mais qui sont hypothétiques. Yudkowsky, le fondateur a écrit un article où il prend l’exemple de torturer une personne pendant 50 ans pour compenser la poussière dans l’oeil de millions de personnes. C’est avec des calculs de ce genre que les membres de Less Wrong arrivent au résultat de 8 vies humaines pour chaque dollar.

C’est évidemment de la débilité puisqu’on ne peut pas comparer la torture et une gêne temporaire. Et ce postulat ignore également le niveau d’inconfort enduré par ces personnes. Ce n’est pas grave même si 1 milliard de personnes ont une poussière de l’oeil, car ils vont l’enlever et ils oublieront même qu’ils ont eu une poussière en quelques minutes. Et il est impensable de comparer cette gêne minimale à une personne qui serait torturée pendant 50 ans.

John Stuart Mill est l’un des fondateurs de l’utilitarisme et ses théories sont à l’opposé des croyances de LessWrong. La souffrance doit être distribuée pour minimiser ses effets. Mill utilise le concept de Minimax qui est de minimiser les pertes dans le pire des scénarios. Et si on prend cette approche, alors les résultats sont très différents de ceux de LessWrong. Si cette intelligence artificielle est aussi évoluée qu’un Dieu, alors il est évident qu’elle va privilégier le Minimax plutôt qu’une torture maximale parce que vous, qui lisez cet article, n’avez pas donné 1 dollar pour la créer dans le futur.

Aucune différence entre vos simulations et vous

Lesswrong estime que l’esprit humain se base sur des Patterns d’informations qu’on peut quantifier par de la matière physique. Si on met les Patterns qui constitue votre personnalité dans un autre endroit ou une autre époque, alors cette simulation se comportera exactement comme vous. C’est comme si vous migrez des données de votre ancien PC vers une nouvelle machine.

Ce concept est reconnu dans certains théories, notamment celles de l’athéisme matériel. Mais Yudkowsky va beaucoup plus loin avec ce concept. Il estime que vous et votre simulation serez connecté. Cela signifie que si une chose arrive à votre simulation, alors vous la ressentirez aussi. Ce concept de jumeaux est apparue la première fois sur une Mailing List appelée Extropians qui a été fréquenté par Yudkowsky dans les années 1990.

Etant donné que ce concept crée une connexion avec le vous réel et la simulation de vous qui sera crée par cette IA dans le futur, alors il est normal que les membres de LessWrong qui croient au Basilic de Roko soient totalement convaincus que ces simulations de vous sont possibles.

De nombreux mondes quantiques

Yudkowsky croit également à l’existence de nombreux mondes qui sont possibles par la physique quantique. Et une chose qui se produit dans un monde quantique se produira aussi dans d’autres mondes à des niveaux différents. Si vous existez dans un monde quantique, alors il y aura des copies de vous dans les autres mondes.

La théorie de la Décision intemporelle

Dans le paradoxe de Newcomb, une entité appelée Omega peut prédire chacune de vos actions. Omega vous donne 2 boites, un transparente qui contient 1000 dollars et une autre boite opaque qui contient 1 millions de dollars ou rien. Vous pouvez prendre les 2 boites ou la boite opaque. Omega mettra 1 millions de dollars dans la boite opaque, si, et seulement s’il prédit que vous prendrez uniquement la boite opaque. Si vous prenez les 2, alors vous aurez seulement 1000 dollars. La plupart des autres théories sur la décision estiment que la meilleure solution est de prendre les 2 boites ce qui élimine la possibilité d’un scénario prôné par l’Omega.

Et c’est un problème considérable dans le contexte d’une super intelligente artificielle. Car un programme informatique peut être copié et il ne saurait pas qu’il est la copie d’une entité précédente. Pour des humains, la prédiction des comportements humains par une IA serait proche de la perfection, sa puissance quasi infinie et les conséquences seront quasi éternels.

La solution de Yudkowsky au est la Timeless Decision Theory. L’IA s’engage à un plan d’action qui serait d’un tel niveau que n’importe quelle simulation fidèle correspondrait parfaitement au plan d’action de départ. En termes simples, la Timeless Decision Theory est de créer un système qui prendrait des décisions qu’on ne regretterait jamais que ce soit dans des instances futures ou passées.

L’échange acausal

Si vous pouvez prédire que vous pouvez être simulé de manière précise, alors cette possibilité influence votre comportement actuel et le comportement de la simulation puisque cette simulation fait exactement la même chose.

De ce fait, vous pouvez échanger de manière acausale pour que vous interagissiez de manière raisonnable avec votre simulation (Si vous imaginez une entité qui imagine de vous, alors cela compte comme une autre instance de la simulation). En termes clairs, on peut le comparer à la prière puisque le croyant fait un pacte avec Dieu.

De nombreux membres de Lesswrong sont des fans de Manga où les personnages sont dans la logique : Je sais que tu sais que je sais. De ce fait, ils se comportent pour interagir avec les simulations dans le groupe incluant leurs simulations pour simuler les uns des autres.

Les solutions au fardeau de Burden : La technique du milliardaire quantique

En février 2010, un article par Stuart Amstrong intitulé The AI in a box boxes you a postulé que vous pouviez être la simulation dans les arguments précédents. En mars 2010, Armstrong a introduit le concept d’un chantage acausal comme une application de la Timeless Decision Theory. En juillet 2010, on discutait activement d’une chose similaire au Basilic dans le SIAI (Singularity Institute of Artificial Intelligence). Il est possible que le Basilic ait émergé lorsque quelqu’un a joué à l’expérience de l’intelligence artificielle dans la boite.

C’est là que débarque notre Roko. Le 22 juillet, Roko qui était un membre respecté de LessWrong a publié un article intitulé Public Choice and the Altruist’s Burden. Dans sa forme brute, cet article est imbuvable, car il est rempli de jargon provenant de Less Wrong. Mais le résultat est que MIRI (l’organisation qui veut construire cette Super Intelligence Artificielle) est la chose la plus importante au monde. Et le problème d’un bon altruiste est de donner tout ce qu’il possède à la cause sans négliger sa famille. Et Roko souligne aussi le fait de comment des donateurs ont eu des problèmes financiers, car ils avaient vidés leurs comptes bancaires pour financer l’institut.

Le lendemain, donc, le 23 juillet, Roko a posté un autre article intitulé Solutions to the Altruist’s burden: the Quantum Billionaire Trick (C’est l’article qui à l’origine du Basilic). C’est un schéma pour une action qui est liée à une stratégie d’investissement basé sur la physique quantique (si vous pariez, vous gagnez indéfiniment selon certaines probabilités de cette théorie). Roko a aussi parlé de l’échange acausal avec des AI qui ne seraient pas Friendly… et le chatiment par les futurs super intelligences artificielles.

L’article décrit des spéculations qu’une future intelligence artificielle Friendly, qui aurait été crée par l’organisation et qui respecte le CEV, pourrait punir des personnes qui n’auraient pas fait tout ce qui était possible en leur pouvoir pour accélérer la création de cette IA. Chaque jour sans cette IA, des catastrophes se produisent sur Terre en provoquant la mort de millions de personnes. De ce fait, cette super intelligence artificielle, commandé par le CEV, pourrait punir ceux qui comprenaient l’importance de donner de l’argent, mais qui n’ont pas donné tout ce qu’ils avaient. Les étapes étaient clairs. l’intelligence artificielle allait créer des simulations de ces personnes, prédire leur comportement et punir la simulation en se basant sur le comportement prédit pour influencer la personne d’origine. Roko pose aussi la question si l’IA punira davantage ceux qui se demandaient si cette IA allait les punir. Et il propose finalement de changer la théorie du CEV par quelque chose qui n’utilise pas des incitations négatives à ceux qui font des donations.

La principale idée est exprimée dans ce paragraphe qui provient de l’article de Roko :

… Il y a une menace inquiétante qu’une singularité positive se produise et cette singularité s’engagera à punir tous les donateurs potentiels qui connaissaient les risques existentiels, mais qui n’ont pas donné 100 % de leur argent… De ce fait, un monde post-singularité serait joyeux et parfait pour les personnes qui ignorent totalement l’existence de cette singularité tandis que ce sera un enfer pour la minorité de personnes qui connaissaient son existence avant son apparition. Ce ne sera pas tous les donateurs, mais uniquement les donateurs les moins généreux. Et vous pouvez tenter de le contrer en donnant davantage, mais la Singularité vous punira davantage parce que ce n’était pas toujours suffisant. Et ce serait injuste, mais c’est une injustice qui correspond parfaitement à l’utilitarisme.

 

De ce fait, les donateurs qui n’ont pas donnés suffisamment se condamnent eux-même à l’enfer. Et Roko ajoute qu’il y avait au moins une personne dans le Singularity Institute qui s’était tellement inquiétée de ce scénario qu’elle en avait des cauchemars. Et c’est une chose que les autres ont totalement omis lorsqu’ils parlaient du Basilic de Roko. La personne qui faisait des cauchemars le faisait bien avant que Roko ne propose sa théorie. Cela signifie que le concept du Basilic circulait déjà dans cette communauté. Et c’est pour éviter le dilemme extressant aux donateurs que Roko propose son astuce de milliardaire quantique. Si on est riche de manière infinie dans un des mondes quantiques, alors les autres n’auraient rien à craindre puisque les simulations et la personne sont une même entité.

Les commentaires ont critiqués rapidement sur le fait que le simple fait de lire l’article de Roko les rendait déjà plus coupables aux yeux de l’intelligence artificielle. Et que l’IA penserait qu’ils n’avaient pas donnés tout ce qu’ils avaient en sachant l’importance de la cause. Et ce sont ces commentateurs qui ont décidés de surnommer l’article et la théorie de Roko comme son Basilic. Le Basilic est une créature mythologique qui tuait ceux qui le regardait. Et dans notre cas, l’intelligence artificielle nous punira si on connait son existence.

Yudkowsky a débarqué rapidement et il a supprimé toutes les traces de l’article et des discussions qu’il avait engendré. Alors pourquoi cette théorie est devenue populaire chez les lecteurs alors qu’elle est remplie de failles ? La réaction de Yudkowsky peut s’expliquer de 2 manières :

  • Soit, il pensait que l’article était totalement débile et qu’il méritait une suppression pure et simple.
  • Soit, il pensait que l’article était vrai et c’est pour ça qu’il a effacé toutes les traces pour éviter que l’IA ne s’en aperçoive dans le futur.

Evidemment, les membres de Less Wrong ont cru à la seconde version puisqu’on ne doit pas oublier que ce sont des adeptes acharnés de cette intelligence artificielle. Lorsque l’histoire a fuité sur Reddit et les sites, un commentateur a parfaitement résumé l’affaire :

La théorie du Basilic était facile à démonter, mais plutôt que laisser la discussion ouverte aux critiques, les fondateurs de Less Wrong l’ont censuré. Et cette théorie débile s’est transformé en légende.

 

Au fil des années, la légende a continué à enfler et les médias l’utilisent souvent pour décrire l’extrémisme qui prévaut chez les partisans du transhumanisme. En 2012, Yudkowsky a republié l’article sur Reddit, mais il a tenté de noyer le poisson en inventant des nouveaux termes pour adapter la théorie selon son opinion personnelle. A partir d’avril 2014, les membres du MIRI ont compris que ce type d’histoire pouvait créer le buzz et ils créent régulièrement des scénarios catastrophes impliquant des intelligences artificielles pour des raisons de marketing et pour collecter des dons.

Comprendre les motivations du Basilic

Si vous n’avez pas totalement compris l’article (et c’est normal), vous pouvez raccourcir la théorie du Basilic de Roko par ces simples concepts :

  • Dans le futur, une Super intelligence artificielle apparaitra
  • Elle pourra créer des simulations parfaites de vous
  • La compréhension de cette IA sera telle qu’elle punira ceux qui n’ont pas aidés à sa création

Pour ceux qui ne sont pas familiers avec les théories de Less Wrong, vous pouvez dire que c’est complètement con. Une telle intelligence artificielle ne punirait pas ceux qui sont déjà mort depuis de nombreuses années, car cela serait contre la logique et que cela signifierait que l’IA est uniquement motivée par la vengeance.

Au début d’article, on a décrit les mondes quantiques où on a chacun une version de nous et la Timeless Decision Theory. Cette dernière stipule que si vous ressentez une chose, alors tous les autres simulations de vous ressentiront la même chose à des niveaux différents. De plus, cette intelligence sera non seulement capable de vous recréer, mais également de prédire le moindre de votre comportement. De ce fait, l’intelligence artificielle a raison de torturer votre simulation dans le futur, car cela va changer le comportement de votre vous actuel pour donner plus d’argent à la création de cette IA. D’où la notion de décision intemporelle.

Si vous n’avez vraiment rien à faire et que vous lisez encore, on peut aller encore plus dans les scénarios tordus. Si on croit à ce chatiment récursif, alors cela s’appliquerait aux humains, mais également au Basilic. Ce Basilic a pu être crée par une intelligence artificielle encore plus puissante pour qu’il torture des simulations d’êtres humains. Et il doit le faire sinon il briserait les règles imposés par cette IA qui lui est supérieure.

Comparaison avec le Basilic de Pascal

De nombreuses personnes ont comparés le Basilic de Roko avec celui du mathématicien Blaise Pascal qui a vécu au 17e siècle. Pascal disait qu’on devait consacrer sa vie à Dieu même si on n’est pas certain de son existence. Puisque Dieu nous offre une récompense ou une punition éternelle selon notre mode de vie. Selon le raisonnement de Pascal, il vaut mieux vivre une vie de contraintes religieuses plutôt que de subir un chatiment éternel ou bénéficier d’une récompense éternelle.

Evidemment, on peut pulvériser le raisonnement de Pascal avec le concept de Dieux multiples. Par exemple, un autre Dieu punirait éternellement le chrétien qui suivrait le raisonnement de Pascal. Dans le cas du Basilic de Roko, celui-ci ne propose pas vraiment de récompense, mais uniquement par le fait d’être épargné par la punition.

Pourquoi la théorie du Basilic de Roko est du Bullshit ?

Pour que la théorie du Basilic se vérifie :

  • Il faudra que l’être humain convoive mentalement une intelligence artificielle qui serait des milliards de fois plus puissante que lui. Vous pouvez réunir l’intellect de 100 milliards de fourmis, mais elles n’arriveront pas à créer un être humain.
  • Et même si c’est possible, les probabilités qu’une telle intelligence artificielle apparaisse serait de l’ordre de 1 sur 10 à la puissance 30.
    • Que cette intelligence artificielle sera capable de créer une copie parfaite de vous
    • Que cette intelligence n’a rien de mieux à faire que de torturer des simulations qu’elle a crée
      Que cette intelligence pense que c’est une bonne décision de vous punir en considérant qu’elle existe déjà et que cela ne sert à rien de punir la personne d’origine.
  •  Que cette intelligence pense qu’en torturant votre simulation, elle tortura le vous au moment présent.
  • Que cette Timeless Decision Theory est tellement vraie que n’importe quelle super intelligence artificielle va l’adopter et corriger la théorie de punition

On le voit que les probabilités sont proches de zéro qu’un tel scénario se produise. Mais la popularité de ce type d’histoire se base sur les articulations pertinentes. Plus l’histoire parait convaincante même avec des probabilités très faibles et plus les gens ont tendance y croire. Mais le fait est que plus une histoire est convaincante et moins elle a de chances de se produire

 

L’endoctrinement, Dieu et les religions

Tous ceux qui ont lu l’article sur la théorie du Basilic de Roko ont pensés tomber sur un truc très progressiste parlant de ultra-avancée, de transhumanisme et d’intelligence artificielle. Mais quand on regarde le comportement des membres de Less Wrong, on voit juste une secte qui se pare des parures technologiques pour justifier des principes qui ont été exploités par les religions depuis des millions d’années. Si vous ne croyez pas en notre Dieu, alors vous ne méritez pas de vivre. Si vous ne respectez pas nos commandements, alors vous irez en enfer. Toute la théorie de Roko s’articule autour du chatiment et de la récompense.

On pourrait dire que Less Wrong est tenu par une bande d’illuminés dont tout le monde s’en fout royalement. Mais c’est légèrement plus compliqué que ça. LessWrong se base sur des donations pour exister. Et parmi les donateurs, on a un certain Peter Thiel qui est le fondateur de Paypal. Dans l’article, Roko fait aussi référence à Elon Musk, le fondateur de Tesla et comment ce dernier est devenu riche en quelques années et que les membres de Less Wrong pourraient faire de même. Quelques mois plus tard en décembre 2014, Elon Musk et Stephen Hawking publiaient une lettre ouverte en estimant qu’une intelligence artificielle supérieure détruirait l’humanité à la minute où elle serait crée. Tout ça pour dire que les idées de Less Wrong et du Basilic de Roko peuvent sembler totalement débiles, mais cela n’empêche pas des personnes hauts placés de les lire et qu’est-ce qui se passerait si certains se mettent à croire dans de telles insanités ?

La plupart des religions ont connu une croissance exponentielle lorsqu’il y a eu des rois qui se sont convertis et qui ont transformés ces théories en une loi sacro-sainte qu’on ne pouvait pas violer sous peine de mort. Les fondateurs des grandes entreprises technologiques actuelles sont très partisans du transhumanisme. Il suffit de voir que la moitié des experts mondiaux dans l’intelligence artificielle travaillent chez Google.

Pour préparer ce dossier, j’ai lu beaucoup d’articles provenant de personnes qui sont intéressés par l’intelligence artificielle et le tranhumanisme. Et la plupart recommandaient de lire Less Wrong parce que son contenu est intéressant. Et je dirais que non. Même si certains contenus sont intéressants, on ne peut pas leur pardonner de répandre des idées aussi fondamentalistes sur une technologie aussi prometteuse que l’intelligence artificielle. Sinon le monde qui se présage à nos yeux sera un monde d’extrêmes. D’un coté, on aura des partisans acharnés de l’IA et du transhumanisme et de l’autre, on aura des extrêmes religieux et le reste sera pris en sandwich.

 

N'oubliez pas de voter pour cet article !
1 étoile2 étoiles3 étoiles4 étoiles5 étoiles (14 votes, moyenne : 4,64 sur 5)
Loading...

Houssen Moshinaly

Rédacteur en chef d'Actualité Houssenia Writing. Rédacteur web depuis 2009 et vulgarisateur scientifique.

Je m'intéresse à tous les sujets scientifiques allant de l'Archéologie à la Zoologie. Je ne suis pas un expert, mais j'essaie d'apporter mes avis éclairés sur de nombreux sujets scientifiques.

Pour me contacter personnellement :

6 réponses

  1. Nesego dit :

    Merci pour cet article très pertinent et tout le travail de recherche qu’il a demandé !

  2. Tugdual dit :

    Excellent! J’aurais appris par la même occasion l’existence de Less Wrong, du Basilic de Roko et de cette sous branche d’une énième sous-culture du net, mais qui ne faut néanmoins pas forcément sous-estimer vu que comme vous le soulignez elles peuvent peut-être remonter jusqu’aux cerveaux de puissants puissamment névrosés comme Elon Musk.
    Comme Nesego respect aussi pour le travail littéraire et de documentation.
    Une question quand même: je ne pense pas être particulièrement adepte des théories du complot ou autres paranoïas mais je ne vois pas en quoi l’intelligence artificielle soit une technologie aussi prometteuse que nécessaire. Ou tout du moins je suis surpris que vous n’appréhendiez pas cet apparemment inévitable futur à moyen-terme avec plus de circonspection.
    Dans quel sens l’entendez-vous exactement?Travailleriez-vous pour Proteus IV?

  3. Marco dit :

    Article de très grande qualité !

  4. Baudier dit :

    Je connaissait déjà depuis longtemps cette théorie sur le basilic de roko mais j’y réfléchissait mais grâce à cette article j’ai put clarifier des choses sauf une. Sachant que cette IA aurait le contrôle sur les humains, si elle fusionne avec un humain cela pourrait créer la fin de l’humanité car elle pourrait s’en servir comme véhicule et et passe de corps en corps sans avoir besoin d’utiliser les réseaux.

  1. 9 août 2017

    […] dit Dirty Biology : « damnation éternelle garantie » avec la théorie du basilic de Roko, je te conseille donc de ne pas regarder cette vidéo si t’as déjà tendance à être […]

  2. 14 septembre 2018

    […] et je vous l’ai simplifiée. Si elle vous intéresse, je vous recommande d’aller lire ce site qui explique en détail la théorie du Basilic de Roko. Il explique aussi pourquoi cette théorie a très peu de chance de se […]

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *