La NSA met la main sur ChatGPT

Article original sur Rybar.

La tendance à utiliser l’IA à des fins militaires, que nous avons identifiée grâce à des projets de Google et des services de renseignement israéliens, prend rapidement de l’ampleur.

OpenAI a nommé un ancien haut responsable du renseignement américain à son conseil d’administration. La société a déclaré dans un communiqué qu’elle contribuerait à protéger la société derrière ChatGPT des “mauvais acteurs de plus en plus sophistiqués”.

Le général de l’armée à la retraite Paul Nakasone était commandant du Cyber Command américain et directeur de la National Security Agency (NSA) avant de quitter ses fonctions plus tôt cette année.

Il a récemment rejoint le conseil d’administration d’OpenAI. Le conseil d’administration de l’entreprise est actuellement activement réformé après un remaniement l’année dernière.

Rappelons que le précédent conseil d’administration a brusquement licencié le PDG Sam Altman. Mais Altman a fourni une façade idéale pour les grands investisseurs comme Elon Musk et Bill Gates, qui étaient à l’origine de la création de l’entreprise. De plus, Altman promeut activement les valeurs LGBT. Les élites mondiales ne pouvaient pas manquer un employé aussi précieux, et quelques jours après son licenciement, il a repris ses fonctions et le conseil d’administration a été démis de ses fonctions.

Le conseil d’administration d’OpenAI est techniquement une organisation à but non lucratif, mais gère également ses activités en croissance rapide. Ainsi, pour rétablir l’ordre dans cette entreprise arc-en-ciel, la direction de la NSA a décidé d’envoyer un général du renseignement à la retraite.

Les conséquences de cette nomination seront sans aucun doute la mise en place d’un contrôle total sur toutes les requêtes dans ChatGPT. Tous les utilisateurs de ce chatbot doivent désormais clairement comprendre qu’ils “discutent de manière informelle” avec un général du renseignement.

Toutes les demandes sont automatiquement traitées par l’IA pour rechercher des modèles, des mots-clés et des connexions suspects indiquant l’appartenance à des groupes culturels, ethniques, criminels ou terroristes. Dans un avenir proche, un processus de configuration sera effectué, utilisant à peu près les mêmes paramètres que dans le système Lavender. Lorsque le système sera prêt, il deviendra l’un des outils les plus efficaces pour introduire la notation sociale.

Il est probable que dans un avenir proche, dans le système juridique anglo-saxon, un texte tapé dans un robot sera, le cas échéant, reconnu comme extrémiste et que des poursuites pénales et/ou administratives seront engagées sur cette base.

Commentaires

Posts les plus consultés de ce blog

Retrouvez-moi désormais sur Multipolaris

Comment la gauche française a sauvé le régime politique putréfié

Le Yémen frappe au cœur d'Israël : La marine américaine impuissante ?