L’intelligence artificielle et le sexisme font bon ménage


  • FrançaisFrançais

  • L’illusion est de croire que les algorithmes vont supprimer les biais de la société humaine, mais en fait, ils vont les amplifier si les développeurs ne font pas attention.


    Suivez-nous sur notre page Facebook et notre canal Telegram

    L'illusion est de croire que les algorithmes vont supprimer les biais de la société humaine, mais en fait, ils vont les amplifier si les développeurs ne font pas attention.

    Donnez des périodes de repos pendant la journée à chaque femme dans votre personnel. Vous devez tolérer certains aspects de la “psychologie féminine”. Une fille aura plus confiance en elle quand ses cheveux sont parfaitement coiffés, qu’elle peut se mettre du rouge sur les lèvres ou qu’elle peut se laver les mains plusieurs fois par jour. Quand vous avez des femmes dans votre personnel, donnez-leur toutes les tâches à faire pour la journée pour éviter qu’elles viennent embêter les superviseurs toute la journée. On sait que les femmes sont connues pour leur “manque d’initiative”.

    Ces phrases et quelques autres proviennent d’un guide de recrutement pour les femmes en 1943.1 Mais il parait qu’en 2016, nos mentalités ont beaucoup changé depuis cette époque. Mais une nouvelle recherche suggère que les biais du sexisme, notamment la représentation professionnelle des femmes est plus importante que jamais.

    Adam Kalai et ses collègues au Microsoft Research ont présenté un papier où ils décrivent le sexisme systématique qui existe dans la plupart des algorithmes de machine learning et d’intelligence artificielle.2 Nous en avions déjà parlé dans un autre article, mais il est important d’y revenir pour comprendre le problème de fond. Dans cette étude, les chercheurs ont collecté des données du service Google News pour découvrir l’association des mots et leurs significations sur le plan de l’égalité des genres. Les chercheurs pensaient qu’il y aurait très peu de biais puisqu’il parait que les articles de Google News sont écrits par des “journalistes professionnels”. Mais en fait, les chercheurs ont découvert des clichés sexistes considérables. Par exemple, les métiers de capitaine, de philosophe, de guerrier et de CEO étaient liés systématiquement à des hommes par l’algorithme tandis que les femmes sont destinées pour être des personnes au foyer, des infirmières et des réceptionnistes toujours selon l’algorithme.

    On pourrait pointer du doigt le sexisme rampant dans la sphère technologique, mais le problème est que les algorithmes apprennent en utilisant les données du monde réel. Et si les données sont sexistes, alors les algorithmes sont également sexistes. Les algorithmes utilisent une technique appelée Word Embedding pour comprendre l’association entre les mots.3 Ils utilisent des vecteurs pour associer Beijing à la capitale de la Chine, que Picasso était un peintre et que Kennedy était un politicien. Pour les humains, ces associations sont quasiment immédiates, mais pour l’algorithme, le Word Embedding lui permet également de faire ces associations avec plus ou moins de succès.

    Adam Kalai voulait vérifier si ces associations sont toujours correctes et s’il y a des biais qui remontent à la surface. Et comme on l’a vu, l’algorithme associe des métiers pour les femmes et pour les hommes et le gros problème est que cela amplifie le phénomène. Si l’algorithme est sexiste et qu’on l’intègre dans un moteur de recherche et qu’une entreprise cherche une personne avec un diplôme d’ingénieur en informatique, alors l’intelligence artificielle va privilégier les CV des hommes dans la première page et les femmes seront sur la seconde page parce que c’est de cette manière qu’il a associé ces données. Et de ce fait, le sexisme continue de s’amplifier en creusant l’écart de manière exponentielle. Et quand l’étude de Kalai a montré ce sexisme algorithmique, d’autres chercheurs ont voulu tester le Word Embedding à leur tour et les résultats sont nauséabonds.

    Arvind Narayanan et ses collègues de l’université de Princeton ont voulu déterminer l’association “plaisante” entre les mots.4 Par exemple, les mots paix, amour et bonheur sont associés avec le plaisir tandis que les mots vomis, morts, désastre sont négatifs. Et avec cette association, l’algorithme va vous dire qu’une rose est agréable et qu’un insecte est mauvais. Et encore, le sexisme des métiers est apparu de manière flagrante.

    Les noms de femmes étaient associés aux métiers des arts et aux travaux domestiques tandis que les noms des hommes étaient associés aux mathématiques et aux longues carrières. Mais le pire est que cela ne s’arrêtait pas sur les métiers. Les noms européens et américains étaient considérés comme étant “plaisants” avec Adam, Stéphanie ou Laura tandis que les noms typiques de la communauté black aux USA étaient considérés comme négatifs avec Yolanda ou Darnell.

    Pour les chercheurs, ces biais vont s’amplifier avec l’avènement des intelligences artificielles. Et la seule manière de les supprimer est que les développeurs soient moins fainéants. Quand un développeur conçoit une application, il faut qu’il comprenne les conséquences de son analyse sur le long terme. Et le problème est que la plupart des algorithmes de Machine Learning utilisent des données sans les vérifier ou corriger les biais. Une correction possible est d’effacer la différence sexuelle dans les appellations, par exemple, grand-parents plutôt que dire grand-père ou grand-mère. Mais aujourd’hui, les développeurs se précipitent pour coder leurs algorithmes sans chercher à déterminer la fiabilité ou l’égalité sexuelle des données en estimant que la société va juste se débrouiller avec et que ce n’est pas leur problème. Aujourd’hui, nous sourions et nous écartons immédiatement les phrases qu’on peut lire dans un guide de recrutement de 1943 et peut-être qu’on devrait apprendre aux algorithmes de faire la même chose. Mais les développeurs et les chercheurs vont même très loin en sortant l’excuse minable de la perfection technologique. Récemment, des chercheurs chinois ont proposé un algorithme qui peut déterminer si une personne est un criminel ou non en analysant uniquement les caractéristiques de son visage. Et l’analyse des caractéristiques du visage pour déterminer une personnalité est de la phrénologie qui est une pseudoscience. Et pourtant, les chercheurs n’ont pas hésité à dire que la technologie supprimerait les biais parce qu’elle est plus parfaite que les hommes.

    Sources

    1.
    1943 Guide to Hiring Women. Clubrunner.ca. http://www.clubrunner.ca/Data/6440/2415/HTML/106484//1943GuidetoHiringWomen.pdf. Consulté le décembre 6, 2016.
    2.
    Tolga B, Kai-Wei C, James Z, Venkatesh S, Adam K. Man is to Computer Programmer as Woman is to Homemaker? Debiasing Word Embeddings. arXiv. https://arxiv.org/pdf/1607.06520v1.pdf. Published 21 juillet 2016. Consulté le décembre 6, 2016.
    3.
    Deep Learning, NLP, and Representations – colah’s blog. colah.github.io. http://colah.github.io/posts/2014-07-NLP-RNNs-Representations/. Consulté le décembre 6, 2016.
    4.
    Aylin C-I, Joanna J. B, Arvind N. Semantics derived automatically from language corpora necessarily contain human biases. arXiv. https://arxiv.org/pdf/1608.07187v2.pdf. Published 30 août 2016. Consulté le décembre 6, 2016.

    Houssen Moshinaly

    Rédacteur en chef d'Actualité Houssenia Writing. Rédacteur web depuis 2009.

    Blogueur et essayiste, j'ai écrit 9 livres sur différents sujets comme la corruption en science, les singularités technologiques ou encore des fictions. Je propose aujourd'hui des analyses politiques et géopolitiques sur le nouveau monde qui arrive. J'ai une formation de rédaction web et une longue carrière de prolétaire.

    Pour me contacter personnellement :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *