lundi , 25 septembre 2017

Un algorithme peut-il dire si vous êtes gay à partir d’une photo ?

2 chercheurs proposent un papier plutôt douteux démontrant qu’un algorithme prédictif utilisant l’apprentissage profond (deep learning) peut détecter si une personne est gay ou non à partir d’une photo. Les données utilisées sont foireuses, mais surtout cela revient à légitimer des pseudosciences comme la phrénologie au rang de science en les passant au filtre de “l’intelligence artificielle”. Ce n’est pas la première fois qu’on voit ce genre de travaux et cela devient inquiétant.


Un algorithme peut-il dire si vous êtes gay à partir d’une photo ?
Crédit : Nathan Huang

Michal Kosinski et Yilun Wang de l’université de Stanford ont publié une recherche dans laquelle ils prétendent démontrer qu’un algorithme prédictif utilisant l’apprentissage profond est capable de dire si une personne est gay ou non à partir d’une simple image.1 Ils ont entraîné l’algorithme en se basant environ sur 35 000 images et ensuite, si on fournit une image d’une personne, alors l’algorithme peut dire si la personne est homosexuelle dans 81 % si c’est un homme et 74 % des cas si c’est une femme. Si on lui fournit 5 images de la même personne, alors la précision passe à 91 % et 83 % respectivement. En comparaison, un humain peut déterminer si une personne est homosexuelle que dans 61 % des cas pour un homme et 54 % des cas pour une femme.

Des corrélations complètement foireuses entre les caractéristiques faciales et l’orientation sexuelle

Selon les auteurs, les personnes homosexuelles ont tendance à avoir une certaine morphologie, par exemple, la forme du nez ou des caractéristiques faciales. Et donc, leur conclusion est qu’ils ont réussi à créer un algorithme qui peut dire si une personne est gay ou non. L’étude est foireuse sur de nombreux points.

On ne connait pas suffisamment les théories biologiques sur l’homosexualité avec les controverses, notamment sur les études épigénétiques, mais ce serait étonnant que des personnes homosexuelles aient des caractéristiques faciales différentes selon des hypothèses biologiques. Même si ça existe, ça doit être une corrélation très légère qui n’a aucune valeur statistique et scientifique. Ensuite, l’échantillon proposé par les chercheurs semble très important avec 35 000 personnes, mais il provient d’un seul site de rencontre gay. Comment déterminer si les personnes sur ces sites sont vraiment gay ? Les sites de rencontre sont remplis de faux profils et on ne voit pas comment les chercheurs auraient pu garantir la fiabilité de ces données. De plus, les traits génétiques ne suffisent pas à expliquer une orientation sexuelle, car on a également des facteurs environnementaux et sociaux. Est-ce que les chercheurs ont inclus ces paramètres ? Bien sûr que non sinon l’étude n’aurait jamais passé l’évaluation.

Vous pouvez acheter un "Gaydar" factice sur Amazon

Vous pouvez acheter un “Gaydar” factice sur Amazon

Étant donné que l’algorithme s’est basé sur les données d’un seul site de rencontre, alors son efficacité dans une situation réelle serait proche de zéro. Si on fournit 10 millions d’images d’adultes provenant de 15 pays à l’algorithme, quel sera son niveau de précision ? La précision sera merdique, car les personnes sur un site de rencontre américain auront une certaine morphologie qu’ils soient gays ou non et ce sera très différent pour les personnes d’un autre pays. C’est une étude qu’on doit directement jeter à la poubelle, mais ce n’est pas la première fois qu’on voit ça. Et l’argument selon lequel l’algorithme est supérieur au jugement humain est tout aussi foireux. Ce jugement humain est connu comme le Gaydar, un terme-valise pour radar et gay qui serait une sorte de 6e sens pour détecter les gays. C’est du Bullshit selon la science. Cette capacité n’existe pas et elle se base uniquement sur les stéréotypes.2 En d’autres termes, cette étude exploite la pseudoscience des caractéristiques faciales associées à une orientation sexuelle et elle la compare à un autre mythe totalement stéréotypé.

Une pseudoscience par un algorithme restera toujours une pseudoscience

En novembre 2016, des chercheurs chinois avaient publié un papier sur arXiv où ils prétendaient démontrer qu’ils pouvaient identifier des criminels en se basant sur des caractéristiques faciales.3 Le papier a été tellement critiqué que les auteurs l’ont modifié pour se plaindre de l’ignorance de la communauté scientifique et que de toute façon, cette dernière ne comprenait pas les motivations des chercheurs. Ce n’est pas que les chercheurs avaient fait n’importe quoi. Mais leur précision de détection de criminels se basait sur un mélange de ce qu’on connait comme la physiognomonie qui prétend qu’on peut deviner la personnalité en observant simplement les traits du visage. Malgré que les auteurs ont tenté de défendre leur papier, ils ne comprennent pas que la physiognomonie et la phrénologie resteront toujours des pseudosciences. La phrénologie permet de devenir la personnalité en étudiant les bosses de votre crâne.

Un dessin physiognomonique de Sénèque. La physiognomonie date de l'Antiquité, mais cela ne signifie pas pour autant qu'elle est vraie - Crédit : Paris, Musée du Louvre, Département des Arts graphiques

Un dessin physiognomonique de Sénèque. La physiognomonie date de l’Antiquité, mais cela ne signifie pas pour autant qu’elle est vraie – Crédit : Paris, Musée du Louvre, Département des Arts graphiques

Dans leur papier, les chercheurs chinois montrent qu’ils n’ont rien compris à la méthode, car la phrase suivante suffit pour infirmer leurs travaux.

These highly consistent results are evidences for the validity of automated face-induced inference on criminality, despite the historical controversy surrounding the topic.

On peut sourire quand on voit la phrase despite the historical controversy surrounding the topic. Ce n’est pas une controverse historique, car il n’y a aucune preuve derrière la physiognomonie ou la phrénologie et elles ont souvent été utilisées pour du racisme pseudoscientifique.4 Quand ça ne marche pas, ça ne marche pas ! Les chercheurs chinois avaient osé écrire le paragraphe suivant dans leur étude :

Contrairement à un juge humain, un algorithme n’a aucun biais subjectif, il n’a pas d’émotions et il n’a pas de biais sur la race, la religion ou la doctrine politique. Il n’a pas de fatigue mentale. Cette reconnaissance automatique supprime la variable de la méta-précision (c’est le nom qu’ils donnent aux jugements humains). En plus de l’avantage de l’objectivité, le machine learning peut détecter des nuances très subtiles dans les caractéristiques faciales.

Décidément, ils ne comprennent pas. Ce n’est pas l’observateur ou le scientifique qui est important, mais la méthodologie. Ces chercheurs tentent de nous faire que si on passe une pseudoscience par le filtre d’une intelligence artificielle, alors elle devient fiable par magie. Qu’une pseudoscience soit effectuée par un humain, par une machine ou par un chimpanzé, cela reste et restera toujours de la merde.

Une machine automatisée de phrénologie

Une machine automatisée de phrénologie

Ce qui est inquiétant est qu’on voit de plus en plus des papiers sur l’apprentissage automatique qui tentent de promouvoir une pseudoscience sous prétexte qu’une machine ne fait jamais d’erreur. Au 19e siècle, quand la science donnait du crédit à la phrénologie, on avait des machines automatisées de phrénologie qui faisaient fureur dans les spectacles. Vous mettiez votre tête sur une sorte de casque et la machine vous sortait votre personnalité. Près d’un siècle plus tard, on se rend compte qu’on a a remplacé le casque par du machine learning pour prouver que c’est moderne.

Et cette étude sur le fait qu’un algorithme peut identifier si une personne est gay ou non à partir d’une simple photo est tout aussi merdique que le papier des chercheurs chinois. À la rigueur, on pourra voir des corrélations avec les utilisateurs du site de rencontre, mais cela ne va pas plus loin et donc, c’est inutile. Aux chercheurs dans le machine learning, cessez de justifier vos délires pseudoscientifiques parce que vous voulez à tout prix prouver la supériorité de vos machines.

Sources

1.
OSF | Deep neural networks are more accurate than humans at detecting sexual orientation from facial images. osf.io. https://osf.io/zn79k/. Accessed September 9, 2017.
2.
Cox W. Debunking the “gaydar” myth. The Conversation. https://theconversation.com/debunking-the-gaydar-myth-73750. Published March 15, 2017. Accessed September 9, 2017.
3.
Responses to Critiques on Machine Learning of Criminality Perceptions (Addendum of arXiv:1611.04135). arxiv.org. https://arxiv.org/abs/1611.04135. Accessed September 9, 2017.
4.
Face to Face: Physiognomy & Phrenology THE SHELF. blogs.harvard.edu. http://blogs.harvard.edu/preserving/2012/09/24/face-to-face-physiognomy-phrenology/. Accessed September 9, 2017.
N'oubliez pas de voter :
1 étoile2 étoiles3 étoiles4 étoiles5 étoiles (No Ratings Yet)
Loading...

Faites un don sur notre page Patreon

Quelle est la fiabilité de cette information ou étude ?

Aucun avis particulier

A propos de Jacqueline Charpentier

mm
Ayant fait une formation en chimie, il est normal que je me sois retrouvée dans une entreprise d'emballage. Désormais, je publie sur des médias, des blogs et des magazines pour vulgariser l'actualité scientifique et celle de la santé.

Répondre

Votre adresse email ne sera pas publiée. Les champs obligatoires sont marqués d'une étoile *

*

Timber by EMSIEN 3 Ltd BG