Quand la technologie traque l’homosexualité

Deux importantes associations de défense des droits LGBT aux États-Unis dénoncent une dérive pouvant mener à plus de discrimination envers les personnes gaies avec cette technologie de reconnaissance photo.
Photo: Getty Images Deux importantes associations de défense des droits LGBT aux États-Unis dénoncent une dérive pouvant mener à plus de discrimination envers les personnes gaies avec cette technologie de reconnaissance photo.

Une intelligence artificielle capable d’identifier l’orientation sexuelle d’un individu à partir de sa photo? Un outil développé par l’Université Stanford suscite la colère.

La reconnaissance faciale peut-elle déceler l’homosexualité ? Développée à l’Université Stanford, au sud de San Francisco, dans la Silicon Valley, une intelligence artificielle (IA) relance cette théorie controversée. Après avoir analysé 35 000 visages référencés sur un site de rencontres américain, elle prétend pouvoir déceler l’homosexualité d’un individu à partir de sa photo. Tristement surnommé « gaydar », l’outil atteindrait, selon ses créateurs, un taux d’exactitude de 91 %. Publiée dans The Journal of Personality and Social Psychology, l’étude a ensuite été relayée par The Economist.

 

Jugé discriminant et dangereux par les associations LGBT et bien au-delà, le nouvel outil soulève évidemment un profond questionnement éthique. Le biais physionomiste pose d’emblée problème. L’IA affirme notamment que les homosexuels ont des « caractéristiques », des « expressions » et des « styles vestimentaires » plus féminins que les hétérosexuels et vice versa.

Cet outil peut exposer publiquement des personnes homosexuelles et les placer en situation de vulnérabilité

 

L’étude détecterait aussi des mâchoires plus étroites, des nez et fronts plus longs chez les gais ; ainsi que des mâchoires plus grandes et des fronts plus petits chez les femmes lesbiennes. Des traits que les chercheurs attribuent aux hormones, en particulier la testostérone.

 

« Junk science »

 

Face à ces conclusions lourdes de stéréotypes, The Human Rights Campaign (HRC) et GLAAD, deux des principales associations LBGT aux États-Unis, dénoncent une « junkscience dangereuse et imparfaite ». « Imaginez un instant les conséquences si cette recherche était utilisée pour soutenir les efforts d’un régime autoritaire dans l’identification et la persécution des citoyens présumés gais », tance le directeur du HRC pour l’éducation, Ashland Johnson.


« Cet outil peut exposer publiquement des personnes homosexuelles et les placer en situation de vulnérabilité. » « Cet article est basé sur une vision absolument binaire, essentialiste et exclusive des orientations sexuelles humaines », s’indigne le sociologue spécialiste des réseaux sociaux Antonio Casilli dans un billet de blogue acéré.

 

Interrogé par The Guardian, le coauteur de l’étude, Michal Kosinski, fait part de son incompréhension. « L’outil de reconnaissance faciale existait déjà, explique-t-il. Le but de l’étude était précisément d’exposer les potentielles utilisations dangereuses de l’IA et de plaider pour une réglementation stricte qui protège la vie privée. » Face aux critiques, le chercheur a réitéré le « risque que présentent ces nouvelles technologies » et a encouragé les internautes à ne « pas rejeter des résultats par simple désaccord idéologique ».

 

Retour en arrière

 

Il n’empêche, l’étude réactive la théorie sur l’origine biologique de l’identité sexuelle. « Quel est l’objectif de cette recherche ? s’insurge Florent Jouinot, agent communautaire pour l’association suisse VoGay. Sur quoi se base-t-elle ? » Penser que l’homosexualité se lit sur les visages est, à ses yeux, une idée « totalement aberrante ». Elle repose toutefois sur toute une idéologie.

 

« On revient en arrière, à l’époque d’Erving Goffman et de sa théorie des stigmates, estime-t-il. L’homosexualité doit pouvoir se voir, se détecter, sinon elle inquiète. » En août dernier, les éditeurs du logiciel espion Fireworld, hébergé en Suisse, avaient dispensé des conseils pédagogiques aux parents pour déceler des signes d’homosexualité chez leur enfant. Cible de vives critiques, la page avait finalement été supprimée.

 

Cette polémique pose finalement une question cruciale : au service de quoi doit-on convoquer la science ou la technologie ? Que ce soit pour croiser les interactions sociales entre individus ou analyser leur visage, la technologie du Big Data serait plus utile pour certaines causes… Au hasard, la lutte contre les discriminations.

4 commentaires
  • Pascal Bergeron - Inscrit 12 septembre 2017 05 h 43

    La « théorie du genre » démontée

    L'IA démonte la « théorie du genre. » Espérons que la gauche cessera de la défendre et qu'on puisse à passer des théories plus scientifiques et moins politiques sur la sexualité.

  • Jean-Pierre Martel - Abonné 12 septembre 2017 07 h 59

    Avoir l'air tapette

    Une des merveilles de la technologie, c'est de découvrir que même les robots peuvent avoir des préjugés...

  • Gilles Théberge - Abonné 12 septembre 2017 10 h 06

    C'est un retour en arrière, de quelques siècles.

    En effet Lombroso avait écrit l'Homme criminel.

    Voyez par vous même : https://fr.m.wikipedia.org/wiki/Cesare_Lombroso

    Je ne pensais pas revoir ça de mon vivant !

  • Piroska Nagy - Abonnée 13 septembre 2017 09 h 27

    Au secours !

    Bien sûr c'est un retour en arrière inquiétant ! Pensons donc aux nazis qui mesuraient les proportions des Juifs.... Ce qui m'inquiète le plus, c'est qu'on puisse croire que cela se détecte physiquement. Qu'une telle idée peut gagner de la crédibilité scientifique. Qu'on crée un logiciel. Qu'on en discute en société.

    Souvenons-nous donc aussi au sort du logiciel, là encore, qui devait détecter le mensonge, à partir de la psychologie de ce simpliste mais combien "successful" psychologue, Paul Ekman: les autorités des USA, crédules comme toujours, l'utilisaient, jusqu'à réaliser que ça ne marchait pas pantoute...