mardi10mars2020
18:3020:30
Sexe, genre et orientation sexuelle face aux biais algorithmiques

Table ronde

Sexe, genre et orientation sexuelle face aux biais algorithmiques


Présentation

 

2015. Amazon suspend son logiciel d'aide au recrutement après avoir découvert que son algorithme discriminait les femmes, en défavorisant les CV contenant les mots « women's » (ex : women's chess club captain) et les diplômées de collèges américains réservés aux femmes.

2016. Kosinski et Wang, deux chercheurs de l'université de Stanford, développent un algorithme visant à identifier l'orientation sexuelle d'un individu au faciès, excluant la bisexualité et s'appuyant nécessairement sur leurs propres biais cognitifs, au-delà d'évidents problèmes d'éthique.

Quelques exemples parmi d'autres qui permettent de comprendre en quoi les biais algorithmiques peuvent avoir des conséquences concrètes sur la vie de chacun et devenir vecteurs de discriminations.

Le problème est d'autant plus prégnant que l'usage de l'intelligence artificielle est en plein essor : à travers le monde, elle aide les employeurs à recruter, les médecins à soigner, la justice à juger et surtout la société à s'informer. Or, les progrès qu'elle promet se heurtent à de nombreux obstacles, notamment si l'algorithme qui la compose est sujet à des biais.

 

Qu'est-ce qu'un algorithme ?

Un algorithme est une séquence d'opérations permettant d'obtenir un résultat. Une recette de cuisine par exemple ou une partition de musique sont des algorithmes.

Dans le domaine du numérique, l'algorithme fixe les grandes idées qui vont gouverner le fonctionnement d'un logiciel, celui-ci étant ensuite écrit dans un langage informatique. Ainsi, les moteurs de recherche ou les réseaux sociaux sont d'abord exprimés sous forme d'algorithme qui dictera leurs fonctionnalités telles que proposer des résultats (moteur de recherche) ou personnaliser le contenu sur un fil d'actualité (réseaux sociaux), avant d'être concrétisés dans un programme.

 

Qu'est-ce qu'un biais algorithmique ?

Le résultat obtenu par un processus dépend de l'algorithme utilisé. Or, en tant qu'il est conçu par des humains, paramétré et corrigé par eux, et qu'il s'entraîne à partir d'une base de données compilée par des humains dans le cadre de l'apprentissage machine, un algorithme peut reproduire leurs biais.

Ces biais peuvent être statistiques. Pour reprendre l'exemple d'Amazon, son algorithme de recrutement reposait sur l'idée que les nouveaux employés devaient présenter les mêmes caractéristiques que ceux déjà recrutés et dont les CV constituaient la base de données. Or, les cadres recrutés jusqu'alors étaient pour une écrasante majorité des hommes, ce qui a conduit l'algorithme à ne pas retenir des femmes pourtant qualifiées.

Ils peuvent également être cognitifs (comme pour Kosinski et Wang), ou économiques. Par exemple, un algorithme d'annonces publicitaires pour des emplois dans des domaines scientifiques favorisait le ciblage des hommes jeunes aux Etats-Unis, le segment de publicité des femmes jeunes étant plus coûteux. Or, l'algorithme avait été programmé pour optimiser le rapport coût-efficacité de ses annonces (Lambrecht et Tucker, 2017).

 

Programme

 

18h20 : Table ronde avec :
Célia Zolinsky, Professeur de droit, Paris 1 Panthéon-Sorbonne
Laurence Devillers, Professeur en informatique à Sorbonne Université
Fabien Tarissan, Chercheur en informatique au CNRS
Julie Charpenet, Doctorante contractuelle, coordinatrice FabLex DL4T

 

 

Entrée gratuite, s'inscrire sur le lien : https://www.eventbrite.fr/e/billets-sexe-genre-et-orientation-sexuelle-face-aux-biais-algorithmiques-98247674439


Organisée par le Master 2 Droit du commerce électronique et de l'économie numérique pour célébrer la Journée internationale des droits des femmes ; IRJS, Université Paris 1 Panthéon-Sorbonne



Centre Panthéon
Salle 6
12 Place du Panthéon
75005 Paris

Université Paris 1 - Panthéon Sorbonne
Institut de Recherches Juridiques de la Sorbonne