Biais et discriminations : le point de vue d’un économiste

Le séminaire d’experts sur les algorithmes discriminatoires, organisé les 28 et 29 mai 2020 par le Défenseur des droits en collaboration avec la CNIL[1], appelle quelques réflexions, analyses et propositions.

Les biais des algorithmes sont inévitables et posent de véritables problèmes sociétaux liés au caractère massif et automatique de ces algorithmes. On peut les classer en deux catégories : les biais involontaires et les biais volontaires.

 

De nombreux biais sont donc involontaires et causés par une analyse statistique inadéquate. Ces problèmes ont des conséquences réelles mais peuvent être corrigés lors de la phase d’audit : la mauvaise représentativité des données ayant servi à entraîner l’algorithme, les discriminations et les biais déjà présents dans les données d’apprentissage et d’interaction, la mauvaise modélisation des situations observées, les variables importantes omises, toutes ces erreurs de préparation peuvent être repérées et rectifiées (voir édito de la lettre n°12 de la Chaire VP-IP, octobre 2018, où plusieurs de ces exemples sont détaillés).

Une fois déployés, les algorithmes ne sauraient échapper à la loi. Elle protège en effet fondamentalement les citoyens contre différentes formes de discrimination, en particulier celles liées au sexe, à l’appartenance ethnique et à la religion. Des sanctions sont prévues en cas de manquement. Encore faut-il être capable de prouver qu’il y a discrimination, ce qui est aujourd’hui quasi impossible compte-tenu du degré d’opacité des algorithmes et de leur caractère auto-apprenant. D’autres barrières et protections juridiques existent, tel que le principe de loyauté des plateformes dans l loi n° 2016-1321 pour une République numérique[2] et le principe de transparence du Règlement Général sur la Protection des Données (RGPD)[3]. Mais elles ne sauraient suffire, comme le second type de biais amène à le démontrer.

Les biais volontaires sont souvent de nature économique : les algorithmes manipulent les utilisateurs à des fins économiques. Les exemples sont nombreux : les algorithmes « self-preferencing » qui favorisent les produits associés à une plateforme plutôt que ceux proposés par les concurrents de la dite plateforme, les « dark patterns » (interfaces utilisateur trompeuses) qui provoquent des « nudges » (incitations) souvent inconscients, les « fake news » ciblées qui optimisent l’engagement des utilisateurs et donc les revenus publicitaires, l’utilisation des neurosciences dans les algorithmes pour rendre les utilisateurs « accros » à un service ou à un jeu afin de maximiser les revenus, etc.

Les droits fondamentaux et ceux issus du RGPD et de la loi pour une République numérique ne suffiront sans doute pas pour limiter les biais des algorithmes. Pour éradiquer les biais volontaires, il existe deux pistes prometteuses : le droit de la concurrence et l’open source. En effet, si un consommateur se rend compte qu’il est manipulé économique par un algorithme, il pourra se tourner vers un service plus éthique. La chose ne sera pas aisée étant donné la position dominante des grands acteurs du numérique. C’est pourquoi les différents droits associés aux enjeux numériques devront se compléter pour que les utilisateurs puissent prendre leurs décisions dans un environnement informationnel neutre et non biaisé.

 


Patrick Waelbroeck, Professeur d'économie industrielle et d'économétrie à Télécom Paris, co-fondateur de la Chaire Valeurs et Politiques des Informations Personnelles


 

[1] https://www.defenseurdesdroits.fr/fr/communique-de-presse/2020/05/algorithmes-et-discriminations-le-defenseur-des-droits-avec-la-cnil.

[2] Loi n° 2016-1321 du 7 octobre 2016 pour une République numérique, JORF du 8 octobre 2016, https://www.legifrance.gouv.fr/loda/id/JORFTEXT000033202746/2020-11-27/.

[3] Art. 12 du règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE (Règlement Général sur la Protection des Données), JOUE L 119 du 4.5.2016, p. 1.

Commentaires Clos.