Algorithmic Discrimination Is an Information Problem

Ignacio Cofone, chercheur de l’axe Droit, Cyberjustice et Cybersécurité, publie un article proposant une avenue pour  limiter la discrimination dans la prise de décision automatisée.

Résumé : De plus en plus, les algorithmes auront à prendre des décisions aux conséquences sociales importantes. Il est donc crucial de savoir identifier la discrimination dans ces décisions et de déterminer comment la prévenir. L’encadrement légal traditionnel visant à contrer la discrimination pose certains défis dans le contexte de la prise de décision automatisée. Une avenue à envisager pour aborder ces enjeux serait d’agir ex-ante et de réguler l’information utilisée pour entraîner et alimenter les algorithmes.

Or, le simple fait de ne pas nourrir les algorithmes avec l’information relative au sexe, à la race ou à l’origine ethnique n’offre pas une protection suffisante contre la discrimination, car la combinaison d’autres informations permet généralement de révéler l’information omise. À ce premier problème s’ajoute le paradoxe qui oppose traitement non discriminatoire et effets non discriminatoires. Le présent article aborde ces problèmes et suggère qu’il serait préférable de modifier les attributs relatifs aux motifs de discrimination plutôt que d’omettre ces données.

Référence : Cofone, Ignacio, Algorithmic Discrimination Is an Information Problem (May 14, 2019). Hastings Law Journal, 2019.

Télécharger l’article

Articles récents

Nous joindre

Abonnez-vous à l'infolettre

Recevez nos récentes actualités, nos événements à venir, des nouvelles de nos collaborateurs et plus encore!

L'Observatoire international sur les impacts sociétaux de l'IA et du numérique est rendu possible grâce au soutien des Fonds de recherche du Québec.