Algorithmic Discrimination Is an Information Problem
Ignacio Cofone, chercheur de l’axe Droit, Cyberjustice et Cybersécurité, publie un article proposant une avenue pour limiter la discrimination dans la prise de décision automatisée.
Résumé : De plus en plus, les algorithmes auront à prendre des décisions aux conséquences sociales importantes. Il est donc crucial de savoir identifier la discrimination dans ces décisions et de déterminer comment la prévenir. L’encadrement légal traditionnel visant à contrer la discrimination pose certains défis dans le contexte de la prise de décision automatisée. Une avenue à envisager pour aborder ces enjeux serait d’agir ex-ante et de réguler l’information utilisée pour entraîner et alimenter les algorithmes.
Or, le simple fait de ne pas nourrir les algorithmes avec l’information relative au sexe, à la race ou à l’origine ethnique n’offre pas une protection suffisante contre la discrimination, car la combinaison d’autres informations permet généralement de révéler l’information omise. À ce premier problème s’ajoute le paradoxe qui oppose traitement non discriminatoire et effets non discriminatoires. Le présent article aborde ces problèmes et suggère qu’il serait préférable de modifier les attributs relatifs aux motifs de discrimination plutôt que d’omettre ces données.
Référence : Cofone, Ignacio, Algorithmic Discrimination Is an Information Problem (May 14, 2019). Hastings Law Journal, 2019.