DISCRIMINATOR : les algorithmes intelligents sont-ils racistes et sexistes et comment leur apprendre à ne pas l’être ?

DISCRIMINATOR : les algorithmes intelligents sont-ils racistes et sexistes et comment leur apprendre à ne pas l’être ?(17-MA-04)

Porteurs

  • Matthieu MANANT (RITM)
  • Serge PAJAK (RITM)

Résumé

La littérature en économie et en droit montre que les réseaux sociaux en ligne, les moteurs de recherche et les plateformes de mise en relation peuvent générer et reproduire les mêmes discriminations que dans le monde réel. Il n’est cependant pas clair si les plateformes ont connaissance de ces dysfonctionnements et comment les caractériser et les réguler. Les plateformes s’appuient en effet sur des algorithmes intelligents complexes qui “apprennent” à partir des données utilisateurs, mais dont les comportements peuvent leur échapper. Nous nous intéressons dans ce projet à évaluer l’existence de discriminations sur les plateformes et, plus particulièrement, au rôle des algorithmes dans ces discriminations. Nous proposons de mettre en place des expérimentations de terrain pour tester la discrimination des algorithmes en situations réelles dans le cadre de campagnes publicitaires et sur différentes plateformes internet, et ainsi contribuer à comprendre plus globalement les biais des algorithmes sur ces plateformes. Ces mises en évidence nous permettront de considérer la nécessité d’une régulation juridique des algorithmes et de faire des propositions sur ce terrain. L’utilisation des données personnelles par les algorithmes a également des implications en économie de la vie privée si on considère qu’il s’agit d’une externalité négative pour les individus qui divulguent leurs données personnelles. Nous organiserons enfin une conférence internationale réunissant juristes, économistes et informaticiens pour enrichir la réflexion sur une régulation du secteur au niveau européen.

(Mise à jour le 15 juillet 2024)

Retour à la liste des projets labellisés par la MSH Paris-Saclay

Retour en haut