Sélectionner une page

Le 11 mai dernier, j’ai eu le plaisir de co-organiser avec Gwendoline Delbos-Corfield, députée européenne française du groupe des Verts/ALE, la projection en ligne du documentaire Coded Bias de la réalisatrice Shalini Kantayya sur les biais sexistes et racistes des algorithmes des technologies de reconnaissance faciale.

Le film est le récit d’une expérience universitaire qui a fait prendre conscience à Joy Buolamwini, chercheuse au MIT Media Lab, que la plupart des logiciels de reconnaissance faciale identifient mal les femmes et les visages à la peau plus foncée. Ce qui ne devait être qu’un banal exercice l’a alors plongée dans un travail de longue haleine : faire comprendre au plus grand nombre que l’intelligence artificielle n’est pas neutre. En portant les voix de femmes qui mènent le combat pour la protection de nos libertés fondamentales, « Coded Bias » interroge sur le rôle croissant de l’intelligence artificielle dans la gestion de nos libertés. Il alerte également sur le risque de bloquer toute évolution sociétale du fait de l’utilisation à grande échelle de discriminations liées à la couleur de peau ou au sexe.

Voir la bande-annonce (en anglais) ici

Conférence-débat

Dans le prolongement de cette projection en ligne, et pour mieux comprendre les risques de la surveillance de masse et de la reconnaissance faciale, nous avons organisé un conférence-débat avec différent.e.s expert.es sur le sujet :

– Juliana Santos Wahlgren du European Network Against Racism – ENAR

– Laurence Meyer du Digital Freedom Fund (DFF)

– Jérémy Grosman, chercheur à l’Université de Namur en éthique des technologies

Je vous invite à retrouver ci-dessous la vidéo du débat à distance :

Les intervenant.e.s ont abordé les sujets des discriminations raciales causées par la technologie de la reconnaissance faciale : Juliana Santos Wahlgren (ENAR) a ainsi noté que les communautés racisées sont malheureusement les plus surveillées et les moins protégées par les forces de police. Les nouveaux outils technologiques peuvent mener à des pratiques abusives, ce qui est le cas avec la reconnaissance faciale, une technologie qui n’est pas neutre ou indépendante. Elle aide à identifier, surveiller et analyser de manière disproportionnée les communautés ethniques.

Laurence Meyer (DFF) a retenu une citation intéressante du documentaire qui aide à expliquer ces discriminations : « le passé hante nos algorithmes ». La reconnaissance faciale existe en effet dans un contexte précis et vient d’un passé qui reproduit un système d’oppression. L’intervenante a aussi souligné qu’il y avait des exemples récents de gouvernements qui avaient essayé d’instaurer l’utilisation de cette technologie dans la société, par exemple en France dans des lycées, montrant qu’il y a un intérêt accru des autorités même en Europe de déployer les technologies de reconnaissance faciale.

Ce déploiement massif pourrait créer un véritable problème démocratique : la technologie peut avoir un effet dissuasif et empêcher les citoyens de vouloir exercer leurs libertés fondamentales, comme celle d’aller manifester. C’est le point qu’a soulevé Jérémy Grosman (chercheur) : la reconnaissance faciale généralisée augmenterai l’asymétrie de pouvoir entre le gouvernement et les citoyens et empêche toute tentative de désobéissance. L’enjeu est vital : s’il y un gouvernement autoritaire arrive au pouvoir, il ne faut pas qu’il ait les capacités technologiques telles que la reconnaissance faciale pour stopper toute possibilité de résistance.

Interdire la surveillance de masse

Ce débat éclairant a une nouvelle fois renforcé ma conviction qu’il faut interdire la surveillance biométrique de masse. Si vous souhaitez soutenir la campagne pour une telle interdiction, n’hésitez pas à signer l’initiative citoyenne #ReclaimYourFace.

Le groupe des Verts/ALE mène aussi une campagne au niveau européen pour protéger les droits digitaux des citoyens et bannir la reconnaissance faciale dans l’espace public.

Pour aller plus loin : lire mon article sur la surveillance biométrique de masse et la conversation entre l’eurodéputée Gwendoline Delbos-Corfield et Laurence Meyer (DFF) sur les biais discriminatoires de cette technologie.

Share This