Faire défiler
Tous les articles

Victoire: vote de la position du Parlement européen sur l’Intelligence Artificielle (IA) Act !

19-06-23

Le 14 juin dernier, le Parlement européen a adopté sa position sur la proposition de règlement sur l’intelligence artificielle (IA). Que ce soit en termes de reconnaissance faciale, de protection des données et des droits fondamentaux, cette position est ambitieuse! Je vous explique en quoi ce sont des avancées et une victoire pour les Verts/ALE, mais aussi les obstacles à venir avant l’adoption finale du texte. 

 

La proposition initiale et les enjeux des négociations au Parlement européen

La proposition de la Commission, publiée en avril 2021, contient une liste de systèmes d’IA présentant un « risque élevé » pour la santé, la sécurité ou les droits humains. Si une technologie est considérée « à risque élevé », elle devra respecter un certain nombre d’obligations et de normes techniques. 

Pour nous, les Verts/ALE, l’enjeu lors des négociations au sein des Commissions parlementaires Liberté & Justice (LIBE) et Marché Intérieur & Protection des Consommateurs (IMCO) était de rendre le texte le plus ambitieux possible. Une ambition qui se traduit par une portée et une définition élargies de l’IA, l’élargissement de la liste des pratiques d’IA interdites, une classification solide des systèmes à risque élevé et des obligations strictes pour ces systèmes. 

 

Reconnaissance faciale: lutte historique des Verts/ALE

Comme je vous en parlais il y a quelques années déjà, les technologies de reconnaissance faciale comportent de nombreux risques. Le Haut Commissaire de l’ONU pour les droits humains a dénoncé le « manque de conformité aux normes de protection de la vie privée et des données », les « problèmes importants d’exactitude » et les « répercussions discriminatoires » de ces technologies.  En effet, étant donné que ces technologies sont beaucoup moins précises pour certains groupes de personnes, comme les femmes afro-américaines, ces groupes sont discriminés. Ils sont sujets à un plus grand nombre de faux positifs et donc de fausses accusations. 

Par ailleurs, les partisans de la reconnaissance faciale arguent qu’elle permet de prévenir des attaques de grande ampleur. C’est faux. Il n’y a pas un seul exemple de surveillance biométrique en temps réel qui a empêché une attaque terroriste ou d’autres événements de ce genre. Avec des taux de fausses alertes allant jusqu’à 99%, ces technologies ne sont pas assez fiables pour être utiles. 

De nombreuses organisations de la société civile, via la coalition “Reclaim Your Face”, ont appelé à interdire l’usage de ces technologies. Ils ont lancé une pétition d’initiative citoyenne européenne qui a récolté 250 000 signatures. 

Grâce à ce soutien citoyen et aux preuves scientifiques, et malgré l’opposition de la droite conservatrice, nous avons réussi à inclure dans la position du Parlement l’interdiction de l’utilisation de systèmes d’identification biométriques à distance en temps réel et en différé dans les espaces publics.

 

 

Les autres mesures et avancées

La position du Parlement européen comprend quelques points négatifs. Avec mes collègues des Verts/ALE, nous aurions aimé que les entités faisant partie de la liste “risque élevé” ne puissent jamais bénéficier d’exemption. Par ailleurs, le champ d’application de pratique à risque élevé aurait pu être plus large. Cependant, dans son ensemble, la position du Parlement européen sur l’AI Act va dans la bonne direction. 

Outre l’interdiction de systèmes d’identification biométriques mentionnée précédemment, le texte inclut les avancées suivantes pour lesquelles les Verts/ALE se sont battu.es:

  • L’interdiction de la reconnaissance des émotions dans l’application de la loi, dans la gestion des frontières, dans l’éducation et le milieu de travail;
  • L’interdiction des services de police prédictifs et établissement du profil de risque pour les comportements criminels et les infractions administratives;
  • L’interdiction de la catégorisation biométrique, c’est-à-dire interdire les systèmes qui catégorisent les personnes en fonction de caractéristiques sensibles comme l’ethnicité, la santé, la sexualité ou le genre;
  • L’interdiction de la notation sociale (comme en Chine) pour le public et le privé;
  • Des mesures de transparence pour les “deep fakes”;
  • Une évaluation obligatoire de l’impact sur les droits fondamentaux par tous les fournisseurs d’IA à risque élevé;
  • Obligation de mesurer et de déclarer « l’empreinte carbone et l’efficacité énergétique du système d’IA, en particulier en ce qui concerne les ressources informatiques, la conception d’algorithmes et les processus de formation, ainsi que la consommation d’énergie prévue pendant l’utilisation ».

Les étapes suivantes

Le texte récemment adopté n’est pas le texte final mais uniquement la position du Parlement européen. Cette position servira de mandat lors des négociations avec le Conseil (les États-membres), négociations qui débuteront rapidement.

Voir plus

D’autres articles peuvent vous intéresser