Faire défiler
Tous les articles

Intelligence artificielle (IA): un accord politique a été trouvé

19-12-23

Le 8 décembre 2023, un accord politique a été trouvé entre le Parlement européen et le Conseil, c’est-à-dire les Etats membres, au sujet de l’Intelligence artificielle Act (IA Act). Décryptons ensemble ce texte qui doit être encore adopté officiellement.


Quel est l’objectif de l’IA Act?
L’IA Act a pour but d'encadrer les intelligences artificielles, ce qui serait une première mondiale. La proposition initiale de la Commission, publiée en avril 2021, contient une liste de systèmes d’IA présentant un « risque élevé » pour la santé, la sécurité ou les droits humains. Si une technologie est considérée « à risque élevé », elle devra respecter un certain nombre d’obligations et de normes techniques. 

L’objectif des Verts/ALE était de rendre le texte le plus protecteur  possible. Une ambition qui se traduit par une portée et une définition élargies de l’IA, l’élargissement de la liste des pratiques d’IA interdites, une classification solide des systèmes à risque élevé et des obligations strictes pour ces systèmes. Comme je vous l’expliquais en juin dernier, nous avions obtenu beaucoup d’avancées lors des négociations pour établir la position du Parlement européen. Une de nos victoires majeures était l’interdiction de l’utilisation de systèmes d’identification biométriques à distance, c’est-à-dire la reconnaissance faciale, en temps réel et en différé dans les espaces publics.

 


Que contient l’accord final? 

Voici les points principaux de l’accord:

  • Des obligations spécifiques pour les IA à risque élevé: les domaines particulièrement sensibles tels que l'application de la loi, la migration, l'emploi/le lieu de travail ou l'éducation sont listés comme à risque élevé (annexe III). Ces IA devront se soumettre à un certain nombre d'obligations en termes de gouvernance des données, cybersécurité et d’évaluation des risques. Une évaluation spécifique de l'impact de ces systèmes sur les droits fondamentaux a également été introduite sous la pression du Parlement.
  • D’autres types d’obligations pour les IA générative (comme Chat GPT): le texte comprend une classification à deux niveaux: les  IA générative et les IA générative présentant un risque systémique.Les obligations pour les GPAI consistent principalement en des mesures de transparence plus larges ("documentation technique"), qui incluent la gouvernance des données et, la transparence environnementale. Les modèles GPAI présentant un risque systémique doivent remplir davantage d'obligations, telles que la gestion/atténuation interne des risques ou les tests contradictoires.
  • Des pratiques interdites:  la reconnaissance faciale en temps réel dans les espaces publics est interdite sauf dans des cas spécifiques et après approbation d’une autorité judiciaire ou autre autorité indépendante.  Dans les situations d'urgence, l'autorisation judiciaire doit être accordée a posteriori, dans les 24 heures.
  • L'identification biométrique à distance (pas en temps réel, mais sur des séquences vidéo) n'est pas interdite, mais constitue désormais une catégorie à risque élevé dans l'annexe III.
  • Interdiction de la police prédictive: systèmes d'IA permettant d'évaluer le risque de délinquance ou de récidive d'une personne physique ou le risque pour une personne physique d'être victime d'infractions pénales sont interdits par le texte. L'IA peut toutefois être utilisée pour faciliter l'évaluation de suspects spécifiques. 
Voir plus

D’autres articles peuvent vous intéresser