L’IA Act, règlement européen entré en vigueur le 1er août 2024, se distingue comme l’une des premières régulations mondiales en matière d’intelligence artificielle, visant à équilibrer innovation technologique et protection des droits fondamentaux. Ce règlement s’adresse directement aux développeurs et aux déployeurs (une personne physique ou morale, une autorité publique, une agence ou un autre organisme utilisant sous sa propre autorité un système d’IA) de systèmes d’IA, imposant des obligations strictes pour assurer la transparence, la robustesse et la sécurité des systèmes d’IA, en particulier ceux à hauts risques. Il doit être interprété en complément du RGPD afin de garantir une gestion cohérente et conforme des données, les systèmes d’IA traitant de nombreuses données, notamment des données personnelles afin de produire leurs résultats. L’objectif ultime est de renforcer la sécurité et la confiance des utilisateurs tout en permettant une innovation responsable. Grâce à la mise en place de sanctions et d’une autorité de surveillance dédiée, la Commission européenne entend maintenir cet équilibre crucial entre progrès technologique et respect des droits et libertés fondamentaux, dont la protection des données.

Nous résumons quelques points cruciaux de l’IA Act :

  • Classification rigoureuse des systèmes d’IA : L’IA Act catégorise les systèmes d’IA en fonction des risques associés :

  • Risques inacceptables : Ces systèmes sont strictement interdits car ils peuvent entraîner des traitements discriminatoires ou de la manipulation.
  • Obligations accrues pour les développeurs de systèmes d’IA à hauts risques : Les développeurs doivent désormais se conformer à des règles strictes concernant la sécurité des systèmes, la documentation des processus et la transparence du fonctionnement des algorithmes.
  • Obligations pour les déployeurs : ils devront eux aussi s’assurer du respect de la réglementation via des moyens techniques et humains. Ils devront être aussi en mesure de surveiller l’IA si elle est à haut risque ou encore réaliser une analyse d’impact.
  • Nécessité extrême de transparence : obligation d’informer les utilisateurs lorsqu’ils interagissent avec une IA, notamment en ce qui concerne la reconnaissance d’émotions, la catégorisation biométrique, et d’autres types de marquages.

Les autorités de protection de données luxembourgeoise (la CNPD) ici et française (la CNIL) ici, ont rédigé des fiches informatives que vous pouvez consulter pour plus d’information.


N’hésitez pas à nous contacter si vous désirez approfondir le sujet.