Comment l’AI Act classe-t-il les systèmes d’intelligence artificielle et quelles sont les implications pour les usages RH ?

Le Règlement (UE) 2024/1689, dit AI Act, introduit une classification des systèmes d’intelligence artificielle fondée sur le niveau de risque qu’ils présentent pour les droits fondamentaux, la sécurité et les libertés individuelles. Cette approche par les risques distingue notamment les systèmes interdits, les systèmes à haut risque, et les modèles d’IA à usage général (General Purpose AI – GPAI).

1. Systèmes interdits (Article 5)

Certains usages de l’IA sont strictement prohibés au sein de l’Union européenne. Il s’agit notamment :

  • des systèmes de scoring social appliqués aux individus ;

  • des systèmes utilisant des techniques subliminales susceptibles de manipuler le comportement ;

  • des dispositifs exploitant la vulnérabilité de publics spécifiques (ex. : enfants).

Ces systèmes ne peuvent être ni mis sur le marché, ni déployés, ni utilisés. Conformément à l’Article 113 du règlement, les dispositions de l’Article 5 deviennent applicables six mois après l’entrée en vigueur, soit à compter du 2 février 2025.

2. Systèmes à haut risque (Article 6 et Annexe III)

Les systèmes d’IA utilisés dans certains domaines critiques sont classés comme « à haut risque ». L’Annexe III inclut explicitement :

  • les outils d’IA utilisés pour le recrutement ou la sélection de candidats ;

  • les systèmes d’évaluation des performances ou de gestion des carrières ;

  • les systèmes d’octroi de crédit ;

  • certains dispositifs de reconnaissance biométrique.

Un logiciel RH intégrant un algorithme de tri automatisé de CV entre donc dans cette catégorie.

Leur déploiement reste autorisé, sous réserve du respect d’exigences strictes définies aux Articles 8 à 15, parmi lesquelles :

  • la mise en place d’une supervision humaine (Art. 14) ;

  • la traçabilité et la tenue de journaux d’événements (Art. 12) ;

  • la transparence vis-à-vis des personnes concernées (Art. 50) ;

  • le développement des compétences en littératie IA des équipes (Art. 4).

3. Modèles d’IA à usage général – GPAI (Articles 53 à 55)

Les modèles comme ChatGPT, Gemini ou Claude relèvent de la catégorie des modèles d’IA à usage général, définie à l’Article 3(63). Ces modèles ne sont pas considérés comme « à haut risque » par nature.

Toutefois, lorsqu’ils sont intégrés dans un système répondant aux critères de l’Annexe III (par exemple : outil de matching candidat/poste), le système final peut être requalifié comme système à haut risque, indépendamment du statut du modèle sous-jacent.

En contexte RH :

  • un chatbot interne utilisé pour répondre aux salariés relève d’un usage GPAI ;

  • un outil de génération de fiches de poste relève également d’un usage GPAI ;

  • un système de classement automatisé des candidatures constitue un usage à haut risque ;

  • un scoring comportemental peut, selon sa finalité et sa méthode, relever d’un usage interdit.


Sources

  • Présentation réalisée par Alexandra Mazeyrac et Julie Robert (Glad.IA).

Ne manquez rien de nos contenus exclusifs !

Recevez nos conseils et actualités directement dans votre boîte mail.
Pas de spam, juste l’essentiel pour rester informé.

Nous ne spammons pas ! Consultez notre politique de confidentialité pour plus d’informations.