Votre prestataire de recrutement utilise un algorithme pour pré-sélectionner les CV. Votre logiciel RH analyse les données de performance pour recommander des augmentations. Votre outil de gestion des temps utilise l'IA pour détecter les anomalies de pointage. Chacun de ces usages est désormais classé « à haut risque » par le règlement européen sur l'intelligence artificielle.
Et les obligations qui en découlent entrent en application progressivement à partir de 2025-2026. Si vous n'avez pas commencé à vous mettre en conformité, le temps presse.
Le règlement IA (AI Act) : les usages RH classés à haut risque
Le règlement européen 2024/1689 du 13 juin 2024, dit AI Act, classe les systèmes d'IA utilisés dans le domaine de l'emploi, de la gestion des travailleurs et de l'accès à l'emploi comme systèmes « à haut risque » (Annexe III, point 4).
Sont expressément visés les systèmes d'IA utilisés pour le recrutement ou la sélection de candidats (tri de CV, présélection automatisée, évaluation par chatbot), la prise de décisions relatives à la promotion, au licenciement, à l'attribution des tâches ou au suivi de la performance, et la surveillance et l'évaluation de la productivité et du comportement des personnes.
Les obligations liées à cette classification sont substantielles et s'imposent tant aux fournisseurs de ces systèmes qu'aux entreprises qui les déploient (les « déployeurs »).
Les obligations des employeurs déployeurs
En tant qu'employeur utilisant un système d'IA classé à haut risque, vous êtes un « déployeur » au sens du règlement. Vos obligations incluent la mise en place d'une supervision humaine du système (article 14 du règlement) — un humain doit pouvoir comprendre, intervenir et, le cas échéant, invalider les décisions du système. Vous devez informer les salariés qu'ils font l'objet d'un traitement par un système d'IA à haut risque. Vous devez réaliser une analyse d'impact sur les droits fondamentaux avant le déploiement. Vous devez conserver les logs du système pendant la durée requise par le règlement.
En parallèle, l'article 22 du RGPD interdit les décisions entièrement automatisées produisant des effets juridiques ou des effets significatifs similaires sur les personnes. Tout processus de recrutement ou d'évaluation utilisant l'IA doit intégrer une intervention humaine significative.
La transparence algorithmique envers les salariés et le CSE
L'article L.1222-4 du Code du travail impose déjà que toute information personnelle collectée sur un salarié soit portée à sa connaissance. Le règlement IA renforce cette obligation de transparence.
Le CSE doit être informé et consulté sur l'introduction de systèmes d'IA dans l'entreprise, au titre de l'article L.2312-38 du Code du travail (introduction de nouvelles technologies) et de l'article L.2312-8 (conditions de travail). L'avis du CSE est requis avant le déploiement.
La CNIL a publié en mars 2025 des recommandations spécifiques sur l'utilisation de l'IA en recrutement, insistant sur le droit des candidats à être informés de l'utilisation d'un système d'IA, à ne pas faire l'objet d'une décision entièrement automatisée, et à contester la décision.
Les sanctions
Le non-respect des obligations liées aux systèmes à haut risque peut entraîner des amendes allant jusqu'à 15 millions d'euros ou 3 % du chiffre d'affaires mondial (article 99 du règlement). La CNIL peut également prononcer des sanctions au titre du RGPD, et l'inspection du travail peut constater les manquements au Code du travail.
Les usages courants à vérifier
Faites l'inventaire de vos outils RH utilisant l'IA. Les plateformes de recrutement avec scoring automatique des candidatures, les chatbots d'entretien vidéo avec analyse comportementale, les logiciels de people analytics utilisant des algorithmes de prédiction, les outils de surveillance de la productivité avec détection d'anomalies et les systèmes de planification automatique des effectifs sont tous potentiellement concernés.
Ce que vous devez faire lundi matin
Réalisez un inventaire des systèmes d'IA utilisés dans vos processus RH. Pour chaque système, identifiez s'il entre dans la catégorie « haut risque » au sens du règlement. Contactez vos fournisseurs pour obtenir la documentation technique requise. Informez votre CSE et consultez-le sur les systèmes en place. Planifiez les analyses d'impact sur les droits fondamentaux.
L'IA en RH n'est pas interdite. Elle est encadrée. Et l'encadrement est exigeant. Mieux vaut s'y préparer maintenant que de découvrir les obligations lors d'un contrôle.