Algorithmes RH et AI Act : ce que les employeurs doivent impérativement changer en 2026
Depuis février 2026, le Règlement européen sur l'IA classe les algorithmes de recrutement et d'évaluation comme systèmes à haut risque, imposant aux employeurs des obligations strictes de transparence, de supervision humaine et de documentation technique. Les salariés et candidats disposent désormais de droits nouveaux pour obtenir des explications et contester les décisions algorithmiques.
Les employeurs utilisant des algorithmes de recrutement ou d'évaluation sont désormais soumis à des obligations légales contraignantes de transparence et de recours humain. Depuis l'entrée en vigueur progressive du Règlement européen sur l'IA (AI Act, Règlement UE 2024/1689), entré en vigueur en août 2024 et dont les dispositions relatives aux systèmes à haut risque s'appliquent pleinement depuis février 2026, les systèmes algorithmiques RH ont changé de statut juridique. Ils ne sont plus de simples outils de gestion interne : ils deviennent des systèmes d'IA à haut risque, encadrés par un corpus de règles contraignantes à l'intersection du droit du travail, du RGPD et du droit européen de l'IA. Cet article vous explique concrètement ce que ça change pour les employeurs et les droits nouveaux dont disposent les salariés.
Contexte juridique
L'AI Act classe les outils algorithmiques RH comme systèmes à haut risque depuis août 2024, avec pleine applicabilité en 2026.
L'AI Act (Règlement UE 2024/1689) constitue le premier cadre légal mondial dédié à la régulation de l'intelligence artificielle. Son Annexe III, point 4 liste explicitement comme systèmes à haut risque les IA utilisées pour le recrutement, la sélection, la promotion, l'évaluation des performances et la gestion des relations de travail. Sont ainsi visés : les logiciels de tri automatique de CV, les outils de scoring comportemental, les plateformes d'entretien vidéo analysées par algorithme, et les systèmes de notation de la performance.
En France, ce cadre européen s'articule avec plusieurs textes préexistants :
- L'article L. 1221-8 du Code du travail encadre les méthodes de recrutement et exige leur pertinence au regard du poste.
- L'article L. 1222-3 du Code du travail impose à l'employeur d'informer le salarié des méthodes et techniques d'évaluation professionnelle utilisées.
- L'article 22 du RGPD (Règlement UE 2016/679) interdit les décisions entièrement automatisées produisant des effets juridiques significatifs sur une personne, sauf exceptions.
- La loi Informatique et Libertés (loi n° 78-17 du 6 janvier 1978, modifiée) transpose en droit français les droits issus du RGPD, notamment le droit d'obtenir une explication sur toute décision automatisée (article 47).
L'Autorité de protection des données (CNIL) a publié en janvier 2026 des recommandations précisant que les outils d'IA RH doivent faire l'objet d'une analyse d'impact relative à la protection des données (AIPD) systématique avant tout déploiement.
Analyse approfondie
Les employeurs doivent documenter, expliquer et garantir un recours humain sur toute décision RH assistée par IA à haut risque.
Les obligations nouvelles pesant sur l'employeur
L'AI Act impose aux déployeurs de systèmes à haut risque — catégorie qui inclut la plupart des grandes entreprises utilisant des outils RH algorithmiques — un socle d'obligations inédites :
1. La transparence algorithmique
Conformément à l'article 13 de l'AI Act, les employeurs doivent remettre aux salariés (et candidats) une information claire sur le fait qu'un système d'IA est utilisé, la logique générale de son fonctionnement, et les types de données traitées. Cette information doit être fournie avant toute évaluation ou décision.
2. La supervision humaine obligatoire
L'article 14 de l'AI Act impose une supervision humaine effective sur les décisions à haut risque. En pratique, un manager ou un responsable RH doit être en mesure d'examiner, comprendre et contester la recommandation de l'algorithme. Les décisions RH ne peuvent pas être entièrement déléguées à un système automatisé — ce que l'article 22 du RGPD interdit déjà pour les décisions produisant des effets juridiques significatifs.
3. La documentation technique
L'article 11 de l'AI Act exige la tenue d'une documentation technique complète sur chaque système à haut risque déployé : objectifs du système, données d'entraînement, performances, biais identifiés et mesures correctives. Cette documentation doit être tenue à jour et accessible aux autorités de contrôle.
4. L'obligation de consultation du CSE
En France, l'article L. 2312-38 du Code du travail impose la consultation préalable du Comité Social et Économique (CSE) sur tout projet d'introduction de technologies impactant les conditions de travail ou l'emploi. Le déploiement d'un outil d'IA RH entre clairement dans ce champ. Le CSE peut se faire assister d'un expert désigné.
Tableau comparatif : avant et après l'AI Act pour les employeurs
| Obligation | Avant l'AI Act | Depuis février 2026 |
|---|---|---|
| Information du salarié | RGPD (limitée) | Explicite + logique IA |
| Supervision humaine | Recommandée | Obligatoire (art. 14) |
| Documentation technique | Aucune | Obligatoire (art. 11) |
| Recours du salarié | RGPD art. 22 | RGPD + AI Act |
| Sanction maximale | 20 M€ RGPD | 30 M€ ou 6% CA |
Les droits des salariés face aux décisions RH algorithmiques
Les salariés disposent désormais d'un arsenal juridique renforcé pour contester ou obtenir des explications sur les décisions prises ou assistées par IA :
- Droit à l'explication : Tout salarié peut demander une explication sur la logique d'une décision automatisée le concernant (article 22 §3 RGPD ; article 47 de la loi Informatique et Libertés).
- Droit d'opposition : En vertu de l'article 21 du RGPD, le salarié peut s'opposer au traitement de ses données personnelles dans le cadre d'une décision automatisée, sauf si ce traitement est nécessaire à l'exécution du contrat.
- Droit à l'intervention humaine : Le salarié peut exiger qu'une décision le concernant soit réexaminée par un être humain (article 22 §3 RGPD).
- Droit de saisine de la CNIL : En cas de refus ou de violation, le salarié peut déposer une plainte directement auprès de la CNIL, dont les pouvoirs de sanction ont été renforcés.
- Recours prud'homal : Une décision RH (non-promotion, licenciement, refus d'embauche) fondée sur un algorithme biaisé ou opaque peut être contestée devant le Conseil de Prud'hommes, notamment sur le fondement de la discrimination (articles L. 1132-1 et suivants du Code du travail).
La jurisprudence en construction
Si la jurisprudence française spécifique à l'AI Act est encore naissante en mai 2026, plusieurs décisions antérieures tracent déjà la voie. La Cour de Justice de l'UE a, dans sa décision du 4 mai 2023 (affaire C-487/21, F.F. c/ Österreichische Datenschutzbehörde), précisé l'étendue du droit d'accès aux données personnelles traitées par des systèmes automatisés. Sur le plan national, des décisions du Conseil de Prud'hommes de Paris ont reconnu, dès 2023-2024, que l'utilisation non transparente d'algorithmes de scoring dans le cadre d'un licenciement pouvait caractériser une irrégularité de procédure.
Implications pratiques
Pour les RH, l'IA Act implique une refonte des processus, des contrats fournisseurs et de la communication interne dès maintenant.
Du côté des employeurs : un chantier de mise en conformité urgent
Les entreprises qui n'ont pas encore entrepris leur mise en conformité AI Act sont en situation de risque juridique avéré. Selon une étude du cabinet Wavestone publiée en mars 2026, seulement 34 % des grandes entreprises françaises déclaraient avoir pleinement documenté leurs systèmes d'IA RH conformément aux exigences de l'AI Act. Les principaux chantiers à mener :
- Auditer l'existant : cartographier tous les outils algorithmiques utilisés en RH (ATS, logiciels d'évaluation, outils de people analytics) et les qualifier au regard de l'Annexe III de l'AI Act.
- Réviser les contrats fournisseurs : les éditeurs de logiciels sont co-responsables en tant que fournisseurs de systèmes à haut risque. Les contrats doivent intégrer des clauses de conformité AI Act et prévoir la fourniture de la documentation technique.
- Former les managers : la supervision humaine n'est effective que si les décideurs comprennent les limites et biais potentiels des systèmes utilisés.
- Mettre à jour les registres RGPD : l'AIPD doit intégrer la dimension AI Act pour tous les traitements RH à haut risque.
Du côté des salariés : des droits à faire valoir concrètement
Les salariés peuvent, dès aujourd'hui, exercer leurs droits de manière proactive. Il est conseillé de :
- Demander par écrit à l'employeur si des outils algorithmiques ont été utilisés dans une décision de recrutement, de promotion ou d'évaluation.
- Exercer son droit d'accès (article 15 RGPD) pour obtenir communication des données personnelles traitées.
- Solliciter l'intervention du CSE pour obtenir des informations sur les outils déployés dans l'entreprise.
- Saisir la CNIL ou un avocat spécialisé en droit social et protection des données en cas de refus ou de décision opaque.
Une tension à surveiller : efficacité RH vs droits fondamentaux
L'introduction des algorithmes RH soulève une tension réelle entre deux légitimités. D'un côté, les employeurs font valoir que ces outils réduisent les biais humains inconscients, accélèrent les processus de recrutement et améliorent l'objectivité des évaluations. De l'autre, des études — dont celle publiée par la DARES en novembre 2025 — montrent que les algorithmes entraînés sur des données historiques peuvent reproduire et amplifier des discriminations existantes (genre, âge, origine). L'AI Act tente de réconcilier ces deux impératifs, mais son efficacité dépendra largement de la qualité des contrôles exercés par les autorités nationales.
Points clés à retenir
- L'AI Act est pleinement applicable aux systèmes d'IA RH à haut risque depuis février 2026, avec des sanctions pouvant atteindre 30 millions d'euros ou 6 % du chiffre d'affaires mondial.
- L'employeur doit informer préalablement tout salarié ou candidat de l'utilisation d'un algorithme dans une décision le concernant, conformément à l'article 13 de l'AI Act.
- Toute décision RH significative prise ou assistée par IA doit faire l'objet d'une supervision humaine effective et documentée (article 14 AI Act, article 22 RGPD).
- Le CSE doit être consulté avant tout déploiement d'outil d'IA RH, en vertu de l'article L. 2312-38 du Code du travail.
- Le salarié dispose de droits concrets : droit à l'explication, droit d'opposition, droit à l'intervention humaine et recours prud'homal en cas de discrimination algorithmique.
- Seulement 34 % des grandes entreprises françaises avaient pleinement documenté leurs systèmes IA RH en mars 2026 (étude Wavestone), révélant un déficit massif de conformité.
- Les contrats avec les éditeurs de logiciels doivent être révisés pour intégrer les obligations de l'AI Act, les fournisseurs étant co-responsables en tant que concepteurs de systèmes à haut risque.
Questions fréquentes
Mon employeur peut-il utiliser une IA pour décider de me licencier ?
Non, une décision de licenciement ne peut pas être entièrement déléguée à un algorithme. L'article 22 du RGPD et l'article 14 de l'AI Act imposent une supervision humaine effective sur toute décision produisant des effets juridiques significatifs. Un licenciement fondé exclusivement sur une recommandation algorithmique sans réexamen humain serait juridiquement contestable devant le Conseil de Prud'hommes.
Comment savoir si mon recrutement a été filtré par un algorithme ?
Vous pouvez exercer votre droit d'accès prévu à l'article 15 du RGPD en envoyant une demande écrite à l'employeur ou au recruteur. Celui-ci a 30 jours pour répondre et doit vous indiquer si un traitement automatisé a été utilisé et selon quelle logique générale. En cas de refus ou de non-réponse, vous pouvez saisir la CNIL.
Quelles sont les sanctions pour un employeur qui ne respecte pas l'AI Act en matière RH ?
Les sanctions prévues par l'AI Act pour non-conformité d'un système à haut risque peuvent atteindre 30 millions d'euros ou 6 % du chiffre d'affaires mondial annuel (le montant le plus élevé étant retenu). En France, la CNIL et le futur régulateur national désigné au titre de l'AI Act disposent du pouvoir de prononcer ces sanctions après enquête.
Le CSE a-t-il un rôle à jouer face aux algorithmes RH ?
Oui, le CSE dispose d'un droit de consultation préalable obligatoire sur tout déploiement d'outil technologique impactant les conditions de travail (article L. 2312-38 du Code du travail). Il peut se faire assister par un expert habilité et demander communication de la documentation technique du système d'IA. En cas de déploiement sans consultation, le CSE peut saisir le juge en référé pour faire suspendre l'outil.
Un algorithme de recrutement peut-il être discriminatoire ?
Oui, et c'est l'un des risques majeurs identifiés par les autorités. Un algorithme entraîné sur des données historiques peut reproduire des biais liés au genre, à l'âge ou à l'origine. Si un salarié ou candidat peut démontrer qu'un algorithme l'a traité défavorablement en raison d'un tel critère, il peut invoquer les articles L. 1132-1 et suivants du Code du travail relatifs aux discriminations, ainsi que l'article 1er de la loi n° 2008-496 du 27 mai 2008.
L'IA Act s'applique-t-il aux petites entreprises ?
Les PME et TPE ne sont pas exemptées de l'AI Act, mais bénéficient d'aménagements procéduraux (obligations allégées pour les micro-entreprises, accompagnement par les "bacs à sable réglementaires"). En revanche, si une PME déploie un système d'IA à haut risque en RH — y compris via un logiciel SaaS d'un éditeur tiers — les obligations de transparence et de supervision humaine s'appliquent pleinement.
Quelle est la différence entre le RGPD et l'AI Act pour les salariés ?
Le RGPD protège les données personnelles et interdit les décisions entièrement automatisées (article 22). L'AI Act va plus loin en imposant des obligations en amont : documentation, supervision humaine, transparence et gestion des risques avant le déploiement du système. Les deux textes sont complémentaires : le RGPD donne des droits d'accès et d'opposition, l'AI Act impose des garanties structurelles à l'employeur dès la conception et le déploiement de l'outil.
Peut-on contester une évaluation de performance réalisée avec une IA ?
Oui. Le salarié peut demander une explication sur la méthode d'évaluation (article L. 1222-3 du Code du travail), exercer son droit à une intervention humaine (article 22 §3 RGPD) et, si l'évaluation a servi de base à une décision défavorable (non-augmentation, rétrogradation), saisir le Conseil de Prud'hommes. La charge de la preuve en matière de discrimination est aménagée : le salarié n'a qu'à présenter des éléments laissant supposer une discrimination, à charge pour l'employeur de prouver le contraire.
Questions fréquentes
- Quels outils RH sont concernés par l'AI Act en tant que systèmes à haut risque ?
- Sont visés les logiciels de tri automatique de CV, les outils de scoring comportemental, les plateformes d'entretien vidéo analysées par algorithme et les systèmes de notation de performance, conformément à l'Annexe III, point 4 de l'AI Act.
- À partir de quand les obligations de l'AI Act s'appliquent-elles aux employeurs ?
- L'AI Act est entré en vigueur en août 2024, mais les dispositions relatives aux systèmes à haut risque, dont les outils RH algorithmiques, s'appliquent pleinement depuis février 2026.
- Un employeur peut-il confier entièrement une décision d'embauche à un algorithme ?
- Non. L'article 14 de l'AI Act impose une supervision humaine effective, et l'article 22 du RGPD interdit les décisions entièrement automatisées produisant des effets juridiques significatifs sur une personne, sauf exceptions strictement encadrées.
- Quelles informations un salarié ou candidat peut-il exiger sur l'utilisation d'un algorithme RH ?
- Avant toute évaluation, l'employeur doit fournir une information claire sur l'existence du système d'IA, sa logique générale de fonctionnement et les types de données traitées, conformément à l'article 13 de l'AI Act et à l'article 22 du RGPD.
- La CNIL a-t-elle publié des recommandations sur les outils d'IA RH ?
- Oui. En janvier 2026, la CNIL a précisé que tout outil d'IA RH doit faire l'objet d'une analyse d'impact relative à la protection des données (AIPD) systématique avant tout déploiement.