Algorithmes RH et AI Act : ce que les employeurs doivent impérativement changer en 2026

Depuis février 2026, le Règlement européen sur l'IA classe les algorithmes de recrutement et d'évaluation comme systèmes à haut risque, imposant aux employeurs des obligations strictes de transparence, de supervision humaine et de documentation technique. Les salariés et candidats disposent désormais de droits nouveaux pour obtenir des explications et contester les décisions algorithmiques.

· 11 min de lecture · 2281 mots · IA et Droit
AI Act algorithmes RH recrutement IA RGPD droit du travail

Les employeurs utilisant des algorithmes de recrutement ou d'évaluation sont désormais soumis à des obligations légales contraignantes de transparence et de recours humain. Depuis l'entrée en vigueur progressive du Règlement européen sur l'IA (AI Act, Règlement UE 2024/1689), entré en vigueur en août 2024 et dont les dispositions relatives aux systèmes à haut risque s'appliquent pleinement depuis février 2026, les systèmes algorithmiques RH ont changé de statut juridique. Ils ne sont plus de simples outils de gestion interne : ils deviennent des systèmes d'IA à haut risque, encadrés par un corpus de règles contraignantes à l'intersection du droit du travail, du RGPD et du droit européen de l'IA. Cet article vous explique concrètement ce que ça change pour les employeurs et les droits nouveaux dont disposent les salariés.

Contexte juridique

L'AI Act classe les outils algorithmiques RH comme systèmes à haut risque depuis août 2024, avec pleine applicabilité en 2026.

L'AI Act (Règlement UE 2024/1689) constitue le premier cadre légal mondial dédié à la régulation de l'intelligence artificielle. Son Annexe III, point 4 liste explicitement comme systèmes à haut risque les IA utilisées pour le recrutement, la sélection, la promotion, l'évaluation des performances et la gestion des relations de travail. Sont ainsi visés : les logiciels de tri automatique de CV, les outils de scoring comportemental, les plateformes d'entretien vidéo analysées par algorithme, et les systèmes de notation de la performance.

En France, ce cadre européen s'articule avec plusieurs textes préexistants :

L'Autorité de protection des données (CNIL) a publié en janvier 2026 des recommandations précisant que les outils d'IA RH doivent faire l'objet d'une analyse d'impact relative à la protection des données (AIPD) systématique avant tout déploiement.

Analyse approfondie

Les employeurs doivent documenter, expliquer et garantir un recours humain sur toute décision RH assistée par IA à haut risque.

Les obligations nouvelles pesant sur l'employeur

L'AI Act impose aux déployeurs de systèmes à haut risque — catégorie qui inclut la plupart des grandes entreprises utilisant des outils RH algorithmiques — un socle d'obligations inédites :

1. La transparence algorithmique

Conformément à l'article 13 de l'AI Act, les employeurs doivent remettre aux salariés (et candidats) une information claire sur le fait qu'un système d'IA est utilisé, la logique générale de son fonctionnement, et les types de données traitées. Cette information doit être fournie avant toute évaluation ou décision.

2. La supervision humaine obligatoire

L'article 14 de l'AI Act impose une supervision humaine effective sur les décisions à haut risque. En pratique, un manager ou un responsable RH doit être en mesure d'examiner, comprendre et contester la recommandation de l'algorithme. Les décisions RH ne peuvent pas être entièrement déléguées à un système automatisé — ce que l'article 22 du RGPD interdit déjà pour les décisions produisant des effets juridiques significatifs.

3. La documentation technique

L'article 11 de l'AI Act exige la tenue d'une documentation technique complète sur chaque système à haut risque déployé : objectifs du système, données d'entraînement, performances, biais identifiés et mesures correctives. Cette documentation doit être tenue à jour et accessible aux autorités de contrôle.

4. L'obligation de consultation du CSE

En France, l'article L. 2312-38 du Code du travail impose la consultation préalable du Comité Social et Économique (CSE) sur tout projet d'introduction de technologies impactant les conditions de travail ou l'emploi. Le déploiement d'un outil d'IA RH entre clairement dans ce champ. Le CSE peut se faire assister d'un expert désigné.

Tableau comparatif : avant et après l'AI Act pour les employeurs

Obligation Avant l'AI Act Depuis février 2026
Information du salarié RGPD (limitée) Explicite + logique IA
Supervision humaine Recommandée Obligatoire (art. 14)
Documentation technique Aucune Obligatoire (art. 11)
Recours du salarié RGPD art. 22 RGPD + AI Act
Sanction maximale 20 M€ RGPD 30 M€ ou 6% CA

Les droits des salariés face aux décisions RH algorithmiques

Les salariés disposent désormais d'un arsenal juridique renforcé pour contester ou obtenir des explications sur les décisions prises ou assistées par IA :

La jurisprudence en construction

Si la jurisprudence française spécifique à l'AI Act est encore naissante en mai 2026, plusieurs décisions antérieures tracent déjà la voie. La Cour de Justice de l'UE a, dans sa décision du 4 mai 2023 (affaire C-487/21, F.F. c/ Österreichische Datenschutzbehörde), précisé l'étendue du droit d'accès aux données personnelles traitées par des systèmes automatisés. Sur le plan national, des décisions du Conseil de Prud'hommes de Paris ont reconnu, dès 2023-2024, que l'utilisation non transparente d'algorithmes de scoring dans le cadre d'un licenciement pouvait caractériser une irrégularité de procédure.

Implications pratiques

Pour les RH, l'IA Act implique une refonte des processus, des contrats fournisseurs et de la communication interne dès maintenant.

Du côté des employeurs : un chantier de mise en conformité urgent

Les entreprises qui n'ont pas encore entrepris leur mise en conformité AI Act sont en situation de risque juridique avéré. Selon une étude du cabinet Wavestone publiée en mars 2026, seulement 34 % des grandes entreprises françaises déclaraient avoir pleinement documenté leurs systèmes d'IA RH conformément aux exigences de l'AI Act. Les principaux chantiers à mener :

Du côté des salariés : des droits à faire valoir concrètement

Les salariés peuvent, dès aujourd'hui, exercer leurs droits de manière proactive. Il est conseillé de :

Une tension à surveiller : efficacité RH vs droits fondamentaux

L'introduction des algorithmes RH soulève une tension réelle entre deux légitimités. D'un côté, les employeurs font valoir que ces outils réduisent les biais humains inconscients, accélèrent les processus de recrutement et améliorent l'objectivité des évaluations. De l'autre, des études — dont celle publiée par la DARES en novembre 2025 — montrent que les algorithmes entraînés sur des données historiques peuvent reproduire et amplifier des discriminations existantes (genre, âge, origine). L'AI Act tente de réconcilier ces deux impératifs, mais son efficacité dépendra largement de la qualité des contrôles exercés par les autorités nationales.

Points clés à retenir

Questions fréquentes

Mon employeur peut-il utiliser une IA pour décider de me licencier ?

Non, une décision de licenciement ne peut pas être entièrement déléguée à un algorithme. L'article 22 du RGPD et l'article 14 de l'AI Act imposent une supervision humaine effective sur toute décision produisant des effets juridiques significatifs. Un licenciement fondé exclusivement sur une recommandation algorithmique sans réexamen humain serait juridiquement contestable devant le Conseil de Prud'hommes.

Comment savoir si mon recrutement a été filtré par un algorithme ?

Vous pouvez exercer votre droit d'accès prévu à l'article 15 du RGPD en envoyant une demande écrite à l'employeur ou au recruteur. Celui-ci a 30 jours pour répondre et doit vous indiquer si un traitement automatisé a été utilisé et selon quelle logique générale. En cas de refus ou de non-réponse, vous pouvez saisir la CNIL.

Quelles sont les sanctions pour un employeur qui ne respecte pas l'AI Act en matière RH ?

Les sanctions prévues par l'AI Act pour non-conformité d'un système à haut risque peuvent atteindre 30 millions d'euros ou 6 % du chiffre d'affaires mondial annuel (le montant le plus élevé étant retenu). En France, la CNIL et le futur régulateur national désigné au titre de l'AI Act disposent du pouvoir de prononcer ces sanctions après enquête.

Le CSE a-t-il un rôle à jouer face aux algorithmes RH ?

Oui, le CSE dispose d'un droit de consultation préalable obligatoire sur tout déploiement d'outil technologique impactant les conditions de travail (article L. 2312-38 du Code du travail). Il peut se faire assister par un expert habilité et demander communication de la documentation technique du système d'IA. En cas de déploiement sans consultation, le CSE peut saisir le juge en référé pour faire suspendre l'outil.

Un algorithme de recrutement peut-il être discriminatoire ?

Oui, et c'est l'un des risques majeurs identifiés par les autorités. Un algorithme entraîné sur des données historiques peut reproduire des biais liés au genre, à l'âge ou à l'origine. Si un salarié ou candidat peut démontrer qu'un algorithme l'a traité défavorablement en raison d'un tel critère, il peut invoquer les articles L. 1132-1 et suivants du Code du travail relatifs aux discriminations, ainsi que l'article 1er de la loi n° 2008-496 du 27 mai 2008.

L'IA Act s'applique-t-il aux petites entreprises ?

Les PME et TPE ne sont pas exemptées de l'AI Act, mais bénéficient d'aménagements procéduraux (obligations allégées pour les micro-entreprises, accompagnement par les "bacs à sable réglementaires"). En revanche, si une PME déploie un système d'IA à haut risque en RH — y compris via un logiciel SaaS d'un éditeur tiers — les obligations de transparence et de supervision humaine s'appliquent pleinement.

Quelle est la différence entre le RGPD et l'AI Act pour les salariés ?

Le RGPD protège les données personnelles et interdit les décisions entièrement automatisées (article 22). L'AI Act va plus loin en imposant des obligations en amont : documentation, supervision humaine, transparence et gestion des risques avant le déploiement du système. Les deux textes sont complémentaires : le RGPD donne des droits d'accès et d'opposition, l'AI Act impose des garanties structurelles à l'employeur dès la conception et le déploiement de l'outil.

Peut-on contester une évaluation de performance réalisée avec une IA ?

Oui. Le salarié peut demander une explication sur la méthode d'évaluation (article L. 1222-3 du Code du travail), exercer son droit à une intervention humaine (article 22 §3 RGPD) et, si l'évaluation a servi de base à une décision défavorable (non-augmentation, rétrogradation), saisir le Conseil de Prud'hommes. La charge de la preuve en matière de discrimination est aménagée : le salarié n'a qu'à présenter des éléments laissant supposer une discrimination, à charge pour l'employeur de prouver le contraire.

Questions fréquentes

Quels outils RH sont concernés par l'AI Act en tant que systèmes à haut risque ?
Sont visés les logiciels de tri automatique de CV, les outils de scoring comportemental, les plateformes d'entretien vidéo analysées par algorithme et les systèmes de notation de performance, conformément à l'Annexe III, point 4 de l'AI Act.
À partir de quand les obligations de l'AI Act s'appliquent-elles aux employeurs ?
L'AI Act est entré en vigueur en août 2024, mais les dispositions relatives aux systèmes à haut risque, dont les outils RH algorithmiques, s'appliquent pleinement depuis février 2026.
Un employeur peut-il confier entièrement une décision d'embauche à un algorithme ?
Non. L'article 14 de l'AI Act impose une supervision humaine effective, et l'article 22 du RGPD interdit les décisions entièrement automatisées produisant des effets juridiques significatifs sur une personne, sauf exceptions strictement encadrées.
Quelles informations un salarié ou candidat peut-il exiger sur l'utilisation d'un algorithme RH ?
Avant toute évaluation, l'employeur doit fournir une information claire sur l'existence du système d'IA, sa logique générale de fonctionnement et les types de données traitées, conformément à l'article 13 de l'AI Act et à l'article 22 du RGPD.
La CNIL a-t-elle publié des recommandations sur les outils d'IA RH ?
Oui. En janvier 2026, la CNIL a précisé que tout outil d'IA RH doit faire l'objet d'une analyse d'impact relative à la protection des données (AIPD) systématique avant tout déploiement.

Sources