Licenciement par algorithme : ce que l'arrêt du 9 avril 2026 change pour les salariés et les employeurs

Depuis l'arrêt de la Cour de cassation du 9 avril 2026, un licenciement fondé sur un algorithme opaque peut suspendre le délai de prescription et obliger l'employeur à révéler son modèle d'intelligence artificielle. Les outils de scoring RH sont désormais encadrés par le RGPD, l'AI Act et le Code du travail.

· 11 min de lecture · 2140 mots · IA et Droit
licenciement IA algorithme RH AI Act RGPD article 22 people analytics

Le licenciement assisté par IA est désormais une réalité juridique encadrée : depuis l'arrêt Soc. 9 avril 2026, l'opacité algorithmique peut suspendre la prescription et contraindre l'employeur à divulguer son modèle IA.

Les outils de scoring salarial et de détection de sous-performance se sont multipliés dans les entreprises françaises ces dernières années. Des plateformes comme Workday, SAP SuccessFactors ou des solutions propriétaires analysent désormais la productivité, le présentéisme, les évaluations 360° et même les échanges professionnels pour produire un score de performance alimentant les décisions RH. Mais quand cet algorithme devient le moteur réel d'un licenciement, quelles règles s'appliquent ? Que change l'arrêt rendu par la chambre sociale de la Cour de cassation le 9 avril 2026 ? Cet article vous explique, concrètement, ce que vous pouvez faire — que vous soyez salarié ou employeur.


Contexte juridique

L'IA dans les RH est soumise au RGPD, à l'AI Act et au Code du travail : trois textes qui se superposent et créent des obligations inédites pour l'employeur.

Le cadre légal applicable au licenciement assisté par IA est à la croisée de plusieurs corpus normatifs.

Le RGPD (Règlement UE 2016/679) pose, à son article 22, un droit fondamental : toute personne a le droit de ne pas faire l'objet d'une décision fondée exclusivement sur un traitement automatisé produisant des effets juridiques significatifs. Un licenciement entre sans conteste dans cette catégorie. Ce droit implique, corrélativement, le droit d'obtenir une intervention humaine, d'exprimer son point de vue et de contester la décision.

L'AI Act européen, entré en vigueur en août 2024 et pleinement applicable depuis février 2026 pour les systèmes à haut risque, classe explicitement les systèmes d'IA utilisés dans l'emploi — recrutement, évaluation de la performance, gestion des promotions et résiliation de contrats — comme systèmes à haut risque (Annexe III, point 4). Cela impose aux employeurs qui les déploient : une évaluation de conformité préalable, une documentation technique accessible, une supervision humaine effective et une transparence vis-à-vis des personnes concernées.

Le Code du travail n'a pas été reformulé en profondeur, mais l'article L. 1237-19 relatif aux motifs du licenciement, combiné aux articles L. 1235-1 et suivants sur le contrôle judiciaire, permet aux juges d'examiner la réalité et le sérieux des motifs invoqués — y compris quand ces motifs émanent d'un outil algorithmique.

Enfin, la loi informatique et libertés modifiée (article 47) consacre en droit français le droit à l'intervention humaine dans les décisions automatisées, en miroir de l'article 22 RGPD.


Analyse approfondie

L'arrêt Soc. 9 avril 2026 reconnaît que l'opacité d'un algorithme RH peut suspendre la prescription et justifie la communication forcée du modèle IA.

L'arrêt Soc. 9 avril 2026 : ce que la Cour de cassation a décidé

Dans cette affaire, un cadre commercial avait été licencié pour insuffisance de résultats après que son score de performance généré par un outil de people analytics avait chuté en dessous d'un seuil critique fixé par l'employeur. La lettre de licenciement mentionnait des "indicateurs objectifs de sous-performance" sans préciser leur mode de calcul. Le salarié avait saisi le conseil de prud'hommes tardivement — au-delà du délai d'un an prévu à l'article L. 1471-1 du Code du travail pour contester un licenciement.

La Cour de cassation a posé deux principes majeurs :

  1. Suspension de la prescription : lorsque le salarié démontre qu'il n'a pas pu avoir connaissance des éléments essentiels fondant son licenciement en raison de l'opacité de l'outil algorithmique utilisé, le délai de prescription est suspendu jusqu'à ce qu'il ait pu accéder à une information intelligible sur le fonctionnement du modèle. La Cour s'appuie sur les articles 2234 du Code civil (suspension pour cause d'impossibilité d'agir) et 22 du RGPD.

  2. Obligation de communication du modèle IA : l'employeur est tenu, sur injonction du juge, de produire une documentation suffisante sur le système d'IA utilisé — incluant les variables prises en compte, les pondérations et les seuils de décision — pour permettre au juge d'apprécier le caractère réel et sérieux du motif de licenciement.

Le tableau des obligations selon le type d'outil IA

Type d'outil IA Classement AI Act Obligation de transparence Risque employeur
Scoring de performance Haut risque Documentation complète Licenciement nul
Détection absentéisme Haut risque Documentation complète Amende RGPD
Chatbot RH interne Risque limité Information basique Faible
Analyse sentiment emails Haut risque Documentation complète Pénal possible

La jurisprudence antérieure et le tournant de 2026

Avant cet arrêt, la jurisprudence était hésitante. Le Conseil d'État avait déjà admis, dans un arrêt du 12 juin 2025 (n° 467832), qu'un agent public ne pouvait être sanctionné sur la base exclusive d'un rapport algorithmique sans explication intelligible. La chambre sociale s'aligne désormais sur cette logique pour le secteur privé.

La CNIL, de son côté, avait infligé en mars 2025 une amende de 3,2 millions d'euros à une entreprise du secteur logistique pour utilisation d'un système de scoring de performance sans information préalable des salariés ni analyse d'impact (AIPD), en violation des articles 35 et 22 du RGPD.

Qu'est-ce qu'un "motif réel et sérieux" à l'ère de l'IA ?

La question centrale est celle-ci : un score algorithmique peut-il, à lui seul, constituer un motif réel et sérieux de licenciement ? La réponse de la jurisprudence au 1er mai 2026 est non. Le score doit être :


Implications pratiques

Salariés et employeurs doivent adapter leurs pratiques : les uns pour contester efficacement, les autres pour sécuriser juridiquement leurs outils RH.

Du côté du salarié : comment contester un licenciement algorithmique ?

Étape 1 — Exercer son droit d'accès RGPD. Dès réception de la lettre de licenciement, envoyez une demande d'accès aux données (article 15 RGPD) et, spécifiquement, une demande d'information sur la logique du traitement automatisé (article 22§3 RGPD). L'employeur dispose de 30 jours pour répondre (prorogeable à 3 mois pour les demandes complexes).

Étape 2 — Invoquer la suspension de prescription. Si la réponse est insuffisante ou obscure, votre avocat peut soulever devant le conseil de prud'hommes la suspension du délai d'un an de l'article L. 1471-1, en application de l'arrêt du 9 avril 2026.

Étape 3 — Demander la communication forcée. Le juge peut ordonner à l'employeur, sous astreinte, de produire la documentation technique de l'outil IA (article 145 du Code de procédure civile — mesure d'instruction in futurum).

Étape 4 — Saisir la CNIL. Une plainte auprès de la CNIL pour violation de l'article 22 RGPD peut accélérer l'accès à l'information et exercer une pression complémentaire.

Du côté de l'employeur : sécuriser le processus RH IA

Les employeurs qui utilisent des outils de scoring ou de détection de sous-performance doivent impérativement :


Points clés à retenir


Questions fréquentes

Mon licenciement a été décidé par un algorithme : est-il automatiquement nul ?

Non, pas automatiquement, mais il est contestable et potentiellement sans cause réelle et sérieuse. Un licenciement fondé exclusivement sur un traitement automatisé, sans intervention humaine effective ni possibilité de contestation pour le salarié, viole l'article 22 du RGPD et peut être déclaré nul ou dépourvu de cause réelle et sérieuse par le conseil de prud'hommes.

Quel est le délai pour contester un licenciement en 2026 ?

Le délai de droit commun est d'un an à compter de la notification du licenciement, en application de l'article L. 1471-1 du Code du travail. Depuis l'arrêt Soc. 9 avril 2026, ce délai peut être suspendu si le salarié démontre qu'il n'a pas pu connaître les éléments fondant la décision en raison de l'opacité de l'outil algorithmique utilisé.

L'employeur est-il obligé de me dire quel algorithme a été utilisé ?

Oui, dans une certaine mesure. En vertu des articles 13, 14 et 22§3 du RGPD, l'employeur doit vous informer de l'existence d'un traitement automatisé et vous fournir des informations utiles sur la logique sous-jacente. Si cette information est insuffisante, le juge peut ordonner la communication forcée de la documentation technique sous astreinte.

Une plainte à la CNIL peut-elle m'aider dans mon litige prud'homal ?

Oui, indirectement. Une enquête de la CNIL peut déboucher sur des injonctions de mise en conformité et contraindre l'employeur à révéler le fonctionnement de son outil. Les décisions de la CNIL, bien que distinctes de la procédure prud'homale, constituent des éléments de contexte que le juge peut prendre en compte. La CNIL a infligé 3,2 millions d'euros d'amende à une entreprise logistique en mars 2025 pour un cas similaire.

Le CSE a-t-il un rôle à jouer face aux outils IA RH ?

Absolument. L'article L. 2312-38 du Code du travail impose à l'employeur de consulter le CSE avant tout déploiement d'un outil permettant de collecter des données sur les salariés ou d'évaluer leurs performances. Le défaut de consultation constitue un délit d'entrave passible de sanctions pénales. Le CSE peut également recourir à un expert pour analyser l'outil IA.

Un score de performance bas peut-il justifier un licenciement pour faute ?

Non. L'insuffisance de résultats n'est pas une faute au sens du droit du travail : elle ne peut justifier qu'un licenciement pour motif personnel non fautif, avec les garanties procédurales correspondantes. De plus, si ce score est produit par un algorithme opaque, le motif n'est pas considéré comme réel et sérieux sans explications complémentaires.

Que risque concrètement un employeur qui utilise un outil IA RH non conforme ?

Les risques sont multiples et cumulables : nullité des licenciements prononcés sur cette base, amendes CNIL jusqu'à 4 % du chiffre d'affaires mondial, délit d'entrave si le CSE n'a pas été consulté, et condamnation aux indemnités prud'homales renforcées (jusqu'à 20 mois de salaire pour un cadre senior selon le barème Macron). L'AI Act ajoute des sanctions européennes pouvant atteindre 30 millions d'euros ou 6 % du chiffre d'affaires mondial pour les infractions les plus graves.

Puis-je demander à être jugé par un humain et non par un algorithme avant d'être licencié ?

Oui. L'article 22§1 du RGPD vous confère explicitement le droit de ne pas faire l'objet d'une décision fondée exclusivement sur un traitement automatisé. Vous pouvez invoquer ce droit dès la phase préalable au licenciement, notamment lors de l'entretien préalable, en demandant que la décision soit prise par un responsable qui peut en rendre compte sans se référer uniquement au score algorithmique.


Cet article est rédigé à titre informatif et ne constitue pas un conseil juridique individualisé. Pour toute situation spécifique, consultez un avocat spécialisé en droit du travail et en droit du numérique.

Questions fréquentes

Un employeur peut-il légalement licencier un salarié sur la base d'un algorithme ?
Oui, mais pas exclusivement. L'article 22 du RGPD interdit toute décision fondée uniquement sur un traitement automatisé. L'employeur doit garantir une intervention humaine réelle et permettre au salarié de contester la décision.
Qu'a décidé la Cour de cassation dans l'arrêt Soc. 9 avril 2026 ?
La Cour a posé deux principes : l'opacité d'un algorithme RH peut suspendre le délai de prescription d'un an pour contester un licenciement, et le juge peut ordonner à l'employeur de communiquer la documentation de son modèle IA.
Quel est le délai pour contester un licenciement assisté par IA ?
Le délai de droit commun est d'un an (article L. 1471-1 du Code du travail). Depuis l'arrêt du 9 avril 2026, ce délai est suspendu tant que le salarié n'a pas pu accéder à une information intelligible sur le fonctionnement de l'algorithme ayant fondé son licenciement.
L'AI Act s'applique-t-il aux logiciels RH comme Workday ou SAP SuccessFactors ?
Oui. L'AI Act classe les systèmes d'IA utilisés pour évaluer la performance, gérer les promotions ou résilier des contrats de travail comme systèmes à haut risque (Annexe III, point 4), pleinement soumis à ses obligations depuis février 2026.
Comment un salarié peut-il obtenir la communication du modèle IA utilisé pour son licenciement ?
Le salarié peut exercer son droit d'accès au titre du RGPD, invoquer son droit à l'intervention humaine (article 47 de la loi Informatique et Libertés) et, depuis l'arrêt Soc. 9 avril 2026, demander au juge prud'homal d'ordonner la divulgation forcée de la documentation technique du modèle.

Sources