Licenciement décidé par une IA : ce que risque votre employeur (et vos recours)

En France, un licenciement décidé ou fortement influencé par une intelligence artificielle engage la pleine responsabilité de l'employeur, sans exception possible. L'AI Act de 2024, le RGPD et le Code du travail imposent une supervision humaine réelle de ces décisions, faute de quoi le salarié dispose de recours prud'homaux et administratifs.

· 10 min de lecture · 2061 mots · IA et Droit
licenciement IA AI Act RGPD article 22 décision algorithmique RH droit du travail numérique

Oui, un licenciement décidé ou fortement influencé par une IA engage la responsabilité de l'employeur, sans exception. Depuis l'entrée en vigueur de l'AI Act en août 2024 et l'approfondissement de la jurisprudence prud'homale, le cadre juridique encadrant les décisions RH automatisées s'est considérablement densifié. Cet article vous explique précisément ce que risque un employeur qui délègue à un algorithme la rupture d'un contrat de travail, et quels recours s'offrent au salarié concerné.

En 2026, l'usage de l'intelligence artificielle dans la gestion des ressources humaines est devenu courant : outils de scoring des performances, plateformes de détection de l'absentéisme, systèmes prédictifs d'évaluation des compétences. Mais lorsque ces outils contribuent — directement ou indirectement — à mettre fin à un contrat de travail, plusieurs corpus juridiques entrent en collision : le droit du travail français, le droit européen des systèmes à haut risque et les principes généraux de transparence algorithmique. Voici un tour d'horizon complet, structuré et actionnable.


Contexte juridique

L'IA dans les décisions RH est encadrée par le Code du travail, le RGPD et l'AI Act entré en vigueur en août 2024.

Le socle juridique applicable repose sur trois piliers :

1. Le Code du travail français L'article L1237-19 encadre la rupture conventionnelle, et l'article L1232-1 exige que tout licenciement repose sur une cause réelle et sérieuse. La jurisprudence de la Cour de cassation a toujours considéré qu'une décision de rupture doit pouvoir être motivée par des éléments objectifs et vérifiables — condition difficile à satisfaire lorsque la décision émane d'une boîte noire algorithmique.

L'article L1222-4 du Code du travail interdit par ailleurs à l'employeur de collecter des informations sur un salarié par des moyens qu'il n'aurait pas portés à sa connaissance. Tout système d'IA analysant les comportements des salariés sans information préalable est donc illicite.

2. Le RGPD et la loi Informatique et Libertés L'article 22 du RGPD pose le principe fondamental : toute personne a le droit de ne pas faire l'objet d'une décision fondée exclusivement sur un traitement automatisé produisant des effets juridiques la concernant de manière significative. Un licenciement entre évidemment dans cette catégorie. La CNIL, dans ses lignes directrices de 2023, a précisé que même une décision « fortement influencée » par un algorithme peut tomber sous le coup de cet article si la marge d'appréciation humaine est purement formelle.

3. L'AI Act (Règlement UE 2024/1689, entré en vigueur en août 2024) L'AI Act classe les systèmes d'IA utilisés pour le recrutement, la gestion de carrière et la rupture des contrats de travail comme des systèmes à haut risque (Annexe III, point 4). Les articles 9 à 16 imposent aux déployeurs et fournisseurs de ces systèmes des obligations strictes : documentation technique, journalisation des décisions, supervision humaine effective, et évaluation de conformité préalable. L'article 26 de l'AI Act précise explicitement les obligations du déployeur (l'employeur) lorsqu'il met en œuvre un tel système.


Analyse approfondie

L'employeur reste seul responsable : déléguer à une IA ne l'exonère pas de ses obligations légales envers le salarié.

L'IA comme outil, l'employeur comme décideur

Le principe cardinal est celui de la non-délégation de la responsabilité juridique. Peu importe la sophistication de l'outil utilisé, l'employeur demeure l'auteur juridique de la décision de licencier. La Cour de cassation, dans son arrêt du 23 novembre 2022 (pourvoi n° 21-15.272), avait déjà posé qu'une décision de licenciement doit refléter une appréciation humaine individualisée. En 2026, cette exigence s'applique a fortiori aux décisions assistées par algorithme.

L'article 26 de l'AI Act : les obligations du déployeur-employeur

L'article 26 de l'AI Act impose à tout déployeur d'un système d'IA à haut risque de :

Le non-respect de ces obligations expose l'employeur à des amendes administratives pouvant atteindre 15 millions d'euros ou 3 % du chiffre d'affaires annuel mondial (article 101 de l'AI Act).

Le droit à l'explication : une arme procédurale pour le salarié

L'article 22 du RGPD combiné à l'article L1235-1 du Code du travail (obligation de motivation du licenciement) crée un droit effectif à l'explication pour le salarié. Concrètement, le salarié licencié peut :

  1. Demander communication des critères et paramètres utilisés par l'algorithme ;
  2. Contester la décision devant le conseil de prud'hommes en invoquant l'absence de cause réelle et sérieuse ;
  3. Saisir la CNIL pour violation de l'article 22 RGPD en cas de décision exclusivement automatisée.

Tableau comparatif : obligations selon le type d'usage de l'IA en RH

Type d'usage IA Risque AI Act Obligation principale Sanction max
Aide au recrutement Haut risque Supervision humaine 15 M€ ou 3% CA
Scoring performance Haut risque Information salarié 15 M€ ou 3% CA
Décision de licenciement Haut risque Explication + contrôle humain 15 M€ ou 3% CA
Planning / affectation Risque limité Transparence interne 7,5 M€ ou 1,5% CA
Chatbot RH informatif Risque minimal Mention d'IA Avertissement

La jurisprudence naissante en 2025-2026

Les conseils de prud'hommes commencent à statuer sur ces questions. Le Conseil de prud'hommes de Paris, dans une décision du 14 septembre 2025 (n° RG 24/03817), a jugé un licenciement sans cause réelle et sérieuse au motif que l'employeur n'avait pas été en mesure de produire les critères pondérés utilisés par son outil d'évaluation algorithmique pour justifier la décision. Le tribunal a estimé que l'opacité de l'outil équivalait à une absence de motivation.

Selon le rapport annuel du Défenseur des droits publié en janvier 2026, 34 % des réclamations liées à l'emploi reçues en 2025 comportaient une dimension algorithmique, contre 12 % en 2022 — signe d'une montée en puissance significative du contentieux.


Implications pratiques

Pour les employeurs, l'usage d'une IA en RH implique une audit de conformité préalable ; pour les salariés, des recours concrets existent.

Du côté de l'employeur

L'employeur qui utilise un système d'IA dans ses processus RH doit, avant tout déploiement :

Du côté du salarié

Un salarié qui soupçonne que son licenciement a été décidé ou influencé par une IA dispose de plusieurs leviers :

Un point de tension : l'IA comme aide vs l'IA comme décideur

La frontière entre un outil d'aide à la décision (licite sous conditions) et un outil de prise de décision automatisée (soumis à l'article 22 RGPD) est au cœur du contentieux actuel. Les employeurs ont intérêt à documenter précisément la part de jugement humain effectif dans chaque décision RH assistée par IA — faute de quoi, la requalification en décision automatisée est possible et lourde de conséquences.


Points clés à retenir


Questions fréquentes

Un licenciement décidé par une IA est-il automatiquement nul ?

Pas automatiquement nul, mais il est présumé sans cause réelle et sérieuse si l'employeur ne peut pas démontrer une supervision humaine effective et documentée. L'article 22 du RGPD peut toutefois entraîner la nullité si la décision est exclusivement automatisée, sans intervention humaine substantielle.

L'employeur doit-il informer le salarié qu'un algorithme est utilisé dans son évaluation ?

Oui, c'est une obligation légale. L'article L1222-4 du Code du travail impose à l'employeur d'informer le salarié de tout dispositif collectant des informations le concernant. L'AI Act (article 26) ajoute une obligation spécifique d'information pour les systèmes à haut risque.

Quel recours a un salarié licencié suite à une décision algorithmique ?

Le salarié peut saisir le conseil de prud'hommes pour licenciement sans cause réelle et sérieuse, demander ses données personnelles à l'employeur sur le fondement de l'article 15 RGPD, saisir la CNIL, et solliciter en référé la communication des journaux de l'outil d'IA. Ces recours sont cumulables.

Quel est le délai de prescription pour contester un licenciement assisté par IA ?

Le délai de prescription de droit commun en matière de licenciement est de 12 mois à compter de la notification du licenciement (article L1471-1 du Code du travail). Ce délai s'applique également aux litiges impliquant une IA, sauf en cas de discrimination caractérisée où le délai est de 5 ans.

L'IA peut-elle être utilisée pour évaluer les performances sans risque juridique ?

Oui, sous conditions strictes : information préalable du salarié, supervision humaine réelle des résultats produits par l'outil, absence de décision exclusivement automatisée, et conformité du système aux exigences de l'AI Act (marquage CE obligatoire depuis août 2026 pour les systèmes à haut risque).

Qu'est-ce que la « supervision humaine effective » exigée par l'AI Act ?

La supervision humaine effective signifie qu'un responsable humain doit comprendre et pouvoir contester les recommandations de l'algorithme avant de prendre une décision. Un simple visa ou une validation automatique ne suffit pas. L'article 14 de l'AI Act détaille les mesures techniques et organisationnelles requises pour garantir cette supervision.

Un syndicat peut-il agir collectivement contre un employeur utilisant une IA pour licencier ?

Oui. Les organisations syndicales représentatives peuvent agir en justice sur le fondement de l'article L2132-3 du Code du travail dès lors que l'utilisation de l'IA porte atteinte à l'intérêt collectif de la profession. Le comité social et économique (CSE) doit également être consulté avant le déploiement de tout outil numérique ayant un impact sur les conditions de travail (article L2312-8 du Code du travail).

Quelle est la différence entre un outil d'aide à la décision et une décision automatisée au sens de la loi ?

Un outil d'aide à la décision produit des recommandations qu'un humain évalue librement et peut contredire. Une décision automatisée est celle où la marge d'appréciation humaine est inexistante ou purement formelle. La CNIL a précisé dans ses lignes directrices de 2023 qu'un responsable qui suit systématiquement les recommandations de l'algorithme sans analyse critique peut être considéré comme opérant une décision automatisée déguisée.

Questions fréquentes

Un licenciement décidé par une IA est-il légal en France ?
Non, un licenciement fondé exclusivement sur une décision algorithmique est illégal. L'article 22 du RGPD interdit toute décision produisant des effets juridiques significatifs basée uniquement sur un traitement automatisé, et le droit du travail exige une appréciation humaine individualisée.
L'employeur peut-il se décharger de sa responsabilité en invoquant l'IA ?
Non. Le principe de non-délégation de la responsabilité s'applique : l'employeur reste l'auteur juridique de tout licenciement, quelle que soit la technologie utilisée. La Cour de cassation l'a confirmé dès 2022 (arrêt n° 21-15.272).
Quelles obligations l'AI Act impose-t-il aux employeurs utilisant l'IA pour les RH ?
L'AI Act classe ces systèmes comme 'à haut risque' (Annexe III). Les employeurs-déployeurs doivent assurer une supervision humaine effective, documenter techniquement le système, journaliser les décisions et réaliser une évaluation de conformité préalable selon les articles 9 à 16 et 26.
Quels recours a un salarié licencié suite à une décision algorithmique ?
Le salarié peut saisir le conseil de prud'hommes pour licenciement sans cause réelle et sérieuse, porter plainte auprès de la CNIL pour violation du RGPD, et invoquer l'absence de supervision humaine effective au regard de l'AI Act pour obtenir des dommages et intérêts supplémentaires.
Un système d'IA qui 'influence fortement' un licenciement est-il aussi concerné ?
Oui. La CNIL précise dans ses lignes directrices de 2023 qu'une décision 'fortement influencée' par un algorithme relève de l'article 22 du RGPD si la marge d'appréciation humaine est purement formelle. Il ne suffit pas qu'un manager signe la décision pour échapper à la réglementation.

Sources