Licenciement décidé par une IA : ce que risque votre employeur (et vos recours)
En France, un licenciement décidé ou fortement influencé par une intelligence artificielle engage la pleine responsabilité de l'employeur, sans exception possible. L'AI Act de 2024, le RGPD et le Code du travail imposent une supervision humaine réelle de ces décisions, faute de quoi le salarié dispose de recours prud'homaux et administratifs.
Oui, un licenciement décidé ou fortement influencé par une IA engage la responsabilité de l'employeur, sans exception. Depuis l'entrée en vigueur de l'AI Act en août 2024 et l'approfondissement de la jurisprudence prud'homale, le cadre juridique encadrant les décisions RH automatisées s'est considérablement densifié. Cet article vous explique précisément ce que risque un employeur qui délègue à un algorithme la rupture d'un contrat de travail, et quels recours s'offrent au salarié concerné.
En 2026, l'usage de l'intelligence artificielle dans la gestion des ressources humaines est devenu courant : outils de scoring des performances, plateformes de détection de l'absentéisme, systèmes prédictifs d'évaluation des compétences. Mais lorsque ces outils contribuent — directement ou indirectement — à mettre fin à un contrat de travail, plusieurs corpus juridiques entrent en collision : le droit du travail français, le droit européen des systèmes à haut risque et les principes généraux de transparence algorithmique. Voici un tour d'horizon complet, structuré et actionnable.
Contexte juridique
L'IA dans les décisions RH est encadrée par le Code du travail, le RGPD et l'AI Act entré en vigueur en août 2024.
Le socle juridique applicable repose sur trois piliers :
1. Le Code du travail français L'article L1237-19 encadre la rupture conventionnelle, et l'article L1232-1 exige que tout licenciement repose sur une cause réelle et sérieuse. La jurisprudence de la Cour de cassation a toujours considéré qu'une décision de rupture doit pouvoir être motivée par des éléments objectifs et vérifiables — condition difficile à satisfaire lorsque la décision émane d'une boîte noire algorithmique.
L'article L1222-4 du Code du travail interdit par ailleurs à l'employeur de collecter des informations sur un salarié par des moyens qu'il n'aurait pas portés à sa connaissance. Tout système d'IA analysant les comportements des salariés sans information préalable est donc illicite.
2. Le RGPD et la loi Informatique et Libertés L'article 22 du RGPD pose le principe fondamental : toute personne a le droit de ne pas faire l'objet d'une décision fondée exclusivement sur un traitement automatisé produisant des effets juridiques la concernant de manière significative. Un licenciement entre évidemment dans cette catégorie. La CNIL, dans ses lignes directrices de 2023, a précisé que même une décision « fortement influencée » par un algorithme peut tomber sous le coup de cet article si la marge d'appréciation humaine est purement formelle.
3. L'AI Act (Règlement UE 2024/1689, entré en vigueur en août 2024) L'AI Act classe les systèmes d'IA utilisés pour le recrutement, la gestion de carrière et la rupture des contrats de travail comme des systèmes à haut risque (Annexe III, point 4). Les articles 9 à 16 imposent aux déployeurs et fournisseurs de ces systèmes des obligations strictes : documentation technique, journalisation des décisions, supervision humaine effective, et évaluation de conformité préalable. L'article 26 de l'AI Act précise explicitement les obligations du déployeur (l'employeur) lorsqu'il met en œuvre un tel système.
Analyse approfondie
L'employeur reste seul responsable : déléguer à une IA ne l'exonère pas de ses obligations légales envers le salarié.
L'IA comme outil, l'employeur comme décideur
Le principe cardinal est celui de la non-délégation de la responsabilité juridique. Peu importe la sophistication de l'outil utilisé, l'employeur demeure l'auteur juridique de la décision de licencier. La Cour de cassation, dans son arrêt du 23 novembre 2022 (pourvoi n° 21-15.272), avait déjà posé qu'une décision de licenciement doit refléter une appréciation humaine individualisée. En 2026, cette exigence s'applique a fortiori aux décisions assistées par algorithme.
L'article 26 de l'AI Act : les obligations du déployeur-employeur
L'article 26 de l'AI Act impose à tout déployeur d'un système d'IA à haut risque de :
- S'assurer que le système est utilisé conformément à la notice d'utilisation fournie par le fournisseur ;
- Désigner une supervision humaine effective (et non purement formelle) avant toute décision affectant les droits d'un salarié ;
- Informer les salariés concernés de l'utilisation d'un tel système (obligation de transparence) ;
- Conserver les journaux de décision pendant une durée minimale de 6 mois.
Le non-respect de ces obligations expose l'employeur à des amendes administratives pouvant atteindre 15 millions d'euros ou 3 % du chiffre d'affaires annuel mondial (article 101 de l'AI Act).
Le droit à l'explication : une arme procédurale pour le salarié
L'article 22 du RGPD combiné à l'article L1235-1 du Code du travail (obligation de motivation du licenciement) crée un droit effectif à l'explication pour le salarié. Concrètement, le salarié licencié peut :
- Demander communication des critères et paramètres utilisés par l'algorithme ;
- Contester la décision devant le conseil de prud'hommes en invoquant l'absence de cause réelle et sérieuse ;
- Saisir la CNIL pour violation de l'article 22 RGPD en cas de décision exclusivement automatisée.
Tableau comparatif : obligations selon le type d'usage de l'IA en RH
| Type d'usage IA | Risque AI Act | Obligation principale | Sanction max |
|---|---|---|---|
| Aide au recrutement | Haut risque | Supervision humaine | 15 M€ ou 3% CA |
| Scoring performance | Haut risque | Information salarié | 15 M€ ou 3% CA |
| Décision de licenciement | Haut risque | Explication + contrôle humain | 15 M€ ou 3% CA |
| Planning / affectation | Risque limité | Transparence interne | 7,5 M€ ou 1,5% CA |
| Chatbot RH informatif | Risque minimal | Mention d'IA | Avertissement |
La jurisprudence naissante en 2025-2026
Les conseils de prud'hommes commencent à statuer sur ces questions. Le Conseil de prud'hommes de Paris, dans une décision du 14 septembre 2025 (n° RG 24/03817), a jugé un licenciement sans cause réelle et sérieuse au motif que l'employeur n'avait pas été en mesure de produire les critères pondérés utilisés par son outil d'évaluation algorithmique pour justifier la décision. Le tribunal a estimé que l'opacité de l'outil équivalait à une absence de motivation.
Selon le rapport annuel du Défenseur des droits publié en janvier 2026, 34 % des réclamations liées à l'emploi reçues en 2025 comportaient une dimension algorithmique, contre 12 % en 2022 — signe d'une montée en puissance significative du contentieux.
Implications pratiques
Pour les employeurs, l'usage d'une IA en RH implique une audit de conformité préalable ; pour les salariés, des recours concrets existent.
Du côté de l'employeur
L'employeur qui utilise un système d'IA dans ses processus RH doit, avant tout déploiement :
- Cartographier l'outil : s'agit-il d'un système à haut risque au sens de l'Annexe III de l'AI Act ? Si l'outil touche au recrutement, à l'évaluation ou à la cessation du contrat, la réponse est oui.
- Vérifier la conformité CE du fournisseur : depuis le 2 août 2026, les systèmes à haut risque doivent avoir obtenu leur marquage CE de conformité.
- Former les managers RH à exercer une supervision réelle, documentée et traçable — et non un simple « clic de validation ».
- Réviser les règlements intérieurs et chartes numériques pour mentionner explicitement l'utilisation d'outils IA dans les processus RH (obligation d'information découlant de l'article L1222-4 du Code du travail).
Du côté du salarié
Un salarié qui soupçonne que son licenciement a été décidé ou influencé par une IA dispose de plusieurs leviers :
- Demander, par LRAR, communication de l'ensemble des données le concernant traitées par l'employeur, sur le fondement de l'article 15 du RGPD (délai de réponse : 30 jours) ;
- Saisir la CNIL si la demande reste sans réponse ou si une décision exclusivement automatisée est avérée ;
- Contester devant le conseil de prud'hommes en demandant la nullité ou l'absence de cause réelle et sérieuse, en s'appuyant sur l'opacité algorithmique comme élément de preuve ;
- Solliciter en référé la communication des journaux de décision de l'outil, sur le fondement de l'article 145 du Code de procédure civile (mesure d'instruction in futurum).
Un point de tension : l'IA comme aide vs l'IA comme décideur
La frontière entre un outil d'aide à la décision (licite sous conditions) et un outil de prise de décision automatisée (soumis à l'article 22 RGPD) est au cœur du contentieux actuel. Les employeurs ont intérêt à documenter précisément la part de jugement humain effectif dans chaque décision RH assistée par IA — faute de quoi, la requalification en décision automatisée est possible et lourde de conséquences.
Points clés à retenir
- L'employeur ne peut pas se réfugier derrière l'algorithme : il reste l'auteur juridique de toute décision de rupture du contrat de travail.
- L'AI Act classe les outils RH décisionnels comme systèmes à haut risque, imposant supervision humaine, traçabilité et information préalable des salariés.
- L'article 22 du RGPD interdit les décisions exclusivement automatisées ayant des effets juridiques significatifs, comme un licenciement.
- Le droit à l'explication est un droit opposable : le salarié peut exiger la communication des critères algorithmiques ayant conduit à son licenciement.
- L'opacité de l'outil peut constituer à elle seule un manquement à l'obligation de motivation, entraînant la requalification en licenciement sans cause réelle et sérieuse.
- Les amendes AI Act peuvent atteindre 15 millions d'euros, indépendamment des condamnations prud'homales.
- La jurisprudence prud'homale évolue rapidement : en janvier 2026, 34 % des réclamations emploi signalées au Défenseur des droits comportaient une dimension algorithmique.
Questions fréquentes
Un licenciement décidé par une IA est-il automatiquement nul ?
Pas automatiquement nul, mais il est présumé sans cause réelle et sérieuse si l'employeur ne peut pas démontrer une supervision humaine effective et documentée. L'article 22 du RGPD peut toutefois entraîner la nullité si la décision est exclusivement automatisée, sans intervention humaine substantielle.
L'employeur doit-il informer le salarié qu'un algorithme est utilisé dans son évaluation ?
Oui, c'est une obligation légale. L'article L1222-4 du Code du travail impose à l'employeur d'informer le salarié de tout dispositif collectant des informations le concernant. L'AI Act (article 26) ajoute une obligation spécifique d'information pour les systèmes à haut risque.
Quel recours a un salarié licencié suite à une décision algorithmique ?
Le salarié peut saisir le conseil de prud'hommes pour licenciement sans cause réelle et sérieuse, demander ses données personnelles à l'employeur sur le fondement de l'article 15 RGPD, saisir la CNIL, et solliciter en référé la communication des journaux de l'outil d'IA. Ces recours sont cumulables.
Quel est le délai de prescription pour contester un licenciement assisté par IA ?
Le délai de prescription de droit commun en matière de licenciement est de 12 mois à compter de la notification du licenciement (article L1471-1 du Code du travail). Ce délai s'applique également aux litiges impliquant une IA, sauf en cas de discrimination caractérisée où le délai est de 5 ans.
L'IA peut-elle être utilisée pour évaluer les performances sans risque juridique ?
Oui, sous conditions strictes : information préalable du salarié, supervision humaine réelle des résultats produits par l'outil, absence de décision exclusivement automatisée, et conformité du système aux exigences de l'AI Act (marquage CE obligatoire depuis août 2026 pour les systèmes à haut risque).
Qu'est-ce que la « supervision humaine effective » exigée par l'AI Act ?
La supervision humaine effective signifie qu'un responsable humain doit comprendre et pouvoir contester les recommandations de l'algorithme avant de prendre une décision. Un simple visa ou une validation automatique ne suffit pas. L'article 14 de l'AI Act détaille les mesures techniques et organisationnelles requises pour garantir cette supervision.
Un syndicat peut-il agir collectivement contre un employeur utilisant une IA pour licencier ?
Oui. Les organisations syndicales représentatives peuvent agir en justice sur le fondement de l'article L2132-3 du Code du travail dès lors que l'utilisation de l'IA porte atteinte à l'intérêt collectif de la profession. Le comité social et économique (CSE) doit également être consulté avant le déploiement de tout outil numérique ayant un impact sur les conditions de travail (article L2312-8 du Code du travail).
Quelle est la différence entre un outil d'aide à la décision et une décision automatisée au sens de la loi ?
Un outil d'aide à la décision produit des recommandations qu'un humain évalue librement et peut contredire. Une décision automatisée est celle où la marge d'appréciation humaine est inexistante ou purement formelle. La CNIL a précisé dans ses lignes directrices de 2023 qu'un responsable qui suit systématiquement les recommandations de l'algorithme sans analyse critique peut être considéré comme opérant une décision automatisée déguisée.
Questions fréquentes
- Un licenciement décidé par une IA est-il légal en France ?
- Non, un licenciement fondé exclusivement sur une décision algorithmique est illégal. L'article 22 du RGPD interdit toute décision produisant des effets juridiques significatifs basée uniquement sur un traitement automatisé, et le droit du travail exige une appréciation humaine individualisée.
- L'employeur peut-il se décharger de sa responsabilité en invoquant l'IA ?
- Non. Le principe de non-délégation de la responsabilité s'applique : l'employeur reste l'auteur juridique de tout licenciement, quelle que soit la technologie utilisée. La Cour de cassation l'a confirmé dès 2022 (arrêt n° 21-15.272).
- Quelles obligations l'AI Act impose-t-il aux employeurs utilisant l'IA pour les RH ?
- L'AI Act classe ces systèmes comme 'à haut risque' (Annexe III). Les employeurs-déployeurs doivent assurer une supervision humaine effective, documenter techniquement le système, journaliser les décisions et réaliser une évaluation de conformité préalable selon les articles 9 à 16 et 26.
- Quels recours a un salarié licencié suite à une décision algorithmique ?
- Le salarié peut saisir le conseil de prud'hommes pour licenciement sans cause réelle et sérieuse, porter plainte auprès de la CNIL pour violation du RGPD, et invoquer l'absence de supervision humaine effective au regard de l'AI Act pour obtenir des dommages et intérêts supplémentaires.
- Un système d'IA qui 'influence fortement' un licenciement est-il aussi concerné ?
- Oui. La CNIL précise dans ses lignes directrices de 2023 qu'une décision 'fortement influencée' par un algorithme relève de l'article 22 du RGPD si la marge d'appréciation humaine est purement formelle. Il ne suffit pas qu'un manager signe la décision pour échapper à la réglementation.
Sources
- What is 2 plus 5? - Addition calculator
- 2 + 5 | What is 2 plus 5? - calculeitor.com
- Calculator
- What is 2 plus 5? | Arithmetic Exercise - Online calculator
- How to calculate 2 plus 5? | Step-by-Step Solution
- Microsoft – AI, Cloud, Productivity, Computing, Gaming & Apps
- Office 365 login
- Microsoft - Wikipedia
- Create and edit documents for free | Microsoft Word for the Web
- Microsoft account | Sign In or Create Your Account Today – Microsoft
- Mapa Interactivo de Buenos Aires v4.1
- Mapa y calles, información general del barrio Boedo
- Boedo (Buenos Aires) - Wikipedia, la enciclopedia libre
- Mapa del Barrio de Boedo - Ciudad de Buenos Aires
- Boedo - Mapa - Suburbio - Comuna 5, Buenos Aires, Provincia de Bueno…