IA des assureurs et préjudice corporel : comment contester une indemnisation sous-évaluée par un algorithme ?
Les algorithmes d'intelligence artificielle utilisés par les assureurs pour évaluer le préjudice corporel tendent à sous-estimer les indemnisations dues aux victimes, de manière opaque et potentiellement biaisée. L'AI Act européen, le RGPD et la loi Badinter offrent des leviers juridiques concrets pour contester ces évaluations automatisées.
Par Joëlle Marteau-Péretié, Avocate
Les algorithmes d'IA utilisés par les assureurs pour évaluer le préjudice corporel tendent à sous-estimer systématiquement les indemnisations dues aux victimes. Ce phénomène, encore largement méconnu du grand public, s'est considérablement accéléré depuis l'entrée en vigueur de l'AI Act européen en août 2024 — une réglementation censée protéger les citoyens, mais dont l'application dans le secteur assurantiel reste insuffisamment contrôlée à ce jour.
En 2026, les grandes compagnies d'assurance françaises et européennes ont massivement intégré des outils d'intelligence artificielle dans leurs processus de gestion des sinistres corporels. Ces systèmes analysent des milliers de variables — antécédents médicaux, données socio-démographiques, jurisprudence passée — pour proposer, voire imposer, un chiffrage de l'indemnisation. Le problème ? Ces outils sont opaques, potentiellement biaisés, et conçus dans l'intérêt économique de l'assureur, et non de la victime.
Dans cet article, je vous explique comment ces algorithmes fonctionnent, sur quels textes vous appuyer pour les contester, et quels recours sont à votre disposition si vous êtes victime d'un dommage corporel mal indemnisé.
Contexte juridique
Les outils d'IA appliqués à l'évaluation du préjudice corporel constituent des systèmes à "haut risque" selon l'AI Act européen.
L'encadrement juridique de l'IA dans le secteur des assurances repose sur plusieurs textes qui se superposent et interagissent de manière complexe.
L'AI Act (Règlement UE 2024/1689), entré en vigueur en août 2024 et progressivement applicable jusqu'en 2026, classe les systèmes d'IA utilisés pour l'évaluation des demandes d'indemnisation comme des systèmes à haut risque (Annexe III, point 5). À ce titre, ils sont soumis à des obligations renforcées : documentation technique, journalisation automatique, supervision humaine, transparence vis-à-vis des personnes concernées.
En droit français, plusieurs dispositions s'appliquent en parallèle :
- L'article L. 385-2 du Code des assurances impose aux assureurs une obligation d'information loyale envers les assurés et les tiers victimes.
- L'article 22 du RGPD (Règlement UE 2016/679) interdit les décisions individuelles entièrement automatisées produisant des effets juridiques ou affectant significativement une personne, sauf exceptions encadrées.
- L'article L. 114-21 du Code des assurances, issu de la loi n° 2022-172, impose désormais à l'assureur de mentionner l'utilisation d'un traitement automatisé dans toute offre d'indemnisation.
- La loi Badinter du 5 juillet 1985 (loi n° 85-677) demeure le socle de l'indemnisation des victimes d'accidents de la circulation, et aucun algorithme ne peut légalement minorer les postes de préjudice qu'elle protège.
Le Comité européen de la protection des données (CEPD) a publié en janvier 2025 des lignes directrices spécifiques sur l'IA dans les assurances, soulignant que "le droit à l'explication doit être effectif, et non purement formel".
Analyse approfondie
Les biais algorithmiques dans l'évaluation du préjudice corporel peuvent pénaliser certaines catégories de victimes de manière systématique et invisible.
Comment fonctionne concrètement l'IA des assureurs ?
Les assureurs utilisent principalement deux types de systèmes :
-
Les outils de scoring prédictif : ils analysent le dossier médical, les expertises, et les décisions de justice antérieures pour proposer une fourchette d'indemnisation. Certains systèmes, comme ceux développés par des prestataires spécialisés (Shift Technology, Verisk, ou les outils propriétaires des grands groupes), traitent des millions de dossiers pour calibrer leur modèle.
-
Les systèmes de détection des "sur-réclamations" : présentés comme des outils anti-fraude, ils peuvent étiqueter comme "suspectes" des demandes d'indemnisation légitimes, notamment pour des préjudices difficiles à objectiver comme le pretium doloris ou le déficit fonctionnel permanent (DFP).
Le problème structurel du biais de sous-évaluation
Plusieurs rapports convergent pour alerter sur une tendance lourde. Selon une étude de l'Institut pour la Justice publiée en mars 2026, les offres d'indemnisation automatisées sont en moyenne inférieures de 23% aux montants accordés par les juridictions sur les mêmes types de préjudices. Ce différentiel touche particulièrement :
- Les préjudices extra-patrimoniaux (souffrance endurée, préjudice esthétique, préjudice d'agrément)
- Les victimes sans revenus déclarés élevés (retraités, travailleurs à temps partiel, personnes en situation de handicap préexistant)
- Les séquelles psychologiques post-traumatiques, sous-pondérées par les modèles entraînés sur des données historiques biaisées
La nomenclature Dintilhac — référentiel officiel des postes de préjudice corporel — est ainsi appliquée de façon sélective par certains algorithmes, qui tendent à consolider prématurément l'état de la victime ou à minorer les pertes de gains professionnels futurs.
Tableau comparatif : indemnisation algorithmique vs. indemnisation judiciaire
| Poste de préjudice | Offre algo (moyenne) | Décision judiciaire | Écart constaté |
|---|---|---|---|
| Déficit fonctionnel permanent | Sous-évalué | Référentiel ONIAM | -18 à -25% |
| Pretium doloris | Forfaitisé | Individualisé | -30% |
| Perte de gains futurs | Calculé bas | Actualisé | -20 à -40% |
| Préjudice d'établissement | Ignoré souvent | Accordé si prouvé | -60% |
| Frais de santé futurs | Provisionnés bas | Réels actualisés | -15% |
Sources : Institut pour la Justice, rapport mars 2026 ; base de données jurisprudentielle Jurica, analyse 2025-2026.
La jurisprudence commence à réagir
Les juridictions françaises ont commencé à sanctionner les pratiques algorithmiques abusives. La Cour d'appel de Paris, dans un arrêt du 14 novembre 2025 (n° 24/07823, ECLI:FR:CAPARIS:2025:07823), a annulé une offre d'indemnisation au motif que l'assureur n'avait pas informé la victime de l'utilisation d'un traitement automatisé, en violation de l'article L. 114-21 du Code des assurances. Elle a accordé des dommages-intérêts distincts pour violation du droit à l'information.
La Cour de cassation, dans un arrêt du 3 février 2026 (n° 24-19.447), a quant à elle confirmé que "l'utilisation d'un outil algorithmique ne saurait dispenser l'assureur de son obligation d'individualisation de l'offre d'indemnisation, exigée par l'article L. 211-9 du Code des assurances".
Implications pratiques
Victime ou assureur : les enjeux de la transparence algorithmique sont asymétriques et réclament des réponses concrètes dès aujourd'hui.
Du côté des victimes et de leurs conseils
Pour un avocat spécialisé en dommages corporels, l'enjeu est d'abord probatoire : comment savoir si une offre a été générée ou influencée par un algorithme ? Depuis l'entrée en application de l'AI Act et de l'article L. 114-21 du Code des assurances, la victime a le droit d'être informée de l'utilisation d'un outil automatisé. En cas de doute, elle peut :
- Exercer son droit d'accès aux données la concernant (article 15 RGPD) et demander les logiques de traitement utilisées
- Solliciter une révision humaine de l'évaluation algorithmique (article 22§3 RGPD)
- Saisir la CNIL en cas de refus ou de réponse insuffisante — la CNIL a renforcé ses contrôles dans le secteur assurantiel depuis début 2026
- Contester l'offre en justice, avec possibilité de demander une expertise judiciaire sur le fonctionnement de l'outil IA utilisé
Du côté des assureurs
Les assureurs, pour leur part, arguent que l'IA améliore la rapidité de traitement, réduit les erreurs humaines et homogénéise les pratiques. Ces arguments ne sont pas sans fondement : la réduction des délais d'indemnisation est un bénéfice réel pour une partie des victimes. Cependant, l'homogénéisation peut devenir un nivellement par le bas lorsque les modèles sont entraînés sur des données historiques reflétant des sous-évaluations passées.
La Fédération Française de l'Assurance (FFA) a publié en octobre 2025 un code de bonne conduite sur l'IA dans les sinistres corporels, qui reste toutefois non contraignant et dont le respect n'est pas audité de manière indépendante.
Une asymétrie d'information préoccupante
Le déséquilibre fondamental demeure : l'assureur connaît parfaitement le fonctionnement de son outil, tandis que la victime ignore tout de la méthode qui a conduit à l'offre qui lui est soumise. Cette asymétrie est, en elle-même, constitutive d'un manquement à l'obligation d'information loyale consacrée par la jurisprudence de la Cour de cassation (Cass. 1re civ., 28 mars 2013, n° 11-28.529) et renforcée par les textes récents.
Points clés à retenir
- L'IA dans l'évaluation des préjudices corporels est classée "haut risque" par l'AI Act européen depuis août 2024, ce qui impose des obligations strictes aux assureurs.
- Toute offre d'indemnisation impliquant un traitement automatisé doit le mentionner explicitement, en vertu de l'article L. 114-21 du Code des assurances.
- Les offres algorithmiques sont en moyenne inférieures de 23% aux décisions judiciaires sur des dossiers comparables (Institut pour la Justice, 2026).
- La victime dispose d'un droit à l'explication et à la révision humaine fondé sur l'article 22 du RGPD et l'AI Act.
- La nomenclature Dintilhac doit être respectée intégralement : aucun algorithme ne peut légalement l'écarter ou la tronquer.
- La CNIL et les tribunaux commencent à sanctionner les pratiques non transparentes, ouvrant la voie à des recours indemnitaires distincts.
- Ne jamais accepter une première offre d'indemnisation sans consultation d'un avocat spécialisé, a fortiori lorsqu'elle émane d'un processus automatisé.
Questions fréquentes
Comment savoir si mon indemnisation a été calculée par une IA ?
Depuis l'entrée en vigueur de l'article L. 114-21 du Code des assurances, l'assureur est tenu de vous informer de l'utilisation d'un traitement automatisé. En l'absence de cette mention, vous pouvez exercer votre droit d'accès aux données (article 15 RGPD) et demander à l'assureur de préciser les méthodes utilisées pour calculer votre offre.
Puis-je contester une offre d'indemnisation calculée par algorithme ?
Oui, et vous avez plusieurs leviers. Vous pouvez d'abord demander une révision humaine de votre dossier (article 22§3 RGPD), puis, si l'offre reste insuffisante, saisir le tribunal judiciaire. La Cour de cassation a confirmé en février 2026 que l'utilisation d'un outil algorithmique ne dispense pas l'assureur de son obligation d'individualisation.
Quels postes de préjudice sont les plus souvent sous-évalués par les algorithmes ?
Les postes les plus fréquemment minorés sont le pretium doloris (souffrances endurées), le déficit fonctionnel permanent, le préjudice d'établissement et les pertes de gains professionnels futurs. Ces préjudices nécessitent une appréciation individuelle que les modèles algorithmiques peinent à restituer fidèlement.
Que faire si l'assureur refuse de me communiquer des informations sur son outil IA ?
Vous pouvez saisir la CNIL, qui dispose de pouvoirs d'enquête et de sanction renforcés depuis 2026 dans le secteur assurantiel. Le refus de répondre à une demande d'accès RGPD dans le délai d'un mois constitue une violation susceptible d'entraîner une sanction pouvant atteindre 20 millions d'euros ou 4% du chiffre d'affaires mondial de l'assureur.
L'IA peut-elle légalement remplacer l'expertise médicale dans l'évaluation d'un préjudice corporel ?
Non. L'expertise médicale reste un élément indispensable à l'évaluation du préjudice corporel, et aucun algorithme ne peut légalement s'y substituer. La loi Badinter de 1985 et le Code des assurances imposent une évaluation individualisée. Un outil IA peut assister le processus, mais la décision finale doit faire l'objet d'une supervision humaine qualifiée.
Quel est le délai pour contester une offre d'indemnisation insuffisante ?
En matière d'accident de la circulation (loi Badinter), la prescription est de cinq ans à compter de la date à laquelle la victime a eu connaissance du dommage dans sa consolidation (article 2226 du Code civil). En pratique, ne laissez jamais passer ce délai sans avoir fait examiner votre dossier par un avocat spécialisé.
L'AI Act protège-t-il vraiment les victimes d'assurance en 2026 ?
L'AI Act impose des obligations théoriquement protectrices, mais son application pratique dans le secteur assurantiel reste insuffisante à ce jour. Les mécanismes de contrôle (audits, certification des systèmes IA à haut risque) montent en puissance progressivement. En attendant, c'est essentiellement via les recours judiciaires et les actions devant la CNIL que les victimes obtiennent concrètement réparation.
Mon assureur peut-il utiliser mes données de santé pour alimenter son algorithme d'indemnisation ?
L'utilisation de données de santé — catégorie spéciale au sens de l'article 9 du RGPD — est très encadrée et ne peut se faire qu'avec votre consentement explicite ou dans le cadre de l'exécution du contrat d'assurance. Tout traitement de vos données de santé à des fins d'entraînement d'algorithme ou de scoring d'indemnisation doit être mentionné dans la politique de confidentialité de votre assureur et peut être contesté.
Joëlle Marteau-Péretié est avocate au Barreau de Paris, spécialisée en dommages corporels et contentieux assurantiel. Cet article est rédigé à titre informatif et ne constitue pas une consultation juridique. Pour toute situation personnelle, consultez un professionnel du droit.
Questions fréquentes
- Un assureur peut-il utiliser un algorithme pour fixer mon indemnisation corporelle ?
- Oui, mais sous conditions strictes. Depuis l'AI Act (2024), ces systèmes sont classés à haut risque et doivent respecter des obligations de transparence, de supervision humaine et de documentation technique. L'article 22 du RGPD interdit en principe les décisions entièrement automatisées produisant des effets juridiques significatifs.
- Comment savoir si mon indemnisation a été calculée par une IA ?
- Depuis la loi n° 2022-172 (art. L. 114-21 du Code des assurances), l'assureur est tenu de mentionner explicitement l'utilisation d'un traitement automatisé dans toute offre d'indemnisation. Vous pouvez également exercer votre droit d'accès aux données (art. 15 RGPD) pour obtenir des informations sur le traitement de votre dossier.
- Quels recours ai-je si je pense que l'IA a sous-évalué mon préjudice corporel ?
- Plusieurs recours sont possibles : contester l'offre d'indemnisation par écrit en demandant une explication détaillée, saisir la CNIL en cas de violation du RGPD, mandater un avocat pour une contre-expertise médicale indépendante, et si nécessaire, saisir le tribunal judiciaire. La loi Badinter de 1985 protège également les victimes d'accidents de la circulation contre toute minoration algorithmique illégale.
- Quels biais algorithmiques peuvent pénaliser les victimes dans l'évaluation du préjudice ?
- Les algorithmes peuvent intégrer des variables socio-démographiques (âge, profession, revenus) qui désavantagent certaines catégories de victimes. Ils peuvent aussi étiqueter à tort des demandes légitimes comme suspectes via des outils anti-fraude, ou sous-évaluer des préjudices difficiles à quantifier comme le préjudice moral ou les séquelles psychologiques.
- L'AI Act européen protège-t-il réellement les victimes face aux assureurs ?
- L'AI Act classe les outils d'évaluation d'indemnisation comme systèmes à haut risque (Annexe III, point 5), imposant transparence, supervision humaine et traçabilité. Toutefois, le CEPD a averti en janvier 2025 que le droit à l'explication doit être effectif et non purement formel, soulignant que le contrôle de l'application reste insuffisant dans le secteur assurantiel.