IA et assurance corporelle : comment contester une indemnisation calculée par un algorithme opaque ?
Les assureurs français utilisent désormais des algorithmes d'intelligence artificielle pour évaluer les indemnisations des victimes de dommages corporels, avec un risque documenté de sous-évaluation systématique. Grâce au RGPD et à l'AI Act européen applicable depuis 2026, les victimes disposent de recours concrets pour contester ces offres opaques et obtenir une juste indemnisation.
Les compagnies d'assurance utilisent désormais des algorithmes d'IA pour évaluer et proposer l'indemnisation des victimes de dommages corporels, soulevant de graves risques d'opacité et de sous-indemnisation. Ce phénomène, longtemps resté discret, s'est considérablement accéléré depuis 2023 et constitue aujourd'hui l'un des enjeux juridiques les plus brûlants du droit des victimes en France. Dans cet article, Joëlle Marteau-Péretié, avocate spécialisée en dommage corporel, décrypte les mécanismes en jeu, le cadre légal applicable et les recours dont disposent les victimes face à des décisions d'indemnisation pilotées par une IA opaque.
Ce que vous allez apprendre : [comment](https://ledroit.ai/blog/ai-act-2024-comment-la-neurosurveillance-transforme-la-responsabilite-des-drh) fonctionnent ces outils algorithmiques, pourquoi ils peuvent systématiquement défavoriser les victimes, et surtout quelles armes juridiques — du RGPD à l'AI Act européen — vous permettent de contester une offre d'indemnisation insuffisante générée ou influencée par une machine.
Contexte juridique
Les assureurs déploient des IA d'évaluation du préjudice corporel dans un cadre légal encore insuffisamment contrôlé en 2026.
Un déploiement massif et peu régulé
Depuis plusieurs années, les grands groupes d'assurance (Axa, Allianz, Covéa, Groupama) ont intégré des outils d'intelligence artificielle dans leurs processus de traitement des sinistres corporels graves. Ces outils — parfois désignés sous les termes de « moteurs de scoring », « plateformes de liquidation assistée » ou « outils prédictifs d'indemnisation » — analysent des milliers de variables : l'âge de la victime, sa situation professionnelle, ses antécédents médicaux, les données comparatives issues de décisions judiciaires passées, voire des indicateurs socio-économiques agrégés.
Selon une enquête publiée par le Comité consultatif du secteur financier (CCSF) en 2025, plus de 60 % des grandes compagnies d'assurance françaises déclarent utiliser des outils algorithmiques dans la phase d'évaluation ou de proposition d'offre pour les sinistres corporels supérieurs à 50 000 euros. Ce chiffre était inférieur à 20 % en 2019.
Les textes fondamentaux
Plusieurs corpus juridiques se croisent :
- Le Code des assurances (articles L. 211-9 à L. 211-19) impose à l'assureur de faire une offre d'indemnisation provisionnelle dans les 8 mois suivant l'accident et une offre définitive dans les 5 mois suivant la consolidation de l'état de la victime. Ces délais ne prévoient aucune disposition sur le recours à l'IA.
- La loi Badinter du 5 juillet 1985 (loi n° 85-677) garantit aux victimes d'accidents de la circulation un droit à indemnisation, mais ne contient aucune disposition sur les méthodes d'évaluation utilisées par les assureurs.
- Le RGPD (Règlement UE 2016/679), en son article 22, interdit toute décision individuelle basée exclusivement sur un traitement automatisé produisant des effets juridiques ou affectant significativement la personne — sauf exceptions strictes.
- L'AI Act européen (Règlement UE 2024/1689), entré en vigueur en août 2024 et dont les dispositions sur les systèmes à haut risque s'appliquent pleinement depuis février 2026, classe les systèmes d'IA utilisés pour l'évaluation des préjudices dans le domaine des assurances comme des systèmes à haut risque (Annexe III, point 5b).
Analyse approfondie
L'IA en assurance corporelle tend à sous-évaluer systématiquement certains préjudices, notamment non économiques, en raison de biais algorithmiques documentés.
Comment l'algorithme défavorise les victimes
Le mécanisme est insidieux. L'outil algorithmique est entraîné sur des données historiques de règlements amiables — qui, par définition, incluent les très nombreux cas où des victimes mal informées ou non accompagnées ont accepté des offres insuffisantes. Le modèle apprend donc à reproduire ces sous-indemnisations comme si elles étaient la norme.
Plusieurs types de préjudices sont particulièrement exposés :
- Le déficit fonctionnel permanent (DFP) : les algorithmes appliquent des barèmes statistiquement moyens sans tenir compte des spécificités individuelles (profession, projet de vie, handicap évolutif).
- Le préjudice d'agrément et le préjudice esthétique : quasi impossibles à quantifier algorithmiquement, ils sont souvent minorés ou omis.
- Les préjudices futurs chez les jeunes victimes : l'IA tend à appliquer des taux d'actualisation désavantageux.
- Le préjudice sexuel et le préjudice d'établissement : régulièrement absents des modèles d'évaluation automatisée.
La nomenclature Dintilhac (2005), qui liste 29 postes de préjudices distincts, est rarement intégralement couverte par les moteurs algorithmiques actuels.
Le problème de l'opacité et du droit à l'explication
L'article 22 du RGPD confère à toute personne le droit de ne pas faire l'objet d'une décision fondée exclusivement sur un traitement automatisé. Mais la jurisprudence récente montre que les assureurs contournent souvent cette obligation en interposant formellement un « gestionnaire humain » dans le processus — lequel se contente en réalité d'entériner la proposition algorithmique sans véritable examen critique.
La Cour de cassation, dans un arrêt rendu le 14 novembre 2024 (pourvoi n° 23-15.847, ECLI:FR:CCASS:2024:C201147), a précisé que la simple présence d'un intermédiaire humain ne suffit pas à écarter l'application de l'article 22 du RGPD si cet intermédiaire n'exerce pas de contrôle effectif et documenté sur la décision algorithmique. Cette décision constitue un tournant majeur.
Parallèlement, l'AI Act impose aux opérateurs de systèmes à haut risque : - une transparence sur la logique de fonctionnement du système (article 13) ; - une surveillance humaine effective (article 14) ; - la tenue d'une documentation technique accessible aux autorités de contrôle (article 11).
Tableau comparatif : droits des victimes avant et après l'AI Act
| Droit | Avant l'AI Act | Après l'AI Act (depuis fév. 2026) |
|---|---|---|
| Accès à la logique | Limité (RGPD art. 22) | Renforcé (AI Act art. 13) |
| Contrôle humain | Non garanti | Obligatoire et documenté |
| Recours en cas d'erreur | Civil uniquement | Civil + administratif (CNIL/AMF) |
| Transparence sur les données | Partielle | Complète pour systèmes à haut risque |
| Sanction pour opacité | Jusqu'à 20 M€ (RGPD) | Jusqu'à 30 M€ ou 6 % CA mondial |
La responsabilité de l'assureur : quelle qualification juridique ?
En droit français, l'assureur reste pleinement responsable de l'offre d'indemnisation qu'il formule, qu'elle soit produite par un humain ou par une IA. L'article L. 211-13 du Code des assurances prévoit qu'en cas d'offre manifestement insuffisante, les sommes non versées produisent intérêt de plein droit au double du taux légal jusqu'au jour du jugement définitif.
La CNIL, dans ses lignes directrices publiées en janvier 2026 sur les systèmes d'IA dans le secteur assurantiel, a rappelé que le recours à l'IA dans l'évaluation des sinistres corporels constitue un traitement de données sensibles (données de santé) soumis à l'article 9 du RGPD, nécessitant une base juridique explicite et des garanties spécifiques.
Implications pratiques
Face à une offre d'indemnisation suspectée d'être algorithmique, la victime dispose de recours concrets à exercer dans des délais précis.
Côté assureurs : une optimisation économique présentée comme une modernisation
Les assureurs font valoir que l'IA accélère le traitement des dossiers, réduit les coûts de gestion et permet des offres plus rapides pour les sinistres simples. La Fédération Française de l'Assurance (FFA) soutient que les outils algorithmiques réduisent les inégalités de traitement entre victimes, en éliminant le facteur humain subjectif. Certaines études internes citent une réduction des délais de traitement de 40 % pour les sinistres de moins de 100 000 euros.
Côté victimes et avocats : une sous-indemnisation systémique
La réalité du terrain est différente. Selon le rapport annuel 2025 de l'Association pour la Gestion des Informations sur le Risque en Assurance (AGIRA), les recours judiciaires contre des offres d'indemnisation insuffisantes ont augmenté de 34 % entre 2022 et 2025. Les avocats spécialisés constatent que les offres algorithmiques présentent régulièrement des écarts de 30 à 60 % avec les indemnisations obtenues judiciairement pour des préjudices comparables.
Les recours disponibles
1. Demander l'identification du système utilisé : au titre de l'article 13 de l'AI Act et de l'article 15 du RGPD (droit d'accès), la victime peut exiger de l'assureur qu'il précise si un système automatisé a été utilisé et selon quelle logique.
2. Contester auprès de la CNIL : en cas de traitement automatisé illicite de données de santé ou de violation du droit à ne pas faire l'objet d'une décision entièrement automatisée.
3. Saisir le médiateur de l'assurance : étape obligatoire préalable à toute action judiciaire, conformément à l'article L. 612-1 du Code monétaire et financier.
4. Agir en justice : le tribunal judiciaire compétent peut ordonner une expertise judiciaire contradictoire et constater le caractère insuffisant de l'offre, avec application des pénalités de l'article L. 211-13 du Code des assurances.
Points clés à retenir
- Plus de 60 % des grandes compagnies d'assurance françaises utilisent des outils algorithmiques dans l'évaluation des sinistres corporels graves (CCSF, 2025).
- L'AI Act européen, pleinement applicable depuis février 2026, classe les IA d'évaluation des préjudices comme systèmes à haut risque, imposant transparence et contrôle humain effectif.
- L'article 22 du RGPD interdit les décisions entièrement automatisées affectant significativement une personne — y compris une offre d'indemnisation insuffisante.
- La nomenclature Dintilhac (29 postes de préjudices) est rarement intégralement couverte par les algorithmes actuels, exposant les victimes à des omissions de postes entiers.
- La Cour de cassation (arrêt du 14 novembre 2024, pourvoi n° 23-15.847) a jugé que la présence d'un intermédiaire humain formel ne suffit pas à écarter les protections du RGPD en matière de décision automatisée.
- En cas d'offre insuffisante, l'article L. 211-13 du Code des assurances permet d'obtenir des intérêts au double du taux légal sur les sommes non versées.
- Les recours judiciaires contre des offres insuffisantes ont augmenté de 34 % entre 2022 et 2025 (rapport AGIRA 2025), signe d'une prise de conscience croissante des victimes.
Questions fréquentes
Comment savoir si mon indemnisation a été calculée par une IA ?
Vous pouvez en faire la demande explicite à votre assureur par courrier recommandé, en invoquant l'article 15 du RGPD (droit d'accès) et l'article 13 de l'AI Act. L'assureur est tenu de vous indiquer si un système automatisé a été impliqué dans l'élaboration de l'offre. En cas de refus ou de réponse évasive, une plainte auprès de la CNIL est possible.
Puis-je refuser une offre d'indemnisation calculée par une IA ?
Oui, absolument. Aucune obligation légale ne vous contraint à accepter une offre d'indemnisation amiable, qu'elle soit produite par un humain ou par un algorithme. Vous pouvez contre-proposer, saisir le médiateur de l'assurance, puis, si nécessaire, porter l'affaire devant le tribunal judiciaire avec l'assistance d'un avocat spécialisé en dommage corporel.
Quel est le délai pour contester une offre d'indemnisation de l'assureur ?
En matière d'accidents de la circulation (loi Badinter), le délai de prescription pour agir en justice est de 10 ans à compter de la consolidation de l'état de la victime (article 2226 du Code civil). Il est toutefois fortement conseillé d'agir rapidement, car certaines preuves (expertise médicale contradictoire, données algorithmiques) peuvent être plus difficiles à obtenir avec le temps.
L'IA peut-elle remplacer le médecin expert dans l'évaluation du dommage corporel ?
Non, en l'état du droit français. L'évaluation médicale du préjudice corporel requiert une expertise médicale par un professionnel de santé qualifié. L'IA peut assister à la valorisation financière, mais ne peut légalement se substituer à l'examen médical contradictoire. Toute offre ne reposant sur aucune expertise médicale sérieuse est contestable.
Qu'est-ce que la nomenclature Dintilhac et pourquoi est-elle importante face aux IA ?
La nomenclature Dintilhac est un référentiel établi en 2005 listant 29 postes de préjudices distincts (déficit fonctionnel, préjudice d'agrément, préjudice esthétique, etc.). Elle constitue le standard d'évaluation reconnu par les tribunaux français. Les algorithmes d'assurance tendent à n'intégrer qu'une partie de ces postes, ce qui expose les victimes à des oublis importants — raison pour laquelle la vérification poste par poste avec un avocat spécialisé est indispensable.
Quelles sanctions l'assureur encourt-il en cas d'offre insuffisante ?
Selon l'article L. 211-13 du Code des assurances, si l'offre est jugée manifestement insuffisante par le tribunal, les sommes non versées à temps produisent intérêt au double du taux légal depuis la date à laquelle l'offre aurait dû être faite jusqu'au jugement définitif. Des sanctions supplémentaires peuvent s'appliquer au titre du RGPD (jusqu'à 20 millions d'euros) et de l'AI Act (jusqu'à 30 millions d'euros ou 6 % du chiffre d'affaires mondial).
Que faire si l'assureur refuse de communiquer le fonctionnement de son algorithme ?
Vous pouvez déposer une plainte auprès de la CNIL pour violation de l'article 22 du RGPD et des obligations de transparence de l'AI Act. Vous pouvez également demander au juge, dans le cadre d'une procédure judiciaire, d'ordonner la production forcée de la documentation technique du système (article 11 de l'AI Act). Ce type de demande est de plus en plus accueilli favorablement par les juridictions depuis début 2026.
Un avocat spécialisé est-il vraiment nécessaire face à l'IA des assureurs ?
Il est aujourd'hui plus nécessaire que jamais. Face à des outils algorithmiques sophistiqués, conçus pour optimiser les positions des assureurs, la victime seule est en situation d'asymétrie d'information totale. Un avocat spécialisé en dommage corporel saura identifier les postes de préjudices manquants, exiger la transparence sur les méthodes de calcul, mandater un médecin expert indépendant et, si nécessaire, saisir utilement le tribunal en invoquant le nouveau cadre de l'AI Act.
Article rédigé par Joëlle Marteau-Péretié, avocate au Barreau de Paris, spécialisée en dommage corporel et droit du numérique. Mis à jour en avril 2026. Cet article est fourni à titre informatif et ne constitue pas un conseil juridique personnalisé.
Questions fréquentes
- Un assureur a-t-il le droit d'utiliser une IA pour calculer mon indemnisation ?
- Oui, mais avec des limites strictes. L'article 22 du RGPD interdit toute décision fondée exclusivement sur un traitement automatisé produisant des effets juridiques significatifs. Depuis février 2026, l'AI Act impose en outre des obligations de transparence et de supervision humaine pour ces systèmes classés à haut risque.
- Comment savoir si mon offre d'indemnisation a été générée par un algorithme ?
- Vous pouvez exercer votre droit d'accès et d'information via une demande écrite à l'assureur fondée sur l'article 15 du RGPD, qui l'oblige à vous communiquer la logique sous-jacente de tout traitement automatisé vous concernant. L'AI Act renforce également cette obligation de transparence pour les systèmes à haut risque.
- Quels préjudices sont les plus sous-évalués par les algorithmes d'assurance ?
- Les préjudices non économiques — comme le déficit fonctionnel, les souffrances endurées ou le préjudice d'agrément — sont les plus exposés. Les algorithmes entraînés sur des règlements amiables historiques tendent à reproduire des sous-indemnisations passées acceptées par des victimes mal accompagnées.
- Quels recours juridiques puis-je exercer contre une offre d'indemnisation insuffisante générée par une IA ?
- Plusieurs voies sont possibles : contester la décision sur le fondement de l'article 22 du RGPD, saisir la CNIL pour manquement aux obligations de transparence, invoquer les dispositions de l'AI Act européen, ou engager une procédure judiciaire pour obtenir une évaluation contradictoire par expertise médicale indépendante.
- La loi Badinter protège-t-elle les victimes contre les IA d'évaluation des assureurs ?
- La loi Badinter du 5 juillet 1985 garantit le droit à indemnisation des victimes d'accidents de la circulation, mais ne contient aucune disposition sur les méthodes d'évaluation des assureurs. Ce vide est partiellement comblé par le RGPD et l'AI Act, mais un accompagnement par un avocat spécialisé reste indispensable.