Accident de voiture autonome : le droit français face à ses angles morts

En France, le droit de la responsabilité n'est pas adapté aux accidents causés par des véhicules autonomes de niveau 3 et 4, car ni la loi Badinter ni le régime des produits défectueux ne permettent d'identifier clairement un responsable lorsqu'un algorithme conduit. Le rapport 2026 du Club des juristes propose trois réformes prioritaires, dont la création d'un régime de responsabilité objective pesant sur le déployeur du système dès lors que le mode autonome était activé.

· 10 min de lecture · 1989 mots · IA et Droit
véhicule autonome responsabilité civile loi Badinter intelligence artificielle droit pénal

Il y a encore cinq ans, la question semblait théorique. Aujourd'hui, elle est urgente. En avril 2026, des véhicules de niveau 3 et 4 circulent sur les routes françaises — capables de gérer seuls une autoroute, de se garer sans conducteur, de prendre des décisions en quelques millisecondes. Et quand l'une de ces décisions tue quelqu'un ?

C'est précisément la question que le Club des juristes a décidé d'attaquer frontalement dans son rapport sur la régulation des voitures autonomes, publié ce printemps. Le résultat est une radiographie sans complaisance d'un droit français dépassé par la technique — et un programme de réforme ambitieux que les pouvoirs publics ne peuvent plus ignorer.


Le droit français face à un angle mort technologique

La loi française en matière de responsabilité routière repose sur deux piliers vieux de plusieurs décennies. D'un côté, la loi Badinter du 5 juillet 1985 (loi n° 85-677), qui institue une responsabilité automatique de plein droit au bénéfice des victimes d'accidents de la circulation. De l'autre, le régime général de la responsabilité du fait des produits défectueux, transposé en droit français aux articles 1245 à 1245-17 du Code civil, issu de la directive européenne du 25 juillet 1985.

Ces deux régimes ont un point commun : ils ont été pensés pour un monde où un humain tient le volant.

La loi Badinter raisonne à partir du "conducteur" et du "gardien du véhicule". Or, dans un véhicule de niveau 4 au sens de la classification SAE International — celui qui gère seul l'ensemble de la conduite dans des conditions déterminées —, qui est le conducteur ? L'occupant qui lit son journal ? Le constructeur qui a programmé le système ? L'opérateur de flotte qui déploie le véhicule sans chauffeur ?

La responsabilité du fait des produits défectueux, elle, exige de prouver un défaut du produit, un dommage et un lien de causalité (article 1245-1 du Code civil). Mais démontrer qu'un système d'IA embarqué présentait un "défaut" au moment de l'accident est un exercice quasi-impossible pour la victime ordinaire : les données sont propriétaires, les algorithmes opaques, les journaux de bord inaccessibles.

Le Club des juristes résume le problème avec une formule lapidaire : le droit de la responsabilité est conçu pour identifier un fautif humain. Le véhicule autonome n'est ni humain, ni fautif au sens traditionnel du terme.


Ce que dit le rapport : trois chantiers prioritaires

1. Responsabilité civile : créer un régime dédié

Le rapport préconise l'abandon d'une approche "par défaut" qui consiste à appliquer coûte que coûte les textes existants. À la place, il appelle à la création d'un régime spécial de responsabilité objective pour les accidents impliquant des véhicules automatisés à partir du niveau 3.

Concrètement, le principe serait le suivant : dès lors que le système d'automatisation était activé au moment du sinistre, la responsabilité pèse de plein droit sur le déployeur du système — constructeur, opérateur ou société de services de mobilité selon les cas. La victime n'aurait plus à prouver ni faute, ni défaut : elle prouverait l'accident et l'activation du mode autonome, point.

Ce mécanisme s'inspire directement du modèle britannique issu de l'Automated Vehicles Act 2024, qui a fait de l'assureur le débiteur de première ligne lorsque le système automatisé était engagé. Le rapport recommande d'en adapter les principes au droit français, en prenant soin d'articuler cette responsabilité avec la loi Badinter pour éviter les zones grises entre niveaux d'automatisation.

2. Responsabilité pénale : le vide inquiétant

C'est peut-être le volet le plus dérangeant du rapport. En matière pénale, aucun texte français actuel ne permet d'imputer à une personne morale une infraction fondée sur le comportement autonome d'un algorithme. L'homicide involontaire (article 221-6 du Code pénal) et les blessures involontaires (article 222-19) supposent une faute caractérisée imputable à une personne physique ou morale identifiable.

Or, quand c'est le système qui a "décidé" de ne pas freiner — parce qu'il avait calculé qu'éviter un obstacle statique lui ferait percuter un piéton selon une logique proche du dilemme du tramway — qui a commis la faute ? L'ingénieur qui a conçu l'algorithme de décision ? Le directeur technique qui a validé les paramètres ? La société qui a commercialisé le véhicule ?

Le rapport préconise la création d'une infraction spécifique de mise en circulation défectueuse d'un système d'IA embarqué, sanctionnant les manquements aux obligations de sécurité préalables à la mise sur le marché. Il appelle également à une clarification législative sur la responsabilité pénale des personnes morales dans ce contexte, en s'appuyant sur l'article 121-2 du Code pénal, dont l'application aux décisions algorithmiques reste aujourd'hui incertaine.

3. Assurance : refondre le modèle

Le régime actuel repose sur l'assurance obligatoire de responsabilité civile automobile (article L. 211-1 du Code des assurances), qui couvre le conducteur. Un schéma devenu absurde quand il n'y a plus de conducteur.

Le rapport propose une bascule du risque : l'assurance devrait couvrir le système, et non le conducteur. En pratique, cela signifie que les constructeurs et opérateurs de flottes autonomes devraient souscrire une assurance de responsabilité du fait du système, dont le niveau de prime serait indexé sur le niveau d'automatisation et sur les données de performance en conditions réelles.

Cette réforme aurait un avantage majeur pour les victimes : un interlocuteur unique, solvable, identifié dès le premier jour. Plus de délai pour déterminer si l'accident relève de la faute du conducteur, du défaut du véhicule ou d'une défaillance de l'infrastructure.


L'état des routes françaises en 2026 : quelques chiffres pour situer l'enjeu

Le rapport s'appuie sur des données de marché qui donnent le vertige. Selon les estimations citées, plus de 200 000 véhicules équipés de systèmes d'assistance de niveau 2+ ou 3 circulaient en France début 2026, avec une progression annuelle de 35 % depuis 2023. Les premières expérimentations de navettes sans conducteur (niveau 4) sont actives dans plusieurs métropoles — Lyon, Bordeaux, Sophia Antipolis — dans le cadre de dérogations préfectorales.

L'Observatoire national interministériel de la sécurité routière (ONISR) note que si les systèmes ADAS (assistance à la conduite avancée) ont contribué à une réduction de 12 % des accidents graves sur autoroute entre 2022 et 2025, les accidents impliquant des systèmes semi-autonomes mal utilisés ou mal compris par les conducteurs représentent désormais une catégorie statistique à part entière.

Le droit, lui, n'a pas suivi cette courbe.


Comparaison internationale : la France à la traîne

Pays Régime de responsabilité Niveau d'automatisation couvert Assurance dédiée
Royaume-Uni Automated Vehicles Act 2024 : responsabilité de l'assureur si système activé Niveau 3 et + Oui, obligation légale
Allemagne Loi sur la conduite autonome de 2021, révisée en 2024 : "entité technique responsable" Niveau 4 En cours de déploiement
États-Unis Réglementation État par État, NHTSA guidelines fédéraux Variable Pas de cadre fédéral unifié
France Loi Badinter 1985 + ordonnance 2021 (expérimentation) Niveau 2-3 uniquement Non

La France a bien adopté une ordonnance du 3 novembre 2021 autorisant les expérimentations de véhicules à délégation de conduite, avec un régime de responsabilité transitoire. Mais ce texte, conçu pour la phase d'expérimentation, n'est pas adapté à la commercialisation de masse. En 2026, il montre ses limites.


La question que personne ne veut poser : l'IA peut-elle être "fautive" ?

Le rapport du Club des juristes n'esquive pas la question philosophique sous-jacente. Si un système d'IA apprend en permanence à partir des données de conduite réelles — ce que font tous les systèmes modernes de type apprentissage profond — et que son comportement au moment de l'accident résulte d'une évolution postérieure à sa mise sur le marché, qui est responsable de cet apprentissage ?

Le règlement européen sur l'IA (AI Act, entré en application progressive depuis 2024) classe les systèmes d'IA embarqués dans les véhicules comme systèmes à haut risque (Annexe III), imposant des obligations de transparence, de journalisation des données et de surveillance humaine. Mais le règlement lui-même renvoie aux droits nationaux pour les questions de responsabilité civile — un angle mort que la Commission européenne s'est engagée à combler avec une directive sur la responsabilité de l'IA, toujours en négociation à Bruxelles au moment où ces lignes sont écrites.

Le Club des juristes plaide pour que la France n'attende pas Bruxelles : agir unilatéralement sur le cadre national dès maintenant, quitte à ajuster ensuite, vaut mieux qu'une paralysie législative pendant encore deux ou trois ans.


Ce que ça change pour vous — conducteurs, assurés, victimes potentielles

Concrètement, si les recommandations du rapport étaient adoptées demain :


FAQ — Les questions que vous vous posez vraiment

Si ma voiture autonome grille un feu rouge toute seule, est-ce que j'ai une contravention ? Aujourd'hui en droit français, oui — le titulaire du certificat d'immatriculation est redevable des infractions au Code de la route (article L. 121-3 du Code de la route). Le rapport préconise une exemption explicite lorsque le mode autonome était activé et documenté, avec report de la responsabilité sur l'opérateur du système.

L'assureur peut-il refuser de couvrir si j'ai mal configuré mon système d'aide à la conduite ? C'est une zone grise actuelle. Les contrats d'assurance commencent à intégrer des clauses sur l'utilisation conforme des ADAS. Dans le cadre proposé, la répartition entre assurance "conducteur" et assurance "système" clarifierait qui est couvert et pour quoi.

Que se passe-t-il si l'accident est causé par une mise à jour logicielle à distance (OTA update) ? C'est l'un des cas les plus épineux. Le rapport recommande que toute mise à jour modifiant les paramètres de sécurité du système de conduite soit soumise à notification obligatoire à l'autorité compétente (UTAC ou future autorité dédiée), avec conservation de la version logicielle active au moment de chaque sinistre.

Le règlement européen sur l'IA (AI Act) règle-t-il déjà ces questions ? Non. L'AI Act fixe des obligations de conformité pour les fabricants (journaux, transparence, supervision humaine) mais ne crée pas de régime de responsabilité civile. Il renvoie explicitement aux droits nationaux et à une future directive européenne, toujours en chantier.

Si personne n'est dans le véhicule (livraison autonome, taxi sans chauffeur), qui est responsable ? Selon les préconisations du rapport : l'opérateur qui a déployé le véhicule sur la voie publique. C'est la logique du "déployeur responsable", qui s'aligne avec l'approche adoptée pour les robots industriels et les drones commerciaux dans d'autres branches du droit.


La fenêtre législative est ouverte — pour combien de temps ?

Le rapport du Club des juristes arrive à un moment politiquement opportun. Le gouvernement a annoncé une révision du cadre réglementaire des mobilités autonomes pour le second semestre 2026, dans le cadre du projet de loi sur la transition numérique des transports. C'est peut-être la dernière occasion d'inscrire ces réformes dans le marbre avant que les accidents graves — et les contentieux qui en découlent — ne forcent la main des juges à coup de prétoires.

Car l'histoire du droit le montre : quand le législateur tarde, ce sont les tribunaux qui improvisent. Et l'improvisation jurisprudentielle sur des questions aussi complexes que la responsabilité algorithmique, c'est rarement satisfaisant pour personne — sauf peut-être pour les avocats.

Questions fréquentes

Qui est responsable en cas d'accident avec un véhicule autonome en France ?
En l'état actuel du droit, la question est non résolue. La loi Badinter de 1985 désigne le 'conducteur' ou le 'gardien' du véhicule, des notions inadaptées aux niveaux 3 et 4 où aucun humain ne conduit activement. Le Club des juristes préconise de désigner le déployeur du système (constructeur ou opérateur) comme responsable de plein droit.
Qu'est-ce qu'un véhicule autonome de niveau 3 ou 4 selon la classification SAE ?
Le niveau 3 SAE désigne un véhicule capable de gérer seul la conduite dans certaines conditions, mais qui peut demander au conducteur de reprendre la main. Le niveau 4 va plus loin : le véhicule gère l'intégralité de la conduite dans un périmètre défini, sans intervention humaine requise, comme sur autoroute ou pour le stationnement.
La loi Badinter s'applique-t-elle aux accidents de véhicules autonomes ?
Théoriquement oui, mais avec de grandes difficultés pratiques. La loi Badinter du 5 juillet 1985 (n° 85-677) raisonne autour du conducteur et du gardien du véhicule. Pour un véhicule autonome sans conducteur humain actif, ces notions deviennent floues, ce qui crée une insécurité juridique pour les victimes.
Comment prouver un défaut du produit dans un accident impliquant une IA embarquée ?
C'est précisément le problème soulevé par le rapport : la responsabilité du fait des produits défectueux (articles 1245 à 1245-17 du Code civil) exige de prouver un défaut, un dommage et un lien de causalité. Or les données des systèmes d'IA sont souvent propriétaires, les algorithmes opaques et les journaux de bord inaccessibles, rendant cette preuve quasi impossible pour la victime ordinaire.
Quel modèle étranger pourrait inspirer la réforme française sur les véhicules autonomes ?
Le rapport du Club des juristes cite l'Automated Vehicles Act 2024 du Royaume-Uni, qui désigne l'assureur comme débiteur de première ligne lorsque le système automatisé était activé au moment de l'accident. La victime n'a pas à prouver de faute : l'activation du mode autonome suffit à déclencher l'indemnisation.

Sources