Deepfakes en France : ce que la loi SREN punit vraiment (et ce qu'elle oublie)

Depuis mai 2024, la loi SREN punit en France la diffusion non consentie de deepfakes d'un an d'emprisonnement et 15 000 euros d'amende grâce au nouvel article 226-8-1 du Code pénal. Ce dispositif s'articule avec l'AI Act européen et le RGPD, mais présente encore des lacunes, notamment l'absence d'incrimination autonome de la simple création d'un hypertrucage.

· 10 min de lecture · 2007 mots · IA et Droit
deepfake loi SREN article 226-8-1 hypertrucage AI Act droit pénal numérique RGPD

Les deepfakes sont désormais punissables en France d'un an d'emprisonnement et 15 000 € d'amende grâce à la loi SREN. Depuis l'entrée en vigueur de la loi n° 2024-449 du 21 mai 2024 visant à sécuriser et réguler l'espace numérique (dite loi SREN), la France dispose d'un arsenal pénal spécifique pour lutter contre les contenus hypertrucqués non consentis. Deux ans après son adoption, il est temps de dresser un bilan lucide : qu'est-ce que ce texte a réellement changé pour les victimes, et où se situent encore ses limites ?

Dans cet article, nous analysons le nouvel article 226-8-1 du Code pénal, les recours concrets disponibles, et la façon dont ce dispositif s'articule avec le Règlement européen sur l'IA (AI Act) et le RGPD. Que vous soyez victime d'un deepfake, professionnel du droit ou simplement curieux des enjeux de l'IA, ce guide pratique vous donnera les clés pour comprendre et agir.


Contexte juridique

La loi SREN du 21 mai 2024 a introduit l'article 226-8-1 du Code pénal, créant la première infraction pénale spécifique aux deepfakes en France.

Avant la loi SREN, les victimes de deepfakes devaient se tourner vers des infractions préexistantes, inadaptées à la réalité technologique. Le droit à l'image (article 9 du Code civil), les dispositions sur la diffamation (loi du 29 juillet 1881) ou encore l'infraction de montage réalisé à l'aide des paroles ou de l'image d'une personne (ancien article 226-8 du Code pénal) constituaient des fondements juridiques fragiles. La preuve de l'intention malveillante, la qualification de l'acte et l'identification des auteurs se heurtaient à des obstacles considérables.

La loi SREN est venue combler cette lacune en modifiant le Code pénal pour cibler explicitement les hypertrucages (terme retenu par le législateur français pour désigner les deepfakes). Parallèlement, au niveau européen, l'AI Act, entré en vigueur en août 2024, impose aux systèmes d'IA générant des contenus synthétiques une obligation de marquage (watermarking), créant ainsi un socle complémentaire de responsabilité. Enfin, le RGPD reste applicable dès lors qu'un deepfake utilise des données biométriques ou personnelles identifiables, ce qui est structurellement le cas.


Analyse approfondie

L'article 226-8-1 du Code pénal punit d'un an d'emprisonnement et 15 000 € d'amende la diffusion non consentie d'un hypertrucage.

Le nouvel article 226-8-1 du Code pénal : anatomie d'une infraction

L'article 226-8-1 du Code pénal, introduit par l'article 47 de la loi SREN, réprime le fait de diffuser, sans le consentement de la personne représentée, un contenu généré ou modifié par un traitement algorithmique et présentant cette personne dans une situation à caractère sexuel ou de nature à lui porter gravement atteinte à sa dignité ou à sa réputation.

Les peines encourues sont les suivantes :

Il est important de souligner que l'infraction vise la diffusion, et non nécessairement la création du deepfake. Cette distinction a des implications pratiques majeures : quelqu'un qui partage un deepfake peut être poursuivi, même s'il n'en est pas l'auteur technique.

La question de l'incrimination de la création

La doctrine juridique a relevé une lacune significative : la création d'un deepfake non consenti n'est pas en elle-même érigée en infraction autonome par l'article 226-8-1. Comme le soulignait une analyse publiée en novembre 2025, la loi SREN « marque une étape décisive pour criminaliser la création de deepfakes » en ciblant les hypertrucages, mais la répression reste principalement attachée à l'acte de diffusion. Un créateur de deepfake qui ne diffuse pas le contenu peut dès lors échapper à cette qualification pénale spécifique — même s'il reste exposable sur d'autres fondements (harcèlement, menace, extorsion).

Tableau comparatif : avant et après la loi SREN

Critère Avant loi SREN Après loi SREN
Infraction spécifique Aucune Art. 226-8-1 C. pén.
Peine de base Variable (diffamation…) 1 an / 15 000 €
Cas aggravés (mineur) Non prévu 2 ans / 30 000 €
Acte visé Montage (art. 226-8) Diffusion d'hypertrucage
Obligation de marquage IA Non AI Act (depuis 2025)

L'articulation avec le RGPD et l'AI Act

Le RGPD s'applique dès lors que le deepfake utilise des données biométriques (visage, voix), qui constituent des données sensibles au sens de l'article 9 du règlement. Toute personne peut exercer son droit à l'effacement (article 17 RGPD) auprès de la plateforme qui héberge le contenu. La CNIL peut être saisie en cas de manquement.

L'AI Act, entré en vigueur en août 2024 et applicable progressivement depuis lors, impose aux fournisseurs de systèmes d'IA générant des contenus synthétiques réalistes une obligation de marquage technique (watermarking) et de transparence. Les plateformes et créateurs de contenu IA sont tenus d'indiquer que le contenu est généré artificiellement. Le non-respect de cette obligation expose à des amendes pouvant atteindre 15 millions d'euros ou 3 % du chiffre d'affaires mondial annuel pour les acteurs concernés.


Implications pratiques

Pour les victimes, trois voies d'action se combinent : dépôt de plainte pénale, signalement CNIL et demande de retrait aux plateformes.

Du côté des victimes

La loi SREN a incontestablement amélioré la situation des victimes. Pour la première fois, elles disposent d'une qualification pénale directement applicable sans avoir à démontrer une diffamation ou une atteinte à la vie privée par voie détournée. En pratique, la victime peut :

  1. Déposer plainte auprès du procureur de la République ou d'un service de police/gendarmerie, en visant expressément l'article 226-8-1 du Code pénal.
  2. Signaler le contenu aux plateformes (obligation de retrait rapide issue du Digital Services Act applicable en France depuis 2024).
  3. Saisir la CNIL pour violation du RGPD (traitement de données biométriques sans consentement).
  4. Engager une action civile sur le fondement de l'article 9 du Code civil (droit à l'image) pour obtenir réparation du préjudice.

Il existe cependant un obstacle pratique majeur : l'identification de l'auteur. La majorité des deepfakes sont diffusés via des comptes anonymes ou des plateformes étrangères. Les enquêtes nécessitent des réquisitions judiciaires complexes, et les délais peuvent être longs.

Du côté des créateurs et plateformes

Pour les créateurs de contenu IA et les plateformes, la combinaison loi SREN / AI Act / DSA crée un cadre d'obligations cumulatives. La non-apposition de marquage (watermark) sur un contenu synthétique réaliste constitue désormais une violation de l'AI Act, indépendamment du caractère malveillant ou non du contenu. Les plateformes sont quant à elles soumises à des obligations renforcées de modération et de retrait sous peine de sanction par l'ARCOM (Autorité de régulation de la communication audiovisuelle et numérique).

Les limites persistantes du dispositif

Deux ans après l'adoption de la loi SREN, plusieurs points de fragilité demeurent :


Points clés à retenir


Questions fréquentes

Qu'est-ce qu'un deepfake au sens juridique français ?

Le législateur français a retenu le terme "hypertrucage" pour désigner tout contenu généré ou modifié par un traitement algorithmique représentant de manière réaliste une personne réelle dans une situation fictive. Il s'agit notamment de vidéos, images ou fichiers audio produits par des outils d'intelligence artificielle générative.

Quelle est la peine pour avoir diffusé un deepfake non consenti en France ?

La diffusion non consentie d'un hypertrucage est punie d'1 an d'emprisonnement et 15 000 € d'amende en vertu de l'article 226-8-1 du Code pénal. Ces peines sont doublées si la victime est mineure ou si les faits sont commis dans un contexte conjugal (2 ans et 30 000 €).

La simple création d'un deepfake sans diffusion est-elle punissable ?

La création d'un deepfake sans diffusion ne tombe pas directement sous le coup de l'article 226-8-1 du Code pénal, qui vise l'acte de diffusion. Toutefois, d'autres qualifications peuvent s'appliquer selon le contexte : menace, harcèlement, extorsion, ou violation du RGPD si des données biométriques sont traitées sans consentement.

Comment signaler un deepfake dont je suis victime ?

Vous pouvez déposer plainte auprès des forces de l'ordre ou du procureur de la République en visant l'article 226-8-1 du Code pénal. Parallèlement, signalez le contenu directement à la plateforme concernée (obligation de retrait rapide sous le DSA), et saisissez la CNIL pour traitement illicite de vos données biométriques. La plateforme PHAROS permet également le signalement en ligne.

Le RGPD s'applique-t-il aux deepfakes ?

Oui. Dès lors qu'un deepfake utilise le visage ou la voix d'une personne identifiable, il implique un traitement de données biométriques, qualifiées de données sensibles par l'article 9 du RGPD. Ce traitement est en principe interdit sans consentement explicite. La victime peut exercer son droit à l'effacement (article 17 RGPD) et saisir la CNIL en cas de non-respect.

L'AI Act oblige-t-il à indiquer qu'un contenu est un deepfake ?

Oui. L'AI Act, entré en vigueur en août 2024, impose aux fournisseurs de systèmes d'IA générant des contenus synthétiques réalistes d'apposer un marquage technique (watermarking) et d'informer les utilisateurs que le contenu est généré par IA. Le non-respect de cette obligation est passible d'amendes pouvant atteindre 15 millions d'euros ou 3 % du chiffre d'affaires mondial.

Un deepfake à caractère politique ou satirique est-il également interdit ?

La loi prévoit une exception pour les œuvres de l'esprit à caractère artistique ou satirique, à condition que la nature fictive du contenu soit clairement indiquée. Une proposition de loi sur la manipulation de l'information déposée en 2023 avait par ailleurs envisagé une obligation générale de mention pour les deepfakes politiques. Ce point reste une zone de tension entre liberté d'expression et protection des personnes.

Que faire si l'auteur du deepfake est à l'étranger ?

La situation est plus complexe lorsque l'auteur réside hors de France. Les poursuites pénales nécessitent alors une commission rogatoire internationale, dont les délais sont souvent longs. En pratique, la voie la plus efficace consiste à cibler la plateforme qui héberge le contenu (soumise au DSA si elle opère en Europe) pour obtenir un retrait rapide, indépendamment des poursuites contre l'auteur.


Sources principales : loi n° 2024-449 du 21 mai 2024 (loi SREN) ; Règlement (UE) 2024/1689 (AI Act) ; RGPD (Règlement UE 2016/679) ; donneespersonnelles.fr (avril 2026) ; analyse doctrinale sur la loi SREN et l'incrimination des deepfakes (novembre 2025).

Questions fréquentes

Qu'est-ce que la loi SREN et que punit-elle concernant les deepfakes ?
La loi SREN du 21 mai 2024 a introduit l'article 226-8-1 du Code pénal, qui punit la diffusion non consentie d'un deepfake (hypertrucage) d'un an d'emprisonnement et 15 000 € d'amende. La peine est doublée si la victime est mineure ou si l'infraction s'inscrit dans un contexte de violences conjugales.
La création d'un deepfake est-elle aussi punissable en France ?
Non, l'article 226-8-1 du Code pénal cible principalement la diffusion du deepfake, et non sa création. Un individu qui fabrique un contenu hypertrucqué sans le diffuser ne tombe pas directement sous le coup de cette infraction spécifique, ce qui constitue une lacune reconnue par la doctrine juridique.
Quels recours concrets a une victime de deepfake en France ?
Une victime peut déposer plainte sur le fondement de l'article 226-8-1 du Code pénal, agir au civil via le droit à l'image (article 9 du Code civil), signaler le contenu à la plateforme concernée, et solliciter son retrait en urgence. Le RGPD peut également être invoqué si des données biométriques sont utilisées, permettant une saisine de la CNIL.
Comment l'AI Act européen complète-t-il la loi française sur les deepfakes ?
L'AI Act, entré en vigueur en août 2024, impose aux systèmes d'IA générant des contenus synthétiques (images, vidéos, audio) une obligation de marquage ou watermarking. Cette exigence facilite l'identification de l'origine des deepfakes et crée un socle de responsabilité complémentaire à la loi SREN au niveau européen.
Le RGPD s'applique-t-il aux deepfakes ?
Oui. Un deepfake utilise structurellement des données biométriques ou personnelles identifiables, qui sont des données sensibles au sens du RGPD. Leur traitement sans consentement est en principe interdit. La victime peut donc saisir la CNIL pour obtenir la suppression des données et engager la responsabilité du responsable du traitement.

Sources