Retour au blog
Actualites

Présomption d'utilisation par les IA : ce que change la proposition de loi adoptée par le Sénat

Le Sénat a adopté en première lecture le 8 avril 2026 une proposition de loi qui crée une présomption d'utilisation d'une œuvre protégée par un fournisseur d'IA dès lors qu'un indice rend cette utilisation vraisemblable. Décryptage du texte, de l'inversion de la charge de la preuve, et de ce que ça change pour les créateurs qui veulent constituer ces fameux indices à l'avance.

11 min de lecture
Présomption d'utilisation par les IA : ce que change la proposition de loi adoptée par le Sénat

Une autrice découvre, en testant un modèle d'IA générative, que celui-ci restitue avec une fidélité troublante des passages stylistiques de son dernier roman publié il y a deux ans. Pas un mot exact, mais des structures de phrase, des choix lexicaux, un ton. Elle veut agir en justice. Premier obstacle : comment prouver que son livre fait partie des données d'entraînement du modèle, alors que le fournisseur n'a jamais publié sa liste ?

Cette asymétrie est au cœur de la proposition de loi adoptée le 8 avril 2026 par le Sénat en première lecture. Le texte crée une présomption d'utilisation d'une œuvre par un fournisseur d'IA dès lors qu'un indice rend cette utilisation vraisemblable. Si la présomption joue, c'est au fournisseur d'IA qu'il revient de démontrer qu'il n'a pas utilisé l'œuvre — pas au créateur de prouver l'inverse.

Pour la première fois en France, un texte législatif s'attaque frontalement au verrou probatoire qui protégeait les modèles d'IA dans les contentieux de droit d'auteur. Le texte n'est pas encore loi, mais il dessine clairement la direction prise par le législateur.

Pourquoi cette proposition de loi, et pourquoi maintenant ?

Depuis l'explosion des modèles d'IA générative (textes, images, code, voix), une question juridique majeure restait sans réponse simple : comment un créateur peut-il prouver qu'une œuvre précise lui appartenant a été utilisée pour entraîner un modèle, alors que le fournisseur ne publie ni la composition ni l'origine de ses jeux d'entraînement ?

Trois éléments alimentent la pression législative :

  • L'opacité des modèles. Les fournisseurs de LLM, de modèles image-to-image et de générateurs vocaux ne divulguent pas, sauf exception, la liste des sources utilisées pour l'entraînement. Cette opacité rend la preuve d'utilisation quasi impossible pour un créateur isolé.
  • La pression européenne. L'AI Act (règlement UE 2024/1689) impose désormais aux fournisseurs de modèles d'IA à usage général de publier un résumé suffisamment détaillé des données d'entraînement (article 53). Ce premier pas n'est pas suffisant pour fonder une preuve dans un contentieux individuel.
  • Les contentieux qui s'accumulent. Aux États-Unis, plusieurs procès ont opposé des médias (New York Times, Getty Images), des auteurs et des artistes à des fournisseurs d'IA. En France et en Europe, les premiers dossiers émergent et heurtent ce mur probatoire.

Ce que dit le texte adopté par le Sénat

La proposition de loi (texte adopté n° 85, session 2025-2026) repose sur un mécanisme central : une présomption simple.

Élément du dispositifContenu
Champ d'applicationŒuvres et objets protégés par le Code de la propriété intellectuelle (droit d'auteur, droits voisins) utilisés par un fournisseur de système d'IA
Déclencheur de la présomptionExistence d'un ou plusieurs indices rendant l'utilisation vraisemblable
EffetInversion de la charge de la preuve : le fournisseur d'IA doit démontrer qu'il n'a pas utilisé l'œuvre, ou qu'il en avait le droit
Nature de la présomptionSimple (réfragable), c'est-à-dire renversable par une preuve contraire
Articulation avec l'AI ActComplément national, sans dérogation au cadre européen

Le texte intégral est consultable sur le site du Sénat : Texte adopté n° 85 (TA 25-085).

i
Présomption simple, pas absolue

Une présomption simple peut être renversée par la partie adverse. Le fournisseur d'IA garde donc la possibilité de démontrer qu'il n'a pas utilisé l'œuvre — par exemple en produisant la liste effective de ses sources d'entraînement, ou en démontrant que l'œuvre n'y figurait pas. Ce qui change, c'est qui doit fournir la preuve.

Pourquoi l'inversion de la charge change tout

En droit français, l'article 1353 du Code civil pose la règle générale : « celui qui réclame l'exécution d'une obligation doit la prouver ». Dans un contentieux classique de droit d'auteur, c'est donc au créateur de prouver l'utilisation non autorisée de son œuvre. Avec un modèle d'IA fermé, cette charge est en pratique impossible à porter.

L'inversion ne supprime pas la nécessité de prouver — elle la déplace. Le créateur doit toujours apporter un premier faisceau d'indices plausible. Mais une fois ce seuil franchi, c'est au fournisseur d'IA de produire les éléments qu'il est seul à détenir.

Quels indices peuvent activer la présomption ?

Le texte ne dresse pas de liste limitative — c'est aux juges qu'il reviendra de qualifier ce qui constitue un indice « rendant l'utilisation vraisemblable ». Plusieurs catégories d'indices sont déjà discutées dans la doctrine et les premiers contentieux :

  • Similarités stylistiques ou structurelles entre les sorties du modèle et l'œuvre originale, attestées par expertise
  • Restitution de passages suffisamment proches pour qu'un usage soit plausible (verbatim ou quasi-verbatim)
  • Métadonnées et signatures que le modèle laisse parfois transparaître dans ses sorties (artefacts, watermarks)
  • Traces de scraping documentées (logs serveurs montrant des accès massifs depuis des plages d'IPs identifiées comme appartenant à des opérateurs de crawlers IA)
  • Date de publication antérieure à la mise sur le marché du modèle, croisée avec l'accessibilité publique de l'œuvre au moment du training
  • Présence d'un identifiant unique (token, mot inventé, signature graphique) ajouté volontairement par le créateur et restitué par le modèle

Aucun de ces indices, pris isolément, ne suffira automatiquement. C'est la convergence de plusieurs qui crée la vraisemblance. C'est exactement la logique du « faisceau d'indices » déjà bien connue en droit français.

Ce que ça change concrètement pour les créateurs

Pour les auteurs, photographes, journalistes, illustrateurs, scénaristes, musiciens et développeurs, le message est clair : les preuves d'antériorité et de paternité que vous constituez aujourd'hui peuvent demain être l'indice qui déclenche la présomption.

Trois réflexes deviennent stratégiques :

  1. 1
    Horodater l'œuvre dès sa création (et pas seulement à sa publication)
    Un horodatage électronique prouve qu'à une date précise, un fichier identique à votre œuvre actuelle existait. C'est la base d'un faisceau d'indices : démontrer qu'au moment où le modèle a été entraîné, votre œuvre était déjà créée et accessible.
  2. 2
    Conserver les métadonnées d'origine et les versions intermédiaires
    RAW pour les photos, fichiers source pour les designs et le code, historique de versions pour les textes (Git, Word, Drive). Ces éléments documentent la chaîne de création et renforcent la crédibilité du faisceau d'indices.
  3. 3
    Documenter la chaîne de publication et l'accessibilité publique
    Capturer la date de mise en ligne, les URLs sous lesquelles l'œuvre était accessible, les éventuelles présences dans des datasets publics. Cela permet de démontrer que l'œuvre était techniquement scrappable au moment du training du modèle.

Cas d'usage type : un auteur publié

Imaginons une auteure dont le roman a été publié en 2023 et est resté disponible en libre accès partiel sur le site de l'éditeur. En 2026, un modèle d'IA mis sur le marché en 2025 restitue des passages stylistiquement très proches.

IndiceSource
Date de création du manuscritHorodatage électronique du fichier original (2022-2023)
Date de publication officielleDépôt légal BnF, ISBN, communiqués de presse (2023)
Accessibilité au moment du trainingCaptures Wayback Machine du site éditeur (2023-2024)
Similarités stylistiquesExpertise comparant manuscrit original et sorties IA
Traces de scraping documentéesLogs serveur de l'éditeur montrant des accès suspects

Aucun de ces indices ne prouve seul l'utilisation. Mais leur convergence rend l'utilisation vraisemblable — ce qui, sous le régime proposé, suffirait à activer la présomption et à transférer la charge de la preuve au fournisseur d'IA.

Et LegalStamp dans tout ça ?

L'horodatage blockchain n'est pas une réponse magique au problème de la preuve dans les contentieux IA. Mais il constitue, dans le faisceau d'indices, une pièce solide et difficilement contestable : une démonstration cryptographique que telle œuvre, sous tel format précis, existait à telle date — vérifiable indépendamment, à coût marginal.

Concrètement, LegalStamp permet à un créateur d'horodater massivement ses œuvres dès leur production :

  • Au moment de la création (manuscrit en cours, série de photos sortie du shooting, code source initial)
  • À chaque jalon (révisions majeures, dépôt à un éditeur, livraison à un client)
  • Avant publication (date d'antériorité avant mise en ligne, capacité à démontrer l'accessibilité publique pendant la fenêtre de training d'un modèle)

C'est un outil parmi d'autres — il ne remplace ni la documentation des métadonnées, ni l'expertise de similarité, ni les éventuelles traces de scraping. Mais il fournit l'ancrage temporel décentralisé qui rend l'ensemble du faisceau d'indices plus crédible. Et son coût marginal (centimes par horodatage à volume) le rend compatible avec une stratégie systématique, là où un dépôt huissier ou une enveloppe Soleau coûteraient des dizaines d'euros par œuvre.

Pour comprendre comment l'horodatage s'inscrit dans une stratégie globale de preuve d'antériorité, voyez notre article Preuve d'antériorité : 8 méthodes comparées.

Ce qui reste flou (et ce qu'il faudra surveiller)

Plusieurs points restent à clarifier :

  • Calendrier parlementaire. Le texte n'est adopté qu'en première lecture au Sénat. Il doit encore être examiné par l'Assemblée nationale, faire l'objet d'éventuelles navettes, voire d'une commission mixte paritaire. Le calendrier dépend de l'agenda et des arbitrages politiques.
  • Standard du faisceau d'indices. Combien d'indices, de quelle qualité, faudra-t-il pour activer la présomption ? Les premiers arrêts donneront la réponse.
  • Articulation avec l'AI Act. L'AI Act européen impose déjà aux fournisseurs un résumé des données d'entraînement (article 53). Le texte français complète, ne remplace pas. La cohérence d'ensemble sera testée par les juges.
  • Portée extraterritoriale. Un fournisseur d'IA établi hors UE pourra-t-il être assigné devant un juge français ? La question, classique en droit international privé, prendra une importance croissante.
  • Rôle des opt-out. La directive UE 2019/790 autorise les ayants droit à s'opposer à la fouille de textes et de données (TDM, article 4). La présomption proposée pourrait interagir avec ces opt-out — un créateur ayant manifesté son refus aurait un argument supplémentaire.

Conclusion

Le vote du Sénat le 8 avril 2026 ne change pas immédiatement le droit applicable, mais il pose une question politique simple : dans un monde d'IA opaque, qui doit prouver quoi ? Le texte tranche en faveur des créateurs et déplace la charge sur les fournisseurs, dès lors qu'un faisceau d'indices rend l'utilisation vraisemblable.

Pour les auteurs, photographes, journalistes et créateurs en général, le message pratique est immédiat : les preuves d'antériorité que vous constituez aujourd'hui sont les indices que vous activerez demain. Plus la trace est ancienne, technique, vérifiable indépendamment, plus elle pèse dans le faisceau.

LegalStamp ne prétend pas régler le problème, mais propose la brique manquante d'un horodatage massif, peu coûteux, vérifiable indépendamment, qui s'intègre dans une stratégie globale de preuve. Le reste — métadonnées, expertise, documentation de la chaîne de publication — reste à votre charge. Mais la base temporelle solide, c'est exactement ce qu'un horodatage blockchain est conçu pour produire.

FAQ

Le texte (TA n° 85, 2025-2026) crée une présomption d'utilisation d'une œuvre ou d'un objet protégé par un fournisseur de système d'IA dès lors qu'un faisceau d'indices rend cette utilisation vraisemblable. La charge de la preuve passe alors au fournisseur d'IA, qui doit démontrer le contraire ou justifier son usage. Le texte n'est pour l'instant adopté qu'en première lecture au Sénat ; il doit encore être examiné par l'Assemblée nationale.
Non. La présomption ne se déclenche pas automatiquement, elle suppose qu'un faisceau d'indices rende l'utilisation vraisemblable. C'est au titulaire de droits d'apporter ce premier faisceau (similarités, restitutions, métadonnées, traces de scraping documentées). Une fois cet indice réuni, c'est au fournisseur d'IA de prouver qu'il n'a pas utilisé l'œuvre ou qu'il avait un titre pour le faire.
Les fournisseurs de modèles d'IA générative ne publient généralement pas la liste exacte des œuvres utilisées pour l'entraînement. Pour un auteur, un journaliste ou un photographe, il est quasiment impossible aujourd'hui de prouver formellement qu'une œuvre précise a servi à entraîner un modèle. Le texte vise à rééquilibrer cette asymétrie en transférant la charge de la preuve au fournisseur, qui est seul à connaître ses jeux d'entraînement.
Oui, indirectement. Un horodatage prouve qu'à une date donnée, un fichier précis existait avec un contenu précis. Combiné à d'autres indices (date de publication antérieure à la mise sur le marché du modèle, similarités constatées dans les sorties du modèle, accessibilité du contenu sur le web), il contribue à constituer le faisceau d'indices que le texte demande au titulaire d'apporter.
Non. Au 4 mai 2026, le texte n'a été adopté qu'en première lecture par le Sénat. Il doit maintenant être examiné par l'Assemblée nationale, faire l'objet d'éventuelles navettes, et être promulgué pour devenir loi. Le calendrier exact dépend de l'agenda parlementaire et du gouvernement. En attendant, c'est un signal politique fort, pas un texte applicable.
Le texte vise les « œuvres ou objets protégés » au sens du Code de la propriété intellectuelle, ce qui couvre largement le droit d'auteur et les droits voisins : textes, images, photos, vidéos, partitions musicales, logiciels, designs originaux, etc. La nature exacte de chaque œuvre fera évidemment l'objet d'une qualification au cas par cas par les juges.
Trois réflexes : (1) horodater systématiquement vos fichiers originaux avec leur date exacte de création, (2) conserver les métadonnées d'origine (RAW pour photos, fichiers source pour designs et code, manuscrits avec historique de versions pour les textes), (3) documenter la chaîne de publication (où, quand, sous quelle licence) pour pouvoir démontrer l'antériorité ET l'accessibilité de l'œuvre par un crawler IA.
Le texte peut être amendé, rejeté, ou voir son adoption reportée. Même en cas de blocage, le débat aura mis publiquement sur la table la question de la charge de la preuve dans les contentieux IA / droit d'auteur. Plusieurs décisions de justice (notamment aux États-Unis) suivent déjà des logiques convergentes — le mouvement de fond ne dépend pas du seul vote français.

Disclaimer (information générale) : cet article est fourni à des fins pédagogiques et ne constitue pas un avis juridique. La proposition de loi commentée n'est, à la date de publication, adoptée qu'en première lecture par le Sénat ; son contenu peut évoluer en cours de navette parlementaire. Pour engager une action sur le fondement d'une utilisation présumée d'œuvre par un système d'IA, faites valider votre stratégie par un avocat spécialisé en propriété intellectuelle.

Jeremy

Jeremy

Fondateur de LegalStamp, passionne par la blockchain et la protection des creations.

Partager :

Articlés similaires

Prêt a protéger vos créations ?

Créez votre première preuve d'antériorité gratuitement en moins de 30 secondes.