Présomption d'utilisation par les IA : ce que change la proposition de loi adoptée par le Sénat
Le Sénat a adopté en première lecture le 8 avril 2026 une proposition de loi qui crée une présomption d'utilisation d'une œuvre protégée par un fournisseur d'IA dès lors qu'un indice rend cette utilisation vraisemblable. Décryptage du texte, de l'inversion de la charge de la preuve, et de ce que ça change pour les créateurs qui veulent constituer ces fameux indices à l'avance.

Une autrice découvre, en testant un modèle d'IA générative, que celui-ci restitue avec une fidélité troublante des passages stylistiques de son dernier roman publié il y a deux ans. Pas un mot exact, mais des structures de phrase, des choix lexicaux, un ton. Elle veut agir en justice. Premier obstacle : comment prouver que son livre fait partie des données d'entraînement du modèle, alors que le fournisseur n'a jamais publié sa liste ?
Cette asymétrie est au cœur de la proposition de loi adoptée le 8 avril 2026 par le Sénat en première lecture. Le texte crée une présomption d'utilisation d'une œuvre par un fournisseur d'IA dès lors qu'un indice rend cette utilisation vraisemblable. Si la présomption joue, c'est au fournisseur d'IA qu'il revient de démontrer qu'il n'a pas utilisé l'œuvre — pas au créateur de prouver l'inverse.
Pour la première fois en France, un texte législatif s'attaque frontalement au verrou probatoire qui protégeait les modèles d'IA dans les contentieux de droit d'auteur. Le texte n'est pas encore loi, mais il dessine clairement la direction prise par le législateur.
Pourquoi cette proposition de loi, et pourquoi maintenant ?
Depuis l'explosion des modèles d'IA générative (textes, images, code, voix), une question juridique majeure restait sans réponse simple : comment un créateur peut-il prouver qu'une œuvre précise lui appartenant a été utilisée pour entraîner un modèle, alors que le fournisseur ne publie ni la composition ni l'origine de ses jeux d'entraînement ?
Trois éléments alimentent la pression législative :
- L'opacité des modèles. Les fournisseurs de LLM, de modèles image-to-image et de générateurs vocaux ne divulguent pas, sauf exception, la liste des sources utilisées pour l'entraînement. Cette opacité rend la preuve d'utilisation quasi impossible pour un créateur isolé.
- La pression européenne. L'AI Act (règlement UE 2024/1689) impose désormais aux fournisseurs de modèles d'IA à usage général de publier un résumé suffisamment détaillé des données d'entraînement (article 53). Ce premier pas n'est pas suffisant pour fonder une preuve dans un contentieux individuel.
- Les contentieux qui s'accumulent. Aux États-Unis, plusieurs procès ont opposé des médias (New York Times, Getty Images), des auteurs et des artistes à des fournisseurs d'IA. En France et en Europe, les premiers dossiers émergent et heurtent ce mur probatoire.
Ce que dit le texte adopté par le Sénat
La proposition de loi (texte adopté n° 85, session 2025-2026) repose sur un mécanisme central : une présomption simple.
| Élément du dispositif | Contenu |
|---|---|
| Champ d'application | Œuvres et objets protégés par le Code de la propriété intellectuelle (droit d'auteur, droits voisins) utilisés par un fournisseur de système d'IA |
| Déclencheur de la présomption | Existence d'un ou plusieurs indices rendant l'utilisation vraisemblable |
| Effet | Inversion de la charge de la preuve : le fournisseur d'IA doit démontrer qu'il n'a pas utilisé l'œuvre, ou qu'il en avait le droit |
| Nature de la présomption | Simple (réfragable), c'est-à-dire renversable par une preuve contraire |
| Articulation avec l'AI Act | Complément national, sans dérogation au cadre européen |
Le texte intégral est consultable sur le site du Sénat : Texte adopté n° 85 (TA 25-085).
Une présomption simple peut être renversée par la partie adverse. Le fournisseur d'IA garde donc la possibilité de démontrer qu'il n'a pas utilisé l'œuvre — par exemple en produisant la liste effective de ses sources d'entraînement, ou en démontrant que l'œuvre n'y figurait pas. Ce qui change, c'est qui doit fournir la preuve.
Pourquoi l'inversion de la charge change tout
En droit français, l'article 1353 du Code civil pose la règle générale : « celui qui réclame l'exécution d'une obligation doit la prouver ». Dans un contentieux classique de droit d'auteur, c'est donc au créateur de prouver l'utilisation non autorisée de son œuvre. Avec un modèle d'IA fermé, cette charge est en pratique impossible à porter.
L'inversion ne supprime pas la nécessité de prouver — elle la déplace. Le créateur doit toujours apporter un premier faisceau d'indices plausible. Mais une fois ce seuil franchi, c'est au fournisseur d'IA de produire les éléments qu'il est seul à détenir.
Quels indices peuvent activer la présomption ?
Le texte ne dresse pas de liste limitative — c'est aux juges qu'il reviendra de qualifier ce qui constitue un indice « rendant l'utilisation vraisemblable ». Plusieurs catégories d'indices sont déjà discutées dans la doctrine et les premiers contentieux :
- Similarités stylistiques ou structurelles entre les sorties du modèle et l'œuvre originale, attestées par expertise
- Restitution de passages suffisamment proches pour qu'un usage soit plausible (verbatim ou quasi-verbatim)
- Métadonnées et signatures que le modèle laisse parfois transparaître dans ses sorties (artefacts, watermarks)
- Traces de scraping documentées (logs serveurs montrant des accès massifs depuis des plages d'IPs identifiées comme appartenant à des opérateurs de crawlers IA)
- Date de publication antérieure à la mise sur le marché du modèle, croisée avec l'accessibilité publique de l'œuvre au moment du training
- Présence d'un identifiant unique (token, mot inventé, signature graphique) ajouté volontairement par le créateur et restitué par le modèle
Aucun de ces indices, pris isolément, ne suffira automatiquement. C'est la convergence de plusieurs qui crée la vraisemblance. C'est exactement la logique du « faisceau d'indices » déjà bien connue en droit français.
Ce que ça change concrètement pour les créateurs
Pour les auteurs, photographes, journalistes, illustrateurs, scénaristes, musiciens et développeurs, le message est clair : les preuves d'antériorité et de paternité que vous constituez aujourd'hui peuvent demain être l'indice qui déclenche la présomption.
Trois réflexes deviennent stratégiques :
- 1Horodater l'œuvre dès sa création (et pas seulement à sa publication)Un horodatage électronique prouve qu'à une date précise, un fichier identique à votre œuvre actuelle existait. C'est la base d'un faisceau d'indices : démontrer qu'au moment où le modèle a été entraîné, votre œuvre était déjà créée et accessible.
- 2Conserver les métadonnées d'origine et les versions intermédiairesRAW pour les photos, fichiers source pour les designs et le code, historique de versions pour les textes (Git, Word, Drive). Ces éléments documentent la chaîne de création et renforcent la crédibilité du faisceau d'indices.
- 3Documenter la chaîne de publication et l'accessibilité publiqueCapturer la date de mise en ligne, les URLs sous lesquelles l'œuvre était accessible, les éventuelles présences dans des datasets publics. Cela permet de démontrer que l'œuvre était techniquement scrappable au moment du training du modèle.
Cas d'usage type : un auteur publié
Imaginons une auteure dont le roman a été publié en 2023 et est resté disponible en libre accès partiel sur le site de l'éditeur. En 2026, un modèle d'IA mis sur le marché en 2025 restitue des passages stylistiquement très proches.
| Indice | Source |
|---|---|
| Date de création du manuscrit | Horodatage électronique du fichier original (2022-2023) |
| Date de publication officielle | Dépôt légal BnF, ISBN, communiqués de presse (2023) |
| Accessibilité au moment du training | Captures Wayback Machine du site éditeur (2023-2024) |
| Similarités stylistiques | Expertise comparant manuscrit original et sorties IA |
| Traces de scraping documentées | Logs serveur de l'éditeur montrant des accès suspects |
Aucun de ces indices ne prouve seul l'utilisation. Mais leur convergence rend l'utilisation vraisemblable — ce qui, sous le régime proposé, suffirait à activer la présomption et à transférer la charge de la preuve au fournisseur d'IA.
Et LegalStamp dans tout ça ?
L'horodatage blockchain n'est pas une réponse magique au problème de la preuve dans les contentieux IA. Mais il constitue, dans le faisceau d'indices, une pièce solide et difficilement contestable : une démonstration cryptographique que telle œuvre, sous tel format précis, existait à telle date — vérifiable indépendamment, à coût marginal.
Concrètement, LegalStamp permet à un créateur d'horodater massivement ses œuvres dès leur production :
- Au moment de la création (manuscrit en cours, série de photos sortie du shooting, code source initial)
- À chaque jalon (révisions majeures, dépôt à un éditeur, livraison à un client)
- Avant publication (date d'antériorité avant mise en ligne, capacité à démontrer l'accessibilité publique pendant la fenêtre de training d'un modèle)
C'est un outil parmi d'autres — il ne remplace ni la documentation des métadonnées, ni l'expertise de similarité, ni les éventuelles traces de scraping. Mais il fournit l'ancrage temporel décentralisé qui rend l'ensemble du faisceau d'indices plus crédible. Et son coût marginal (centimes par horodatage à volume) le rend compatible avec une stratégie systématique, là où un dépôt huissier ou une enveloppe Soleau coûteraient des dizaines d'euros par œuvre.
Pour comprendre comment l'horodatage s'inscrit dans une stratégie globale de preuve d'antériorité, voyez notre article Preuve d'antériorité : 8 méthodes comparées.
Ce qui reste flou (et ce qu'il faudra surveiller)
Plusieurs points restent à clarifier :
- Calendrier parlementaire. Le texte n'est adopté qu'en première lecture au Sénat. Il doit encore être examiné par l'Assemblée nationale, faire l'objet d'éventuelles navettes, voire d'une commission mixte paritaire. Le calendrier dépend de l'agenda et des arbitrages politiques.
- Standard du faisceau d'indices. Combien d'indices, de quelle qualité, faudra-t-il pour activer la présomption ? Les premiers arrêts donneront la réponse.
- Articulation avec l'AI Act. L'AI Act européen impose déjà aux fournisseurs un résumé des données d'entraînement (article 53). Le texte français complète, ne remplace pas. La cohérence d'ensemble sera testée par les juges.
- Portée extraterritoriale. Un fournisseur d'IA établi hors UE pourra-t-il être assigné devant un juge français ? La question, classique en droit international privé, prendra une importance croissante.
- Rôle des opt-out. La directive UE 2019/790 autorise les ayants droit à s'opposer à la fouille de textes et de données (TDM, article 4). La présomption proposée pourrait interagir avec ces opt-out — un créateur ayant manifesté son refus aurait un argument supplémentaire.
Conclusion
Le vote du Sénat le 8 avril 2026 ne change pas immédiatement le droit applicable, mais il pose une question politique simple : dans un monde d'IA opaque, qui doit prouver quoi ? Le texte tranche en faveur des créateurs et déplace la charge sur les fournisseurs, dès lors qu'un faisceau d'indices rend l'utilisation vraisemblable.
Pour les auteurs, photographes, journalistes et créateurs en général, le message pratique est immédiat : les preuves d'antériorité que vous constituez aujourd'hui sont les indices que vous activerez demain. Plus la trace est ancienne, technique, vérifiable indépendamment, plus elle pèse dans le faisceau.
LegalStamp ne prétend pas régler le problème, mais propose la brique manquante d'un horodatage massif, peu coûteux, vérifiable indépendamment, qui s'intègre dans une stratégie globale de preuve. Le reste — métadonnées, expertise, documentation de la chaîne de publication — reste à votre charge. Mais la base temporelle solide, c'est exactement ce qu'un horodatage blockchain est conçu pour produire.
FAQ
Disclaimer (information générale) : cet article est fourni à des fins pédagogiques et ne constitue pas un avis juridique. La proposition de loi commentée n'est, à la date de publication, adoptée qu'en première lecture par le Sénat ; son contenu peut évoluer en cours de navette parlementaire. Pour engager une action sur le fondement d'une utilisation présumée d'œuvre par un système d'IA, faites valider votre stratégie par un avocat spécialisé en propriété intellectuelle.
Jeremy
Fondateur de LegalStamp, passionne par la blockchain et la protection des creations.
Articlés similaires

Arrêt CJUE Pelham II : pourquoi dater vos versions devient stratégique en cas de sampling ou de remix
5 mai 2026

Trusted Lists eIDAS : ce que change le nouveau format applicable depuis le 29 avril 2026
4 mai 2026

Blockchain et droit d'auteur : ce que change la jurisprudence 2025 (et ce qui arrive avec eIDAS 2.0)
21 avril 2026