L'impact de l'IA sur les droits d'auteur

L'impact de l'IA sur les droits d'auteur

30/6/25

X min

Depuis le lancement de GPT-4o, capable de générer des images dans le style des studios Ghibli à partir de simples descriptions textuelles, les réseaux sociaux s’enflamment. Partout dans le monde, des internautes détournent leurs photos en les retravaillant dans le style Ghibli, témoignant d’un véritable engouement planétaire.

Mais derrière ces clichés générés par l’IA générative se cache une question de fond, cruciale pour le monde de l’édition : sur quoi ces modèles apprennent-ils et à qui doivent-ils des comptes ?

Entraîner une IA sur des œuvres protégées, même pour en reproduire le style, pourrait bien constituer une violation des droits d’auteur.

Cette problématique de l’édition et l’IA est loin d’être théorique : des procédures judiciaires ont déjà été lancées. Le New York Times a assigné OpenAI et Microsoft fin 2023 pour utilisation non autorisée de ses contenus. D’autres acteurs, comme Le Monde ou l’AFP, ont préféré signer des accords de licence avec OpenAI.

En toile de fond, une bataille juridique et économique pour la maîtrise de la donnée textuelle, la véritable matière première de l’intelligence artificielle.

L’entrée en vigueur du Règlement européen sur l’IA (RIA) en août 2025 impose aux développeurs d’IA davantage de transparence sur leurs données d’entraînement et un strict respect des droits de propriété intellectuelle.

Mais dans les faits, l’application à grande échelle reste floue et les professionnels du livre s’interrogent : quelles données sont utilisées ? Que devient une œuvre une fois intégrée dans un modèle d’IA ? Et surtout, comment protéger les auteurs dans ce nouvel écosystème numérique ?

💡 Si vous souhaitez en savoir plus sur les applications de l'IA dans l'édition : consultez notre guide complet sur les usages de l'Intelligence Artificielle dans le secteur de l'édition en 2025. 💡

Les outils d’IA utilisent-ils des données protégées par le droit d'auteur ?

En un mot : oui.

Les outils d’IA ont été entraînés avec des données protégées par le droit d’auteur, comme le souligne cet extrait du rapport d'OpenAI présenté au comité des communications et du numérique de la Chambre des Lords britannique en 2024.

"Étant donné que le droit d'auteur couvre aujourd'hui pratiquement toutes les formes d'expression humaine, il serait impossible d'entraîner les meilleurs modèles d'IA d'aujourd'hui sans utiliser des documents protégés par le droit d'auteur. Limiter les données d'entraînement aux livres et dessins du domaine public créés il y a plus d'un siècle pourrait donner lieu à une expérience intéressante mais ne permettrait pas de fournir des systèmes d'IA répondant aux besoins des citoyens d'aujourd'hui.

Rapport OpenAI

Les données protégées par le droit d’auteur sont une mine d’or pour les outils d’Intelligence Artificielle

Les données constituent un véritable trésor pour les outils d’intelligence artificielle et leur rôle est crucial pour leur performance. Sans un flux constant de nouvelles données ou de données créatives, les IA risquent de se dégrader, produisant ainsi des réponses biaisées ou erronées.

Est-ce que c’est légal ?

La directive 2019/790 sur le Droit d'Auteur et les droits voisins dans le Marché Unique Numérique permet la fouille de textes et de données pour la recherche scientifique (Text and Data Mining TDM) et prévoit dans ce cadre une exception pour tous les usages de l’IA, pour encourager l’innovation, y compris commerciaux, sans mécanisme de rémunération compensatoire pour les ayants droit avec possibilité de sortie, d’opt-out,

La seule condition : qu’ils soient librement accessibles sur internet.

💡 Cette directive a été finalisée avant l’émergence de l’IA générative. À l’époque, rien ne laissait présager l’essor rapide de technologies comme ChatGPT (lancé fin 2022) et des bouleversements économiques et juridiques qu’elles allaient engendrer.

Les dispositions clés de la Directive (UE) 2019/790 du Parlement européen et du Conseil du 17 avril 2019

a) Article 15 (ex-article 11) – Droit voisin pour la presse

  • Instaure un droit voisin au profit des éditeurs de presse, leur reconnaissant une protection juridique spécifique sur leurs publications
  • Contraint les plateformes telles que Google News ou Facebook à négocier et rémunérer les éditeurs pour la réutilisation d’extraits d’articles

b) Article 17 (ex-article 13) – Responsabilité accrue des plateformes

  • Rend les plateformes juridiquement responsables des contenus protégés publiés par leurs utilisateurs

  • Elles doivent obtenir des licences adéquates ou supprimer rapidement les contenus illicites, sous peine de sanctions

Alors que les débats se concentrent souvent sur les données d’entraînement des modèles d’IA, un autre aspect, plus discret mais tout aussi sensible, mérite l’attention des professionnels de l’édition : le contenu des requêtes, ou prompts, saisis quotidiennement dans ces outils.

Les risques spécifiques liés aux prompts

Il est important d’être très vigilant dans les requêtes que vous soumettez aux outils d’IA aussi appelés “prompts”.

Qu’est-ce qu’un prompt ?

Un prompt est une instruction ou une question donnée à une intelligence artificielle pour générer une réponse. C'est ce qui guide l'IA dans la création de contenu, que ce soit du texte, une image ou du code. Plus il est précis, plus le résultat sera pertinent.

Les risques spécifiques liés aux prompts :

  • Divulgation accidentelle de secrets : en croyant bien faire, un salarié pourrait poser une question du type : « Comment améliorer les priorités stratégiques ma maison d’édition  en 2025 ». S’il fournit des éléments internes dans sa requête, un employé d’une autre maison d’édition pourrait avoir accès à ces informations par la suite en questionnant l’outil IA, qui aura ingéré cette information
  • Divulgation de manuscrit : en souhaitant apporter des corrections à un manuscrit existant, un salarié pourrait soumettre un texte complet qui pourrait être réutiliser en partie par les outils d’IA dans leurs rédactions

  • Absence de contrôle sur le stockage : une fois le prompt parti, on ne sait pas où il est stocké, ni combien de temps. Si l’IA subit une faille de sécurité ou une fuite de données, ces informations pourraient réapparaître

  • Utilisation malicieuse des IA publiques : un autre risque est qu’un utilisateur externe pourrait tenter de faire révéler à l’IA des informations qu’elle a apprises via d’autres prompts, en manipulant ses réponses avec des formulations astucieuses ou en croisant plusieurs requêtes

Comment faire pour que mes contenus ne soient pas utilisés par des IA?

Les ayants droit peuvent toutefois s’opposer à la directive TDM via l'« opt-out ». Le décret du 23 juin 2022 précise que cette opposition peut être exprimée de manière simple, par exemple, via des métadonnées ou des conditions d'utilisation d'un site.

Pour faire simple, si vous n’utilisez pas l’opt-out, il est considéré que vous ne vous opposez pas à l’utilisation de votre contenu par les modèles IA.

Comment afficher l’Opt-Out pour protéger mes contenus de l’IA?

Le S.N.E. met à disposition un modèle que vous pouvez utiliser et personnaliser pour l’intégrer dans les conditions générales de votre site internet pour éviter que vos contenus ne soient exploités par l’IA.

Les limites de l’opt-out comme mécanisme de protection

Le système présente trois limites principales :

Difficulté de contrôle

Il est difficile de vérifier si un modèle d’IA respecte réellement l’opt-out. Aucune garantie n’existe sur l'utilisation de données déjà collectées.

La présomption d’autorisation par défaut

Entraîne une inversion de la charge. Au lieu d'une autorisation préalable (opt-in), les ayants droit doivent manifester leur volonté de s’opposer à l’utilisation de leurs contenus.

Atteinte potentielle au droit moral

En droit français, le droit moral protège l’intégrité de l’œuvre et l’identité de son auteur. Si une IA génère un contenu contraire aux convictions de l’auteur ou dénature son œuvre, cela peut porter atteinte à son honneur ou à l’intégrité de sa création.

Comment rémunérer les ayants droit à l’ère des outils d’IA ?

Le ministère de la Culture a lancé en 2024 deux missions pour aborder la transparence des contenus utilisés et la rémunération des ayants droit. Ces missions portent sur :

La rémunération des contenus culturels utilisés par les systèmes d’intelligence artificielle

La transparence des données d'entraînement : un rapport sur la mise en œuvre du règlement européen qui établit des règles harmonisées sur l’intelligence artificielle (RIA).

La réflexion est toujours en cours pour déterminer la valeur des données utilisées par les modèles IA.

Les mécanismes de rémunération envisageables selon les études préliminaires ci-dessus, dépendront du degré de régulation de l’état :

Le premier mécanisme de rémunération à avoir émergé spontanément repose sur la conclusion d’accords contractuels, notamment sous forme de licences de contenus. C’est la voie qu’ont choisie plusieurs acteurs majeurs : Le Monde a conclu un accord avec OpenAI pour ChatGPT, tandis que la BnF s’est associée à Mistral AI.

Ces partenariats bilatéraux offrent une solution gagnant-gagnant : ils permettent aux éditeurs et institutions de valoriser leurs contenus tout en garantissant aux développeurs d’IA un accès légal, direct et de qualité aux données nécessaires à l’entraînement de leurs modèles.

Des exemples de partenariats stratégiques entre éditeurs/journaux et fournisseurs de modèles IA pour l’accès aux données

Le premier mécanisme de rémunération à avoir émergé spontanément repose sur la conclusion d’accords contractuels, notamment sous forme de licences de contenus.

Plusieurs grands journaux collaborent avec des géants de l'IA.

Le Monde, le Financial Times, Axel Springer, et News Corp ont conclu des accords avec ChatGPT.

La Bibliothèque Nationale de France (BNF) et l'Institut national de l'audiovisuel (INA) ont également négocié un accord afin de donner accès à leurs données publiques à des acteurs français de l’IA générative, dont Mistral AI (projet Argimi).

En novembre 2024, HarperCollins a conclu un accord avec une entreprise technologique, identifiée comme Microsoft, permettant l'utilisation de certains de ses ouvrages pour entraîner des modèles d'intelligence artificielle (IA). La proposition prévoit une rémunération fixe de 2 500 dollars par livre pour les auteurs ayant accepté cet accord, non négociable, pour une utilisation sur une période de trois ans.

Cette initiative a suscité des réactions mitigées parmi les auteurs, en raison de la compensation offerte.

À l’inverse, un contenu créé par l’IA peut-il être protégé par le droit d’auteur ?

En droit français, une œuvre n’est protégée par le droit d’auteur que si elle est originale et reflète l’empreinte de la personnalité d’un auteur humain. Une création purement issue d’un algorithme sans apport intellectuel propre d’une personne ne peut pas être protégée.

Par exemple, dans le cas d’une image ou d’un texte généré intégralement par IA, sans retouche humaine, personne ne peut revendiquer de droit d’auteur dessus – ni l’éditeur qui la publie, ni le programmeur de l’IA (car il n’a pas directement créé l’image/le texte), ni l’utilisateur qui a tapé le prompt (simple déclencheur technique).

Aux États-Unis, le Copyright Office a révoqué la protection d'une bande dessinée illustrée par IA Zarya of the Dawn, estimant que seules les créations humaines peuvent être protégées.

Que faire en cas de ressemblance d’un contenu IA avec une œuvre protégée existante ?

Une IA pourrait générer une image qui ressemble trop à une affiche existante ou au travail d’un artiste précis.

Or, si une œuvre visuelle ou textuelle générée par l’IA ressemble fortement à une œuvre déjà existante, cela peut entraîner des risques juridiques.

En voici un exemple. Nous avons expressément demandé à ChatGPT de nous générer une couverture de livre avec le style de Van Gogh.



Des procès sont en cours, notamment celui des illustratrices Sarah Andersen, Kelly McKerman et Karla Ortiz qui poursuivent Stability AI en justice pour violation des droits d’auteur. Elle contestent l’utilisation de leurs œuvres protégées dans le cadre de l’entraînement de l’IA générative Stable Diffusion.

Enjeux d’IA et droits d’auteur : un équilibre encore à construire

L’essor rapide des outils d’intelligence artificielle pour l’édition bouleverse les équilibres du droit d’auteur. Les modèles génératifs produisent textes et images à partir de contenus souvent protégés, sans informer ni rémunérer les auteurs. Certains éditeurs s’engagent via des partenariats encadrés, d’autres saisissent la justice. Le flou juridique persiste.

L’Union européenne tente d’y répondre avec la directive EUCD et le Règlement sur l’IA, qui imposent plus de transparence. Mais leur application concrète reste incertaine. Le mécanisme d’opt-out, utile, mais imparfait, repose sur une logique d’exclusion plutôt que de consentement, sans réel moyen de contrôle.

Dans ce contexte, les données créatives deviennent un actif stratégique. L’enjeu dépasse la seule sphère juridique : il est aussi culturel, économique et éthique. Auteurs, éditeurs et institutions doivent repenser la diffusion de leurs contenus, à l’heure où l’IA s’impose comme nouvel acteur de la création.

📘 Pour aller plus loin, retrouvez nos conseils concrets et recommandations dans notre tableau récapitulatif des outils d'IA pour l'édition.

👋 Crealo, logiciel de gestion des droits d’auteurs, vous permet d'automatiser votre gestion des droits d'auteur et de générer les relevés de droits adaptés. Vous pouvez nous contacter, nos équipes auront le plaisir de vous accompagner dans la simplification de vos redditions de comptes.

Mis en ligne par :
Photo Apolline Perivier Crealo
Apolline Perivier

Nos derniers articles

L'environnement Crealo pour la gestion de vos droits d'auteur.

Discutons de votre projet !

Planifier une démo