<< Retour aux articles
Image  article

Intelligence artificielle et contrefaçon : quels enjeux pour les créateurs et les développeurs ?

Propriété intellectuelle et TIC - Propriété intellectuelle et TIC
11/02/2025

L’essor de l’intelligence artificielle (IA) générative bouleverse les industries créatives et numériques, mais soulève des questions juridiques cruciales en matière de droit d’auteur et de propriété intellectuelle. L’utilisation d’œuvres protégées pour entraîner ces modèles d’IA sans autorisation explicite des titulaires de droits pourrait constituer une contrefaçon.

L’entraînement des IA : un acte de reproduction illicite ?

Les modèles d’IA générative sont entraînés à partir de bases de données massives, souvent composées d’œuvres protégées. En France, le Code de la propriété intellectuelle (articles L.122-1 et suivants) accorde aux auteurs un droit exclusif de reproduction. Toute reproduction non autorisée, totale ou partielle, est considérée comme une contrefaçon (article L.335-2).

L’entraînement des IA implique souvent la copie temporaire ou durable d’œuvres existantes. Si cette copie dépasse une simple analyse d’extraits non substantiels, elle peut être qualifiée de reproduction illicite.

Des affaires récentes illustrent ces enjeux :

  • Getty Images c. Stability AI : Getty Images accuse Stability AI d’avoir utilisé ses photos sous licence pour entraîner son IA sans autorisation, certaines images générées portant encore des filigranes.
  • New York Times c. OpenAI et Microsoft : Le New York Times reproche à OpenAI d’avoir entraîné ChatGPT sur ses articles protégés, certains passages étant reproduits intégralement.

Exceptions et limites juridiques

L’Union européenne prévoit une exception pour la fouille de textes et de données (directive 2019/790), mais celle-ci ne s’applique que si les titulaires de droits n’ont pas explicitement refusé l’utilisation de leurs œuvres (« opt-out »). Aux États-Unis, la doctrine du fair use permet certaines utilisations, mais les tribunaux n’ont pas encore tranché cette question pour l’entraînement des IA.

En l’état actuel, entraîner des IA sur des œuvres protégées sans autorisation reste juridiquement risqué.

Protéger ses œuvres face aux IA génératives

Les créateurs doivent adopter des stratégies de protection :

  • Dépôt et enregistrement : Protéger ses créations auprès de l’INPI ou par des solutions numériques (horodatage blockchain).
  • Surveillance en ligne : Utiliser des outils comme Google Reverse Image Search ou Draftable pour repérer les utilisations non autorisées.
  • Exercice du droit d’opposition : En Europe, les auteurs peuvent explicitement refuser que leurs œuvres soient utilisées pour l’entraînement des IA.

En cas de contrefaçon, des recours sont possibles : actions en référé, actions en contrefaçon ou signalements sur les plateformes concernées.

Limiter les risques pour les développeurs d’IA

Les entreprises développant des IA doivent prévoir des mesures pour éviter les contentieux :

  • Utilisation de bases de données sous licences ouvertes (Creative Commons, domaine public).
  • Implémentation de filtres anti-contrefaçon pour empêcher la reproduction fidèle d’œuvres protégées.
  • Transparence sur les sources : La publication des sources de données pourrait devenir une obligation légale.

Certaines entreprises comme Microsoft ont déjà annoncé qu’elles prendraient en charge les frais de défense de leurs clients en cas de litige pour contrefaçon.

Faut-il attendre l’évolution du droit ?

La législation sur l’IA est en pleine mutation, mais attendre une clarification n’est pas une solution viable. Les créateurs doivent protéger activement leurs œuvres, et les développeurs doivent sécuriser leurs pratiques. Une veille juridique constante est essentielle pour anticiper les futures obligations et réduire les risques juridiques.