En mai dernier, le géant de l’intelligence artificielle OpenAI avait annoncé le développement d’un outil révolutionnaire baptisé Media Manager. Son objectif : permettre aux créateurs de spécifier comment leurs œuvres seraient incluses dans – ou exclues de – les données d’entraînement des modèles d’IA. Une initiative ambitieuse destinée à répondre aux inquiétudes grandissantes sur l’utilisation des contenus protégés par le droit d’auteur. Mais voilà qu’en ce début d’année 2025, force est de constater que la promesse n’a pas été tenue.
Un outil qui devait changer la donne
Lorsque OpenAI avait présenté son projet Media Manager, l’enthousiasme était palpable. Grâce à des techniques de pointe en apprentissage automatique, cet outil devait être capable d’identifier les textes, images, vidéos et audio protégés par le droit d’auteur, pour ensuite respecter les préférences des créateurs quant à leur intégration dans les jeux de données. De quoi rassurer les artistes, écrivains et autres ayants-droit, tout en préservant OpenAI d’éventuelles poursuites judiciaires.
Mais en coulisses, il semblerait que le développement de Media Manager n’ait pas été une priorité. Selon un ancien employé d’OpenAI qui a souhaité rester anonyme, peu de ressources auraient été allouées au projet. Et les récents changements au sein de l’équipe juridique de l’entreprise, avec notamment le départ de Fred von Lohmann qui supervisait Media Manager, n’augurent rien de bon.
Une situation juridique complexe
Pendant ce temps, OpenAI fait face à une vague de poursuites en justice initiées par des créateurs mécontents. Parmi les plaignants figurent des auteurs célèbres comme Sarah Silverman et Ta-Nehisi Coates, mais aussi des artistes visuels et même des géants des médias tels que le New York Times. Tous dénoncent l’utilisation illégale de leurs œuvres pour entraîner les modèles d’IA.
Les créateurs et détenteurs de droits d’auteur ne contrôlent pas, et souvent ne savent même pas, où leurs œuvres apparaissent sur Internet.
– Joshua Weigensberg, avocat spécialisé en propriété intellectuelle
Certes, OpenAI propose déjà quelques solutions ad hoc pour se retirer de l’entraînement de l’IA, comme un formulaire permettant aux artistes de signaler leurs œuvres. Mais ces méthodes sont jugées insuffisantes et peu pratiques par beaucoup. L’absence d’un véritable système opt-out global soulève des questions sur le fardeau imposé aux créateurs pour protéger leur travail.
Fair use ou violation du droit d’auteur ?
Face aux accusations, OpenAI se retranche derrière le concept de « fair use », arguant que ses modèles créent des œuvres transformatives et non du plagiat. L’entreprise s’appuie sur des précédents comme le cas Google Books, où la justice avait estimé que la copie de millions de livres à des fins d’archivage numérique relevait d’un usage raisonnable.
Mais les experts sont divisés. Pour certains, les filtres mis en place par OpenAI pour éviter la régurgitation pure et simple des données d’entraînement pourraient suffire à convaincre un juge. D’autres estiment au contraire que le fair use ne dispense pas de demander l’autorisation préalable aux ayants-droit.
Vers une clarification réglementaire ?
Au-delà des batailles judiciaires, c’est tout l’écosystème de l’IA générative qui attend une clarification des règles du jeu. OpenAI avait justement présenté Media Manager comme une tentative de « fixer un standard pour l’industrie », en collaborant avec les régulateurs. Mais en tardant à concrétiser ses engagements, l’entreprise risque surtout d’attiser la défiance.
Il est certain que l’entraînement des modèles d’IA sur des contenus protégés soulève de nombreux défis éthiques et juridiques. La capacité de ces systèmes à assimiler et reproduire les créations humaines de façon presque imperceptible suscite des craintes légitimes chez les artistes et créateurs. Mais dans le même temps, entraver l’accès aux œuvres pourrait freiner considérablement les progrès de l’IA et priver la société de ses bénéfices potentiels.
En attendant des avancées législatives, les acteurs de l’IA et les représentants des ayants-droit devront probablement trouver des compromis. Des licences rémunérées pour l’utilisation des œuvres dans l’entraînement des modèles ? Des mécanismes plus fins pour filtrer les contenus protégés ? Seule la négociation permettra de concilier respect de la propriété intellectuelle et innovation technologique. Et sur ce chemin, des outils comme le Media Manager d’OpenAI, s’ils tiennent leurs promesses, pourraient certainement faciliter le dialogue.