Un Nouveau Projet de Loi Sénatorial Vise à Protéger le Contenu des Artistes et Journalistes de l’IA

L’émergence de l’intelligence artificielle (IA) générative soulève de nombreuses questions quant à la protection du contenu créé par les artistes, les musiciens et les journalistes. Face à ce défi, un groupe bipartisan de sénateurs américains vient de présenter un nouveau projet de loi visant à donner plus de contrôle aux créateurs sur l’utilisation de leurs œuvres par les systèmes d’IA.

Un cadre légal pour protéger la provenance du contenu

Le projet de loi, nommé « Content Origin Protection and Integrity from Edited and Deepfaked Media Act » (COPIED Act), obligerait les entreprises développant des outils d’IA à permettre aux utilisateurs d’attacher des informations sur la provenance de leur contenu dans les deux ans. Ces métadonnées indiqueraient l’origine des photos, articles et autres contenus numériques, et empêcheraient leur utilisation pour entraîner des modèles d’IA ou générer du contenu sans autorisation.

Les créateurs auraient ainsi la possibilité de fixer les conditions d’utilisation de leurs œuvres, y compris une éventuelle compensation financière. Ils pourraient également poursuivre en justice les plateformes utilisant leur contenu sans permission ou ayant altéré les informations de provenance.

Le COPIED Act apportera une transparence indispensable autour du contenu généré par l’IA. Il redonnera aussi le contrôle aux créateurs, y compris les journalistes locaux, artistes et musiciens, via un processus de provenance et de watermarking dont je pense qu’il est absolument nécessaire.

– Sénateur Maria Cantwell

Vers des standards pour détecter les deepfakes et contenus synthétiques

Au-delà de la protection des droits des créateurs, le COPIED Act chargerait le National Institute of Standards and Technology (NIST) de définir des directives et standards pour les informations de provenance, le watermarking et la détection de contenu synthétique. L’objectif est de pouvoir déterminer si un contenu a été généré ou modifié par une IA, et d’où provient ce contenu synthétique.

Ces mesures sont soutenues par de nombreux groupes d’artistes et créateurs, conscients des risques de voir leurs œuvres exploitées sans leur consentement par des systèmes d’IA de plus en plus performants. La menace des deepfakes, ces contenus hyper-réalistes générés par l’IA, est également prise très au sérieux.

L’IA au cœur de l’agenda législatif

Ce projet de loi s’inscrit dans un contexte de multiplication des initiatives législatives autour de l’IA, aux États-Unis comme dans le monde. Rien qu’au niveau des États américains, ce sont près de 50 projets de lois liés à l’IA qui sont déposés chaque semaine !

Au niveau fédéral, on peut citer le décret présidentiel de Joe Biden d’octobre dernier visant à établir des standards de sécurité et de transparence pour les systèmes d’IA mis à disposition du public. Les développeurs seraient notamment tenus de partager les résultats de leurs tests de sécurité avec le gouvernement.

  • Un projet de loi pour tenir les réseaux sociaux responsables de la modération des deepfakes pornographiques
  • Un « roadmap » sénatorial pour stimuler l’innovation en IA, combattre les deepfakes dans les élections et renforcer la sécurité nationale

L’enjeu est de taille pour trouver le bon équilibre entre soutien à l’innovation, protection des individus et respect des droits des créateurs à l’ère de l’intelligence artificielle. Le défi est immense, mais les législateurs semblent déterminés à construire un cadre adapté à ces technologies transformatrices.

Une chose est sûre : l’IA est au cœur des préoccupations et nourrit tous les débats, des réseaux sociaux aux plus hautes sphères du pouvoir. Le COPIED Act n’est qu’une première pierre à un édifice législatif appelé à se renforcer pour accompagner la déferlante de l’IA générative et ses multiples implications sociétales, économiques et éthiques.

author avatar
MondeTech.fr

À lire également