Adobe Propose un Moyen de Protéger les Artistes des Arnaques à l’IA

Dans un monde numérique en constante évolution, les artistes sont confrontés à un nouveau défi de taille : protéger leurs créations des ripoffs générés par l’intelligence artificielle. Face à la montée inquiétante des deepfakes, des fausses informations et du vol de contenu, Adobe, le géant des logiciels de création, propose une solution innovante pour certifier l’authenticité des œuvres numériques.

Un filigrane numérique invisible pour identifier l’auteur

Au cœur de cette initiative baptisée Content Authenticity, on trouve une technologie de watermarking invisible. Ce filigrane numérique encode discrètement un identifiant unique dans le fichier, permettant de retracer son créateur original, même si les métadonnées sont supprimées. Combiné à une empreinte digitale et des métadonnées cryptées, ce système offre une protection robuste aux images, vidéos et fichiers audio.

Où qu’aille un fichier sur le web ou un appareil mobile, le certificat d’authenticité lui restera toujours attaché.

– Andy Parsons, Directeur Content Authenticity chez Adobe

Une adoption large pour un impact maximal

L’efficacité d’une telle solution dépend évidemment de son adoption par les créateurs et les plateformes. Avec ses 33 millions d’abonnés, Adobe est idéalement positionné pour faire bouger les lignes. La firme a aussi cofondé des groupes travaillant sur l’authenticité des contenus, rassemblant des acteurs majeurs comme Microsoft, OpenAI, TikTok, LinkedIn ou encore Google.

En attendant une intégration native par les réseaux sociaux, une extension Chrome et un outil d’inspection permettront de visualiser les certificats d’authenticité partout sur le web. De quoi faciliter la distinction entre le vrai et le faux à l’heure où l’IA peine encore à détecter ses propres créations.

L’IA au service des artistes avec Adobe Firefly

Adobe ne rejette pas pour autant l’IA générative, bien au contraire. Son outil maison Firefly, entraîné sur des images sous licence, rencontre un grand succès auprès des utilisateurs de Photoshop et Lightroom. L’entreprise cherche ainsi à responsabiliser l’usage de cette technologie en identifiant clairement quand elle est utilisée et en empêchant l’exploitation non consentie d’œuvres dans les jeux de données d’entraînement.

Vers plus de transparence et de contrôle pour les artistes

Autre initiative dans ce sens, Adobe collabore avec Spawning, un outil permettant aux artistes de vérifier si leurs créations sont présentes dans les principaux jeux de données et de les inscrire sur une liste « Do Not Train ». Un moyen supplémentaire de garder la main sur l’usage fait de leurs œuvres.

Avec le lancement en bêta de son extension Chrome Content Authenticity dès mardi et la sortie prévue de l’application web l’an prochain, Adobe pose les bases d’un écosystème numérique plus transparent et respectueux du travail des artistes. Un pas important pour s’assurer que les formidables avancées de l’IA ne se fassent pas au détriment de ceux qui nourrissent notre culture visuelle.

  • Filigrane numérique invisible pour identifier l’auteur original
  • Besoin d’une large adoption par les créateurs et plateformes
  • Adobe responsabilise l’usage de l’IA avec Firefly
  • Collaboration avec Spawning pour le contrôle des jeux de données
author avatar
MondeTech.fr

À lire également