Meta Étiquette des Photos Réelles comme « Créées par l’IA »

Depuis quelques semaines, les photographes sont sous le choc. Meta, la maison mère de Facebook, Instagram et Threads, a commencé à étiqueter certaines de leurs photos comme étant « Créées par l’IA », alors qu’elles sont bien réelles. Une situation qui crée une grande confusion et soulève de nombreuses questions sur la gestion du contenu généré par l’intelligence artificielle sur les réseaux sociaux.

Des photos réelles étiquetées « IA »

Tout a commencé en mai dernier, quand Meta a déployé son système d’étiquetage du contenu généré par l’IA. L’objectif affiché était d’apporter plus de transparence, en indiquant clairement aux utilisateurs quand une image avait été créée ou modifiée par un outil d’intelligence artificielle. Mais très vite, des photographes ont remarqué que certaines de leurs photos, pourtant 100% authentiques, se retrouvaient avec le label « Créé par l’IA ».

Pete Souza, l’ancien photographe de la Maison Blanche, a par exemple vu une de ses photos étiquetée ainsi. Selon lui, cela serait dû à un changement dans le fonctionnement de l’outil de recadrage d’Adobe, qui oblige maintenant à « aplatir » l’image avant de la sauvegarder. Une action qui semble déclencher l’algorithme de détection de Meta.

Ce qui est agaçant, c’est que la publication m’a forcé à inclure « Créé par l’IA » même si je l’avais décoché.

Pete Souza, ancien photographe de la Maison Blanche

La difficile modération du contenu IA

Face aux nombreuses réactions des photographes, Meta reste pour l’instant silencieux. Dans un article de blog en février, l’entreprise expliquait utiliser les métadonnées des images pour détecter si elles avaient été générées par l’IA. Mais visiblement, le système est loin d’être infaillible. Certains pensent que le simple fait d’utiliser des outils de retouche intégrant de l’IA, comme le remplissage génératif d’Adobe, suffit à déclencher l’étiquette.

Cet épisode illustre toute la difficulté pour les réseaux sociaux de modérer le contenu généré par l’IA. Avec l’essor des outils comme Midjourney ou Stable Diffusion, de plus en plus d’images créées par l’IA circulent en ligne. Un vrai défi pour des plateformes comme Instagram ou Facebook, qui doivent trouver le juste équilibre entre liberté de création et transparence envers les utilisateurs.

L’enjeu crucial de la transparence

Au-delà de la frustration des photographes, cette affaire soulève la question cruciale de la transparence autour de l’IA. A l’approche des élections américaines, la pression est forte sur les réseaux sociaux pour clarifier l’origine des contenus. Mais comme le montre le cas de Meta, cela s’avère plus compliqué que prévu.

Pour l’instant, le label « Créé par l’IA » de Meta ne fait pas de distinction entre une image entièrement générée par l’IA, et une photo retouchée avec des outils d’intelligence artificielle. Une nuance pourtant essentielle pour les utilisateurs. Beaucoup appellent donc Meta à affiner son système, peut-être en créant des étiquettes différentes en fonction du niveau d’implication de l’IA.

Vers une standardisation des métadonnées ?

À plus long terme, la solution pourrait passer par une standardisation des métadonnées indiquant l’utilisation de l’IA. C’est ce que préconise la C2PA (Coalition for Content Provenance and Authenticity), qui regroupe des acteurs comme Adobe, Microsoft ou la BBC. En intégrant directement l’information dans le fichier de l’image, cela permettrait une détection plus fiable, quel que soit le réseau social.

Mais en attendant ce potentiel standard, Meta va devoir rapidement ajuster son système s’il ne veut pas s’aliéner toute la communauté des photographes. Car comme le résume Pete Souza : « Il ne faudrait pas que cela décourage les gens de partager leurs vraies photos ». Un risque bien réel pour le premier réseau social d’images au monde.

author avatar
MondeTech.fr

À lire également