Oversight Board Veut Que Meta Affine Ses Politiques Sur Les Images Explicites Générées Par L’IA

Dans un monde où l’intelligence artificielle progresse à pas de géant, les questions éthiques et les défis liés à la modération de contenu ne cessent de se multiplier. Récemment, l’Oversight Board, l’organe de surveillance semi-indépendant de Meta, a appelé l’entreprise à affiner ses politiques concernant les images explicites générées par l’IA. Cette recommandation fait suite à deux cas très médiatisés où des images nues générées par l’IA, représentant des personnalités publiques, ont été publiées sur Instagram et Facebook, mettant Meta dans l’embarras.

Un changement de terminologie et de catégorisation

L’Oversight Board souhaite que Meta remplace le terme « dérogatoire » par « non consensuel » et déplace ses politiques sur ces images de la section « Harcèlement et intimidation » à la section « Normes communautaires sur l’exploitation sexuelle ». Le Board a également suggéré à Meta de remplacer le mot « Photoshop » par un terme plus général désignant les médias manipulés.

De plus, Meta interdit actuellement les images non consensuelles si elles sont « non commerciales ou produites dans un cadre privé ». L’Oversight Board estime que cette clause ne devrait pas être obligatoire pour supprimer ou interdire les images générées par l’IA ou manipulées sans consentement.

Des cas emblématiques qui soulèvent des questions

Les recommandations de l’Oversight Board interviennent après deux cas très médiatisés où des images explicites générées par l’IA, représentant des personnalités publiques, ont été publiées sur Instagram et Facebook. Dans un de ces cas, une image nue générée par l’IA d’une personnalité publique indienne a été publiée sur Instagram. Malgré les signalements de plusieurs utilisateurs, Meta n’a pas supprimé l’image et a même clôturé le ticket sans examen approfondi. Ce n’est qu’après l’intervention de l’Oversight Board que l’entreprise a agi, supprimant le contenu et bannissant le compte.

L’autre image, ressemblant à une personnalité publique américaine, a été publiée sur Facebook. Meta disposait déjà de cette image dans sa base de données Media Matching Service (MMS) grâce à des articles de presse, et a pu rapidement la supprimer lorsqu’un autre utilisateur l’a téléchargée sur Facebook. Fait notable, Meta n’a ajouté l’image de la personnalité publique indienne à la base de données MMS qu’après l’intervention de l’Oversight Board.

C’est inquiétant, car de nombreuses victimes d’images intimes deepfake ne sont pas sous les feux des projecteurs et sont soit forcées d’accepter la diffusion de leurs représentations non consensuelles, soit de signaler chaque instance.

– L’Oversight Board

Des implications culturelles et sociétales

Breakthrough Trust, une organisation indienne qui milite pour réduire la violence en ligne fondée sur le genre, a souligné que ces problèmes et les politiques de Meta ont des implications culturelles. Dans des commentaires soumis à l’Oversight Board, Breakthrough a déclaré que les images non consensuelles sont souvent banalisées en tant que problème de vol d’identité plutôt que de violence sexiste.

Les victimes sont souvent confrontées à une victimisation secondaire lorsqu’elles signalent de tels cas dans les commissariats ou les tribunaux. Une fois sur Internet, l’image dépasse très rapidement la plateforme source, et le simple fait de la supprimer sur la plateforme source ne suffit pas car elle se propage rapidement vers d’autres plateformes.

– Barsha Chakraborty, responsable des médias chez Breakthrough

Devika Malik, une experte en politique des plateformes qui a précédemment travaillé dans l’équipe de politique de Meta pour l’Asie du Sud, a déclaré que les plateformes s’appuient largement sur les signalements des utilisateurs pour supprimer les images non consensuelles, ce qui pourrait ne pas être une approche fiable pour lutter contre les médias générés par l’IA.

Cela fait peser une charge injuste sur l’utilisateur concerné pour prouver son identité et l’absence de consentement (comme le prévoit la politique de Meta). Cela peut devenir plus sujet à erreur lorsqu’il s’agit de médias synthétiques, et le temps nécessaire pour capturer et vérifier ces signaux externes permet au contenu de gagner un élan nuisible.

– Devika Malik, experte en politique des plateformes

Des pistes d’amélioration pour Meta

Aparajita Bharti, partenaire fondatrice du think tank de Delhi The Quantum Hub (TQH), a déclaré que Meta devrait permettre aux utilisateurs de fournir plus de contexte lorsqu’ils signalent du contenu, car ils pourraient ne pas être au courant des différentes catégories de violations des règles dans la politique de Meta.

Nous espérons que Meta ira au-delà de la décision finale [de l’Oversight Board] pour permettre des canaux flexibles et centrés sur l’utilisateur afin de signaler le contenu de cette nature.

– Aparajita Bharti, partenaire fondatrice de The Quantum Hub

En réponse aux observations de l’Oversight Board, Meta a déclaré qu’elle examinerait ces recommandations. Il est clair que l’entreprise doit encore affiner ses politiques et ses processus pour faire face aux défis croissants posés par les images explicites générées par l’IA et assurer un environnement en ligne plus sûr et plus éthique pour tous les utilisateurs.

À mesure que la technologie progresse, il est crucial que les plateformes de médias sociaux comme Meta s’adaptent et évoluent pour répondre aux nouvelles menaces et préoccupations. En travaillant main dans la main avec des organismes de surveillance comme l’Oversight Board et en écoutant les commentaires des utilisateurs et des experts, Meta peut faire des pas significatifs vers une modération de contenu plus efficace et plus équitable à l’ère de l’IA.

author avatar
MondeTech.fr

À lire également