Les Progrès de l’IA pour Protéger les Enfants des Deepfakes Dangereux

Alors que l’intelligence artificielle devient de plus en plus sophistiquée, elle soulève de nombreuses questions éthiques, en particulier lorsqu’il s’agit de protéger les plus vulnérables. Le Dr Rebecca Portnoff, vice-présidente data science chez l’organisation à but non lucratif Thorn, se consacre à utiliser l’IA pour lutter contre l’exploitation sexuelle des enfants en ligne, notamment à travers les deepfakes malveillants.

Une Mission pour Protéger les Enfants

Diplômée de Princeton et titulaire d’un doctorat en informatique de Berkeley, le Dr Portnoff mène depuis 2016 l’équipe de Thorn dédiée au développement de solutions d’apprentissage automatique et d’IA pour stopper, prévenir et contrer les abus sexuels sur mineurs. Son travail se concentre sur l’identification des victimes, la prévention de leur revictimisation et la lutte contre la propagation virale des contenus pédopornographiques.

L’année dernière, elle a dirigé l’initiative conjointe « Safety by Design » de Thorn et All Tech Is Human, visant à empêcher l’utilisation de l’IA générative pour nuire sexuellement aux enfants. Un défi de taille, qui a impliqué de définir des principes et mesures pour :

  • Empêcher les modèles génératifs de produire du matériel pédopornographique
  • Détecter plus efficacement ce type de contenu
  • Bloquer la diffusion des modèles, services et applications utilisés pour générer ces abus

Bien qu’il n’existe pas encore de loi fédérale couvrant les deepfakes pornographiques non consensuels, certains États comme la Floride, la Louisiane et le Nouveau-Mexique ont adopté des législations ciblant spécifiquement les abus liés à l’IA sur les mineurs. Selon le Dr Portnoff, il s’agit de l’un des problèmes les plus urgents liés à l’évolution de l’IA :

Un mineur sur dix déclare connaître des cas où leurs pairs ont généré des images de nu d’autres enfants.

– Dr. Rebecca Portnoff

Des Mesures Concrètes contre les Abus

Face à cette réalité inacceptable, des mesures peuvent être mises en place pour prévenir et réduire ces méfaits. Thorn préconise notamment que les entreprises tech :

  • Adoptent les principes et mesures de « safety by design »
  • Partagent publiquement leurs actions pour empêcher le détournement de leurs technologies d’IA générative
  • Collaborent avec l’IEEE et le NIST pour définir des standards permettant d’auditer leurs progrès
  • Dialoguent avec les décideurs politiques pour légiférer de manière centrée sur l’impact

Naviguer en tant que Femme dans l’IA

Au cours de son parcours, le Dr Portnoff a dû faire face au scepticisme lié au fait d’être une femme dans un domaine très masculin. Être préparée, confiante et partir du principe que les intentions sont bonnes l’a aidée à relever ces défis avec curiosité et audace.

Son conseil aux femmes souhaitant intégrer l’IA est de toujours croire en ses capacités et en son sens, malgré les préjugés. « Alors que l’apprentissage automatique et l’IA s’intègrent de plus en plus dans nos systèmes humains, nous devons tous travailler ensemble pour nous assurer que cela se fasse d’une manière qui renforce notre épanouissement collectif et donne la priorité aux plus vulnérables », souligne-t-elle.

Investir dans une IA Responsable

Construire une IA éthique implique de la transparence, de l’équité, de la fiabilité et de la sécurité. Cela passe par une écoute active et une collaboration dépassant le cercle des experts tech. Les investisseurs ont aussi un rôle clé à jouer en intégrant ces critères de responsabilité dès le stade des due diligences et en conditionnant leurs financements au respect de certains standards.

Il y a beaucoup de travail à faire. Et vous pouvez être celui qui le fera.

– Dr. Rebecca Portnoff

À l’heure où des milliards sont investis dans les startups d’IA, il est crucial de mettre l’éthique au cœur des priorités pour bâtir un futur numérique plus sûr et inclusif, en particulier pour les enfants. Les travaux pionniers du Dr Portnoff et de Thorn ouvrent la voie.

author avatar
MondeTech.fr

À lire également