Imaginez un monde où vous ne pouvez plus faire confiance à ce que vous voyez dans une vidéo. Un monde où les personnalités publiques tiennent des discours qu’elles n’ont jamais prononcés, où vos proches apparaissent dans des situations compromettantes sans y avoir jamais participé. Bienvenue dans l’ère des deepfakes, ces montages vidéo ultra-réalistes générés par intelligence artificielle. Si cette technologie ouvre des perspectives créatives fascinantes, elle représente également une menace grandissante pour notre société, à l’heure où la désinformation se propage à une vitesse alarmante.
Aux origines des deepfakes : le deep learning
Les deepfakes s’appuient sur une branche de l’intelligence artificielle appelée deep learning ou apprentissage profond. Cette technique utilise des réseaux de neurones artificiels pour analyser d’immenses volumes de données, comme des photos et vidéos de visages. Parmi les architectures de deep learning les plus utilisées pour créer des deepfakes, on trouve les réseaux antagonistes génératifs (GANs). Ceux-ci mettent en compétition deux réseaux de neurones : un générateur, qui crée des contenus synthétiques, et un discriminateur, qui tente de différencier le vrai du faux.
Dans les coulisses de la création d’un deepfake
Concrètement, pour réaliser un deepfake, il faut d’abord collecter de nombreuses images et vidéos de la personne à imiter. L’intelligence artificielle va alors apprendre les caractéristiques de son visage, sa gestuelle, le timbre de sa voix… Une fois le modèle entraîné, il devient possible de générer de nouvelles vidéos en y transposant le visage et les expressions de la cible. Différentes techniques sont employées :
- Le face swapping pour remplacer un visage par un autre
- Le lip syncing pour synchroniser les mouvements des lèvres avec un autre son
- Le puppeteering pour animer un visage à partir des expressions d’un autre en temps réel
Des deepfakes ludiques aux montages malveillants
Si les deepfakes ont d’abord été utilisés à des fins humoristiques ou artistiques, leur potentiel néfaste est vite apparu. Diffusés sur les réseaux sociaux, ces montages peuvent servir à propager de fausses informations et influencer l’opinion publique. Imaginez un candidat à une élection qui tiendrait des propos choquants dans une vidéo trafiquée à quelques jours du scrutin…
Une personne exposée à un deepfake mettant en scène un homme politique qu’elle apprécie pourra se rappeler d’un événement qui n’a en réalité jamais eu lieu. On parle alors « d’effet Mandela ».
Nina Schick, autrice de « Deepfakes: The Coming Infocalypse »
Les deepfakes risquent également d’être utilisés comme outil de chantage ou de vengeance, en faisant apparaître une personne dans une vidéo compromettante. Et même lorsque l’entourage de la victime sait qu’il s’agit d’un montage, le mal est fait : impossible de supprimer totalement ces images sur internet.
Détecter et contrer la menace des deepfakes
Face au danger que représentent les deepfakes malveillants, la sensibilisation est essentielle. Chacun doit prendre conscience de cette technologie et garder un esprit critique face aux vidéos circulant en ligne. En parallèle, chercheurs et entreprises planchent sur des outils de détection des deepfakes. Basés eux aussi sur l’intelligence artificielle, ces algorithmes tentent de repérer des incohérences subtiles (reflets dans l’iris, micro-expressions du visage…) pour authentifier une vidéo.
L’essor des deepfakes nous confronte à des défis technologiques, juridiques et éthiques inédits. Si leur potentiel créatif est indéniable, leur utilisation malveillante pourrait durablement miner la confiance accordée aux médias en ligne. Dans ce contexte, une meilleure compréhension de ces outils et la mise en place de garde-fous s’avèrent cruciales pour protéger les individus et le débat public.