Imaginez un monde où n’importe qui peut créer une vidéo ou un enregistrement audio hyper réaliste de n’importe quelle personne disant ou faisant n’importe quoi. Bienvenue dans l’ère inquiétante des deepfakes générés par l’IA. Un simple clic et 5$ suffisent désormais pour cloner une voix et produire de la désinformation ciblée à grande échelle, comme l’a démontré un journaliste avec un deepfake audio de Kamala Harris le jour des élections.
L’explosion des deepfakes, une menace sous-estimée
Selon le World Economic Forum, le volume de deepfakes générés par l’IA a bondi de 900% entre 2019 et 2020. Pourtant, le grand public a tendance à sous-estimer l’ampleur du phénomène car la plupart de ce contenu ne le cible pas directement. Les deepfakes se propagent de manière fulgurante, visant en priorité des populations vulnérables moins sensibilisées aux dangers de la désinformation.
Nous sommes face à une « machine à désinformation perpétuelle »
– Imran Ahmed, CEO du Center for Countering Digital Hate
Des outils grand public dépourvus de garde-fous
Le problème, c’est que les outils de clonage vocal comme celui utilisé pour le deepfake de Kamala Harris ne disposent d’aucun véritable mécanisme de protection. Malgré des mentions demandant de ne rien générer d’illégal ou de préjudiciable, rien n’empêche concrètement un utilisateur malveillant de créer autant de deepfakes qu’il le souhaite. Certaines plateformes ont mis en place des vérifications de voix, mais de nouveaux outils sans restrictions font surface en permanence.
Course technologique et législative perdue d’avance ?
Face à la menace, certains experts misent sur l’intégration de watermarks invisibles pour mieux tracer les contenus générés par l’IA. D’autres pointent les lois émergentes sur la modération des contenus en ligne, comme l’Online Safety Act au Royaume-Uni, pour endiguer le flot de désinformation. Mais beaucoup estiment que ces pistes arrivent trop tard :
- La détection des deepfakes s’annonce comme une course technologique permanente et difficile à gagner
- Certains outils refuseront toujours d’adopter des mesures de sécurité
- Des deepfakes seront conçus avec des intentions ouvertement malveillantes, contournant toute régulation
Restez vigilants, vérifiez avant de partager
Dans ce contexte, la meilleure parade reste le scepticisme et la prudence. Plus que jamais, il est crucial de vérifier méticuleusement les contenus avant de les relayer, en particulier ceux à caractère viral. Nous avons encore le pouvoir de freiner la propagation de la désinformation, un clic réfléchi après l’autre. Restons maîtres de ce que nous partageons, c’est notre meilleure arme collective pour contrer les deepfakes et préserver un Internet plus sain.