La Désinformation Générée par l’IA Cible des Publics Précis

Alors que beaucoup craignaient que les élections de 2024 ne soient influencées, voire décidées, par la désinformation générée par l’IA, ce phénomène s’est avéré moins présent qu’anticipé. Mais ne vous y trompez pas : la menace de la désinformation est bien réelle – vous n’en êtes tout simplement pas la cible.

C’est du moins ce qu’affirme Oren Etzioni, chercheur de longue date en IA et fondateur de l’organisation à but non lucratif TrueMedia, qui suit de près le pouls de la désinformation générée. Selon lui, pour chaque exemple de désinformation dont nous entendons parler, il en existe des centaines, voire des milliers, qui ne nous sont pas destinés.

Une grande variété de deepfakes

La réalité est que la plupart des gens, et les Américains plus que les autres, ont tendance à penser que leur expérience est universelle. Mais dans le cas des campagnes de désinformation, l’Amérique est en fait une cible difficile, étant donné une population relativement bien informée, des informations factuelles facilement accessibles et une presse qui est la plupart du temps digne de confiance.

Les deepfakes les plus dangereux ne sont pas ceux de célébrités ou de politiciens, mais de situations et de personnes qui ne peuvent pas être aussi facilement identifiées et contrées. Comme l’explique Oren Etzioni :

J’en ai vu un aujourd’hui montrant des avions iraniens survolant Israël, ce qui n’est pas arrivé mais ne peut pas être facilement réfuté par quelqu’un qui n’est pas sur place. Vous ne le voyez pas parce que vous n’êtes pas sur le canal Telegram ou dans certains groupes WhatsApp – mais des millions de personnes le sont.

Quantifier le problème de la désinformation

TrueMedia propose un service gratuit pour identifier les images, vidéos, audios et autres éléments comme faux ou réels. Ce n’est pas une tâche simple et elle ne peut pas être entièrement automatisée, mais ils construisent lentement une base de matériel de vérité fondamentale qui alimente le processus.

Leur mission principale est de quantifier le problème de trois manières clés :

  • Quelle est la quantité de désinformation en circulation ? C’est extrêmement difficile, voire impossible à mesurer avec précision.
  • Combien de personnes la voient ? Les chiffres se comptent facilement en centaines de millions.
  • Quel impact a-t-elle eu ? C’est peut-être la question la plus importante, mais nous ne sommes tout simplement pas équipés pour y répondre.

Prédire l’avenir de la lutte contre la désinformation

Oren Etzioni fait une prédiction audacieuse : au cours des 4 prochaines années, nous allons devenir beaucoup plus habiles pour mesurer la désinformation générée par l’IA. Parce que nous devons le faire. Pour l’instant, nous essayons juste de faire face.

Quant aux tentatives de l’industrie et de la technologie de rendre les médias générés plus évidents, comme le watermarking des images et du texte, elles sont inoffensives et peut-être bénéfiques, mais ne commencent même pas à résoudre le problème. Comme le dit Oren Etzioni, « n’apportez pas un watermark à un combat armé ». Ces normes volontaires sont utiles dans des écosystèmes collaboratifs où tout le monde a une raison de les utiliser, mais elles offrent peu de protection contre les acteurs malveillants qui veulent éviter la détection.

Un avenir incertain

Tout cela semble plutôt inquiétant, et ça l’est. Mais l’élection la plus importante de ces dernières années vient de se dérouler sans trop de manigances de l’IA. Non pas parce que la désinformation générative n’est pas courante, mais parce que ses propagateurs n’ont pas jugé nécessaire d’y participer. Que cela vous fasse plus ou moins peur que l’alternative, c’est à vous de voir.

author avatar
MondeTech.fr

À lire également