Dans une révélation inquiétante, OpenAI, la société derrière le célèbre chatbot ChatGPT, a récemment dévoilé avoir démantelé un groupe iranien qui exploitait sa technologie d’IA pour créer et propager de fausses informations. Ce groupe, connu sous le nom de Storm-2035, visait spécifiquement à influencer les élections présidentielles américaines de 2024 en générant des articles mensongers et des commentaires trompeurs sur les réseaux sociaux.
Une opération de désinformation sophistiquée
Selon les détails partagés par OpenAI dans un article de blog, Storm-2035 a utilisé plusieurs comptes ChatGPT pour rédiger de longs articles de désinformation ainsi que des commentaires destinés à être publiés sur diverses plateformes sociales. Les sujets abordés allaient de la guerre israélo-palestinienne à la présence d’Israël aux Jeux olympiques, en passant bien sûr par l’élection présidentielle américaine elle-même.
En plus de leur activité sur les médias sociaux, où une douzaine de comptes Twitter (rebaptisé X) et un compte Instagram ont été identifiés et depuis supprimés, les opérateurs iraniens ont également créé cinq sites web se faisant passer pour des médias progressistes et conservateurs. Ces sites relayaient des informations trompeuses sur les élections.
Pourquoi Kamala Harris a choisi Tim Walz comme colistier : un choix calculé pour l’unité.
– Exemple de titre d’article généré par l’IA, repéré par OpenAI
Une menace persistante malgré un succès limité
Bien que la plupart des comptes diffusant cette désinformation alimentée par l’IA n’aient pas rencontré un succès retentissant, les experts alertent sur le fait que la menace est loin d’être éradiquée. Ben Nimmo, chercheur principal chez OpenAI, souligne l’importance de rester vigilant mais calme face à ce phénomène.
À l’approche du scrutin présidentiel de 2024 aux États-Unis, il faudra surveiller si les tentatives d’ingérence étrangère s’intensifient en ligne. Face à cette évolution, OpenAI insiste sur la nécessité de continuer à innover pour mieux détecter et contrer les campagnes de désinformation.
L’IA, une arme à double tranchant dans la lutte informationnelle
L’usage d’outils d’intelligence artificielle comme ChatGPT pour générer et diffuser de fausses informations soulève de vives inquiétudes quant à l’ampleur et l’impact potentiels des futures opérations d’influence. Grâce aux algorithmes avancés, des acteurs malveillants pourraient produire un contenu trompeur de plus en plus crédible, à une vitesse sans précédent. Cela compliquerait grandement la tâche des plateformes et des internautes pour identifier et contrer ces tentatives de manipulation.
Alors que la technologie de l’IA ne cesse de progresser, il est crucial que les développeurs, les décideurs politiques et les réseaux sociaux unissent leurs forces. Ensemble, ils doivent trouver des parades aux risques liés aux campagnes de désinformation, afin de préserver l’intégrité de nos processus démocratiques. Un défi de taille à l’ère de l’information, où la vérité est plus que jamais une valeur à défendre.
- Les opérateurs iraniens ont exploité ChatGPT pour générer de faux articles et commentaires
- Une douzaine de comptes sur les réseaux sociaux ont été identifiés et supprimés
- Malgré un succès mitigé, la menace de désinformation par l’IA reste préoccupante
- Une coopération entre acteurs du numérique est nécessaire pour contrer ce phénomène