L’intelligence artificielle, une technologie porteuse d’immenses promesses mais aussi de risques majeurs lorsqu’elle est détournée à des fins malveillantes. C’est le constat alarmant que vient de dresser OpenAI, la célèbre startup à l’origine de ChatGPT, dans un rapport explosif. Selon ses révélations, au moins cinq opérations clandestines de désinformation pilotées par la Russie, la Chine, l’Iran et Israël ont exploité ses puissants outils d’IA pour générer et diffuser massivement de fausses informations.
L’IA au service de la manipulation à grande échelle
Ces campagnes subversives ont ciblé des sujets hautement sensibles et clivants comme la guerre en Ukraine, le conflit à Gaza, les élections en Inde ou encore la situation politique en Europe et aux États-Unis. En s’appuyant sur les modèles d’IA d’OpenAI, ces opérations ont pu produire des faux contenus textuels et visuels à un rythme et une échelle sans précédent, inondant les réseaux sociaux de commentaires trompeurs et de réponses factices à leurs propres publications.
Cette automatisation de la désinformation a permis de démultiplier sa portée et son impact, malgré les efforts des plateformes comme Facebook, YouTube ou Twitter pour endiguer ce fléau numérique depuis le scandale des ingérences russes dans l’élection présidentielle américaine de 2016.
Des enjeux démocratiques majeurs à l’approche des élections
A l’aube d’échéances électorales cruciales qui concernent près de 2 milliards de citoyens en Inde, aux États-Unis et en Europe, la menace de manipulations massives de l’opinion publique via l’IA est plus préoccupante que jamais. Les responsables politiques pressent les entreprises comme OpenAI de mettre en place de solides garde-fous éthiques et techniques pour prévenir ces dérives.
L’IA ne doit pas devenir une arme de déstabilisation massive de nos démocraties entre les mains d’acteurs malveillants.
Margrethe Vestager, Vice-présidente de la Commission européenne
La riposte d’OpenAI face aux abus de ses outils
Face à ces révélations embarrassantes qui ternissent son image, OpenAI a tenu à réaffirmer son engagement à combattre activement les campagnes de désinformation exploitant ses technologies. La startup met en avant certains succès comme le démantèlement des réseaux russes Doppelganger et chinois Spamouflage, ainsi que l’interruption d’opérations pro-israéliennes menées par la société STOIC.
Pour muscler sa détection des abus, OpenAI développe ses propres outils de surveillance basés sur l’IA. Une façon aussi de redorer son blason après les récentes polémiques sur le manque présumé de considérations éthiques de son nouveau board emmené par Sam Altman.
Vers une nécessaire régulation internationale de l’IA
Au-delà de la responsabilité des entreprises, c’est un véritable cadre réglementaire international qu’il faut bâtir de toute urgence pour encadrer le développement et les usages de l’IA, insistent de nombreux experts. Des initiatives ont déjà vu le jour comme le projet de loi européen sur l’IA, les lignes directrices de l’OCDE ou la déclaration de l’UNESCO. Mais il reste un long chemin à parcourir pour instaurer une gouvernance éthique et inclusive de cette technologie révolutionnaire à l’échelle planétaire.
- Renforcer la transparence et la redevabilité des acteurs de l’IA
- Systématiser les audits et les évaluations d’impact des systèmes d’IA
- Responsabiliser les utilisateurs sur les risques de manipulations
A l’ère de l’intelligence artificielle, la bataille contre la désinformation et les manipulations de masse est un enjeu crucial pour préserver l’intégrité de nos espaces démocratiques et la liberté de nos choix collectifs. Un combat de tous les instants qui engage la responsabilité des pouvoirs publics comme des entreprises technologiques, des médias, de la société civile et de chaque citoyen.