Dans le cadre de la série « Femmes en IA » de TechCrunch, qui vise à mettre en lumière des femmes universitaires et autres personnes axées sur l’IA, l’édition s’est entretenue avec Lakshmi Raman, directrice de l’IA à la CIA. La discussion a porté sur son parcours jusqu’à ce poste de direction, ainsi que sur l’utilisation de l’IA par la CIA et l’équilibre qui doit être trouvé entre l’adoption de nouvelles technologies et leur déploiement responsable.
Un long parcours dans le renseignement
Lakshmi Raman a rejoint la CIA en 2002 en tant que développeuse de logiciels, après avoir obtenu une licence à l’Université de l’Illinois à Urbana-Champaign et un master en informatique à l’Université de Chicago. Quelques années plus tard, elle est passée à un poste de direction au sein de l’agence, finissant par diriger l’ensemble des efforts de science des données de la CIA.
Mme Raman affirme avoir eu la chance de pouvoir compter sur des femmes comme modèles et prédécesseures au sein de la CIA, malgré la prédominance historique des hommes dans le domaine du renseignement.
J’ai encore des personnes vers qui me tourner, à qui demander conseil et que je peux consulter sur ce à quoi ressemble le prochain niveau de leadership.
Lakshmi Raman, directrice de l’IA à la CIA
L’IA comme outil de renseignement
En tant que directrice, Mme Raman orchestre, intègre et pilote les activités liées à l’IA dans l’ensemble de la CIA. L’agence considère que l’IA est là pour soutenir sa mission, avec une approche collaborative entre humains et machines.
L’IA n’est pas nouvelle pour la CIA, qui explore ses applications depuis les années 2000, notamment dans les domaines du traitement du langage naturel, de la vision par ordinateur et de l’analyse vidéo. L’agence s’efforce de rester à la pointe des tendances plus récentes, comme l’IA générative, avec une feuille de route éclairée à la fois par l’industrie et le monde universitaire.
Compte tenu de l’énorme quantité de données que nous devons traiter au sein de l’agence, le triage du contenu est un domaine où l’IA générative peut faire la différence.
Lakshmi Raman
La CIA a notamment développé Osiris, un outil alimenté par l’IA générative qui ressemble un peu au ChatGPT d’OpenAI, mais personnalisé pour des cas d’utilisation dans le renseignement. Il résume les données et permet aux analystes d’approfondir en posant des questions de suivi en anglais courant.
Une technologie délicate
Il y a de nombreuses raisons d’être sceptique et préoccupé par l’utilisation de l’IA par la CIA. En février 2022, les sénateurs Ron Wyden et Martin Heinrich ont révélé que la CIA, bien qu’elle soit généralement interdite d’enquêter sur les Américains et les entreprises américaines, dispose d’un référentiel de données secret et non divulgué qui comprend des informations collectées sur des citoyens américains.
Si la CIA devait un jour utiliser l’IA pour analyser ces données, de nombreux Américains s’y opposeraient certainement. Ce serait une violation manifeste des libertés civiles et, en raison des limites de l’IA, cela pourrait entraîner des résultats sérieusement injustes.
Plusieurs études ont montré que les algorithmes prédictifs de criminalité sont facilement faussés par les taux d’arrestation et ont tendance à cibler de manière disproportionnée les communautés noires. D’autres études suggèrent que la reconnaissance faciale entraîne un taux plus élevé d’erreurs d’identification chez les personnes de couleur que chez les personnes blanches.
Outre les biais, même la meilleure IA d’aujourd’hui est sujette aux hallucinations, inventant des faits et des chiffres en réponse aux requêtes. Prenons par exemple le logiciel de résumé de réunion de Microsoft, qui attribue parfois des citations à des personnes inexistantes. On peut imaginer à quel point cela pourrait devenir problématique dans le travail de renseignement, où l’exactitude et la vérifiabilité sont primordiales.
Une approche réfléchie
Mme Raman a insisté sur le fait que la CIA non seulement se conforme à toutes les lois américaines, mais « suit également toutes les directives éthiques » et utilise l’IA « d’une manière qui atténue les biais ».
Je qualifierais cela d’approche réfléchie [de l’IA]. Je dirais que l’approche que nous adoptons est une approche où nous voulons que nos utilisateurs comprennent autant que possible le système d’IA qu’ils utilisent.
Lakshmi Raman
Pour construire une IA responsable, il faut que toutes les parties prenantes soient impliquées, des développeurs d’IA au bureau de la confidentialité et des libertés civiles, souligne-t-elle. Quelle que soit la fonction d’un système d’IA, il est important que ses concepteurs précisent les domaines dans lesquels il pourrait être défaillant.
Une étude récente de l’Université d’État de Caroline du Nord a révélé que des outils d’IA, notamment des algorithmes de reconnaissance faciale et de détection de coups de feu, étaient utilisés par des policiers qui ne connaissaient pas ces technologies ou leurs lacunes.
Toute sortie générée par l’IA doit être clairement comprise par les utilisateurs, ce qui signifie, évidemment, l’étiquetage du contenu généré par l’IA et la fourniture d’explications claires sur le fonctionnement des systèmes d’IA.
Lakshmi Raman
Mme Raman assure que tout ce que fait la CIA en matière d’IA respecte les exigences légales et que l’agence s’assure que ses utilisateurs, partenaires et parties prenantes sont au courant de toutes les lois, réglementations et directives pertinentes régissant l’utilisation de ses systèmes d’IA.
Il ne reste plus qu’à espérer que ce soit vrai, car l’utilisation de l’IA par les agences de renseignement soulève de sérieuses questions sur l’équilibre entre sécurité nationale et libertés individuelles à l’ère du Big Data et de la surveillance de masse. L’approche « réfléchie » revendiquée par la CIA sera mise à l’épreuve alors que la course à l’IA s’accélère.