Dans un contexte de débat croissant sur les risques et les avantages de l’IA open source, Meta vient de faire une annonce significative. Le géant technologique a décidé de mettre ses modèles d’intelligence artificielle Llama à la disposition des agences gouvernementales américaines et de leurs sous-traitants dans le domaine de la sécurité nationale.
Meta souhaite ainsi combattre la perception selon laquelle son IA « ouverte » pourrait aider des adversaires étrangers. L’entreprise s’associe à des sociétés majeures comme Accenture, Amazon Web Services, Anduril, Booz Allen, Databricks, Deloitte, IBM, Leidos, Lockheed Martin, Microsoft, Oracle, Palantir, Scale AI et Snowflake pour apporter Llama aux agences gouvernementales.
Des cas d’utilisation variés pour la défense et la sécurité
Les applications potentielles des modèles Llama dans ce contexte sont multiples :
- Oracle utilise Llama pour traiter des documents de maintenance d’aéronefs
- Scale AI affine Llama pour soutenir des missions spécifiques d’équipes de sécurité nationale
- Lockheed Martin propose Llama à ses clients de la défense pour des cas d’usage comme la génération de code informatique
Cette initiative fait suite à un rapport de Reuters la semaine dernière, révélant que des chercheurs chinois liés à l’Armée populaire de libération (APL) avaient utilisé un ancien modèle Llama, Llama 2, pour développer un outil destiné à des applications de défense. Ces chercheurs, dont deux affiliés à un groupe de R&D de l’APL, ont créé un chatbot militaire conçu pour collecter et traiter des renseignements ainsi que pour fournir des informations d’aide à la décision opérationnelle.
Meta se défend face aux critiques
Face à cette révélation, Meta a déclaré à Reuters que l’utilisation de ce « modèle unique et obsolète » de Llama était « non autorisée » et contraire à sa politique d’utilisation acceptable. Mais ce rapport a largement alimenté le débat en cours sur les mérites et les risques de l’IA open source.
L’utilisation de l’IA, ouverte ou fermée, pour la défense est en soi controversée. Selon une récente étude de l’institut à but non lucratif AI Now, l’IA déployée aujourd’hui pour le renseignement militaire, la surveillance et la reconnaissance présente des dangers car elle repose sur des données personnelles qui peuvent être exfiltrées et exploitées par des adversaires. Elle présente également des vulnérabilités, comme des biais et une tendance à halluciner, qui sont actuellement sans remède, écrivent les co-auteurs, qui recommandent de créer une IA séparée et isolée des modèles « commerciaux ».
Un sujet complexe au cœur des enjeux géopolitiques
La décision de Meta d’ouvrir ses modèles Llama aux agences gouvernementales américaines soulève donc de nombreuses questions. D’un côté, cela peut permettre de développer des applications utiles pour la sécurité nationale et la défense. De l’autre, cela pose la question du contrôle et de la supervision de ces outils puissants.
Comme le souligne l’étude d’AI Now, il est essentiel de réfléchir aux garde-fous nécessaires pour prévenir les dérives et garantir une utilisation éthique et responsable de l’IA dans ce domaine sensible. La coopération entre les acteurs publics et privés, comme l’illustre le partenariat de Meta avec de nombreuses entreprises technologiques, peut être un moyen d’avancer sur ces sujets complexes.
Mais il faudra sans doute aussi un cadre réglementaire adapté et une vigilance de tous les instants pour s’assurer que les progrès de l’IA profitent au plus grand nombre sans mettre en danger la sécurité et les libertés individuelles. Le débat ne fait que commencer et promet d’être passionnant tant les enjeux sont importants pour notre avenir à tous.