L’intelligence artificielle ne cesse de s’immiscer dans de nouveaux domaines, y compris les plus sensibles et stratégiques. Après Meta, c’est au tour d’Anthropic d’annoncer sa collaboration avec plusieurs branches de l’armée américaine. Cette alliance met en lumière le potentiel de l’IA pour révolutionner en profondeur les opérations de défense et de renseignement.
Un partenariat aux implications majeures
La jeune pousse Anthropic, réputée pour ses modèles d’IA de pointe Claude 3 et Claude 3.5, vient d’officialiser un partenariat de taille avec Palantir, société spécialisée dans le Big Data et historiquement liée aux services de renseignement US. L’objectif : fournir des solutions d’intelligence artificielle dernier cri aux environnements classifiés du gouvernement américain.
Nous sommes fiers de contribuer à améliorer les capacités analytiques et l’efficacité opérationnelle des agences de défense.
– Kate Earle Jensen, directrice des ventes chez Anthropic
Grâce à cette alliance, les puissants modèles Claude d’Anthropic seront exploités via la plateforme d’IA développée par Palantir et hébergée sur Amazon Web Services (AWS). Cette infrastructure de pointe permettra aux entités de défense et de renseignement US de bénéficier d’outils novateurs capables de traiter et d’analyser à grande vitesse des volumes massifs de données complexes. Un atout crucial pour mener à bien les missions critiques du gouvernement.
Des conditions d’utilisation sous le signe du flou juridique
Si le partenariat entre Anthropic et l’armée US est désormais public, les termes exacts encadrant l’utilisation des technologies IA de Claude restent nébuleux. Contrairement à Meta qui proscrit clairement l’usage militaire ou nucléaire de ses logiciels d’IA, Anthropic n’a pas établi de restrictions aussi précises.
Certes, l’entreprise prévoit des exigences concernant les cas d’utilisation à haut risque, mais celles-ci se concentrent principalement sur les aspects légaux, de santé, d’assurance, de finance, d’emploi, et d’usage académique ou médiatique. Les usages militaires ne sont pas explicitement mentionnés.
Un billet de blog publié en juin dernier par Anthropic évoquait des ajustements « soigneusement calibrés de leur politique générale d’utilisation, permettant des utilisations bénéfiques par des agences gouvernementales sélectionnées ». Une fenêtre diplomatique qui autorise par exemple l’utilisation de Claude pour :
- Des analyses de renseignements étrangers légalement autorisées
- La lutte contre le trafic d’êtres humains
- L’identification de campagnes secrètes d’influence ou de sabotage
- L’alerte précoce sur des activités militaires potentielles
L’irrésistible ascension de l’IA dans l’armée
En nouant ce partenariat stratégique, Anthropic emboîte le pas à d’autres géants technologiques cherchant à intégrer leurs innovations dans les arsenaux militaires. Avant elle, Microsoft avait annoncé que son service Azure OpenAI bénéficiait d’accréditations de haut niveau lui permettant d’être déployé au sein d’entités critiques de l’armée US.
OpenAI, cofondée par d’anciens d’Anthropic, suit aussi cette trajectoire. La firme a récemment supprimé les mentions interdisant l’utilisation de ses technologies dans des contextes militaires ou de guerre. Elle a également décroché un contrat avec une société spécialisée dans les contrats numériques gouvernementaux américains.
Ces alliances stratégiques illustrent l’adoption croissante de l’IA générative dans les processus décisionnels et opérationnels de la défense. Elles tracent aussi la voie pour d’autres entreprises d’IA désireuses de collaborer avec le secteur militaire, malgré les questionnements éthiques que cela soulève.
Indéniablement, l’intégration de l’intelligence artificielle dans le domaine de la défense ouvre des perspectives aussi prometteuses que préoccupantes. Si elle peut contribuer à prévenir certains conflits ou à sauver des vies, son usage à des fins militaires offensives fait craindre une nouvelle course aux armements technologiques. Un défi de taille pour encadrer et réguler ce nouvel Eldorado de l’IA.