L’Institut américain pour la sécurité de l’IA menacé de fermeture

L’avenir de l’Institut américain pour la sécurité de l’IA (AISI), créé en novembre 2023 dans le cadre de l’ordre exécutif sur l’IA du président Joe Biden, est aujourd’hui incertain. Sans une autorisation formelle du Congrès, cet organisme gouvernemental dédié à l’évaluation des risques liés aux systèmes d’IA pourrait être démantelé par une simple abrogation de l’ordre exécutif.

Un institut vulnérable malgré son importance

Bien que l’AISI dispose d’un budget, d’un directeur et d’un partenariat de recherche avec son homologue britannique, le UK AI Safety Institute, son existence reste précaire. Comme l’explique Chris MacKenzie, directeur principal de la communication chez Americans for Responsible Innovation :

« Si un autre président arrivait au pouvoir et abrogeait l’ordre exécutif sur l’IA, il démantellerait l’AISI. Et Donald Trump a promis d’abroger cet ordre exécutif. L’autorisation formelle de l’Institut par le Congrès assurerait donc sa pérennité, quelle que soit la personne à la Maison Blanche. »

Au-delà de la survie de l’AISI, une autorisation du Congrès pourrait également conduire à un financement plus stable et à long terme de ses initiatives. Actuellement, l’Institut dispose d’un budget d’environ 10 millions de dollars, une somme relativement modeste compte tenu de la concentration de grands laboratoires d’IA dans la Silicon Valley.

Un appel à légiférer avant la fin de l’année

Une coalition de plus de 60 entreprises, organisations à but non lucratif et universités a appelé le Congrès à adopter une législation codifiant l’AISI avant la fin de l’année. Parmi les signataires figurent OpenAI et Anthropic, qui ont conclu des accords de collaboration avec l’Institut sur la recherche, les tests et l’évaluation de l’IA.

Le Sénat et la Chambre des représentants ont chacun fait avancer des projets de loi bipartites visant à autoriser les activités de l’AISI. Cependant, ces propositions ont rencontré une certaine opposition de la part de législateurs conservateurs, dont le sénateur Ted Cruz, qui a demandé que la version sénatoriale du projet de loi sur l’AISI réduise les programmes de diversité.

Des normes volontaires mais essentielles

Certes, l’AISI reste une organisation relativement faible en termes d’application, ses normes étant volontaires. Néanmoins, les think tanks, les coalitions industrielles et les géants de la tech comme Microsoft, Google, Amazon et IBM considèrent l’Institut comme la voie la plus prometteuse vers des standards en matière d’IA pouvant servir de base à de futures politiques.

Certains groupes d’intérêt craignent également que le démantèlement de l’AISI ne risque de céder le leadership en matière d’IA à des nations étrangères. Lors d’un sommet sur l’IA à Séoul en mai 2024, des dirigeants internationaux ont convenu de former un réseau d’Instituts pour la sécurité de l’IA comprenant des agences du Japon, de la France, de l’Allemagne, de l’Italie, de Singapour, de la Corée du Sud, de l’Australie, du Canada et de l’Union européenne, en plus du Royaume-Uni et des États-Unis.

« Alors que d’autres gouvernements avancent rapidement, les membres du Congrès peuvent s’assurer que les États-Unis ne sont pas laissés pour compte dans la course mondiale à l’IA en autorisant de manière permanente l’Institut pour la sécurité de l’IA et en apportant de la certitude quant à son rôle crucial dans la promotion de l’innovation et de l’adoption de l’IA aux États-Unis. »

– Jason Oxman, président et CEO de l’Information Technology Industry Council

En conclusion

L’Institut américain pour la sécurité de l’IA joue un rôle essentiel dans l’élaboration de normes et de bonnes pratiques pour le développement responsable de l’IA. Son démantèlement potentiel soulève des inquiétudes quant à la capacité des États-Unis à rester un leader dans ce domaine stratégique. Il appartient maintenant au Congrès de prendre les mesures nécessaires pour pérenniser l’existence et le financement de l’AISI, afin de garantir un avenir sûr et éthique pour l’intelligence artificielle.

author avatar
MondeTech.fr

À lire également