L’IA Aux États-Unis : Un Défi Réglementaire Complexe Mais Prometteur

L’intelligence artificielle (IA) est en train de révolutionner de nombreux aspects de notre vie, mais sa réglementation aux États-Unis s’avère être un défi complexe. Malgré des progrès récents encourageants, la route vers un cadre législatif complet reste semée d’embûches. Cependant, il y a des raisons d’espérer.

Des avancées significatives au niveau des États

Plusieurs États américains ont récemment adopté des lois pionnières en matière d’IA. En mars, le Tennessee est devenu le premier État à protéger les artistes vocaux contre le clonage non autorisé par l’IA. Cet été, le Colorado a adopté une approche graduée et basée sur les risques pour sa politique d’IA. Et en septembre, le gouverneur de Californie Gavin Newsom a signé des dizaines de projets de loi liés à la sécurité de l’IA, dont certains obligent les entreprises à divulguer des détails sur leur entraînement en IA.

Ces initiatives montrent que les États sont prêts à agir face aux défis posés par l’IA. Ils ouvrent la voie à une prise de conscience et à des actions concrètes au niveau national.

Des obstacles persistants au niveau fédéral

Cependant, les États-Unis n’ont pas encore de politique fédérale sur l’IA comparable à la loi sur l’IA de l’UE. Même au niveau des États, la réglementation continue de se heurter à des obstacles majeurs.

Après une longue bataille avec des intérêts particuliers, le gouverneur Newsom a opposé son veto au projet de loi SB 1047, une loi qui aurait imposé des exigences de sécurité et de transparence de grande envergure aux entreprises développant l’IA. Un autre projet de loi californien ciblant les distributeurs de deepfakes d’IA sur les réseaux sociaux a été suspendu cet automne dans l’attente de l’issue d’un procès.

Nous entendons souvent parler des États-Unis comme d’une sorte de « Far West » par rapport à ce qui se passe dans l’UE, mais je pense que c’est exagéré, et que la réalité est plus nuancée que cela.

– Jessica Newman, codirectrice de l’AI Policy Hub à l’UC Berkeley

Des signes prometteurs malgré tout

Malgré ces revers, il y a des raisons d’être optimiste selon Jessica Newman. Elle souligne que de nombreux projets de loi fédéraux, bien que n’ayant pas été rédigés en pensant à l’IA, s’appliquent tout de même à celle-ci, comme les lois anti-discrimination et de protection des consommateurs.

La Federal Trade Commission a ainsi obligé des entreprises récoltant des données de manière subreptice à supprimer leurs modèles d’IA. Elle enquête également pour déterminer si les ventes de startups d’IA à de grandes entreprises technologiques violent la réglementation antitrust. De son côté, la Federal Communications Commission a déclaré illégaux les appels automatisés vocaux générés par l’IA et a proposé une règle exigeant que le contenu généré par l’IA dans la publicité politique soit divulgué.

  • Le président Joe Biden a également tenté de faire adopter certaines règles sur l’IA. Il y a environ un an, il a signé le décret sur l’IA, qui soutient les pratiques volontaires de reporting et de benchmarking que de nombreuses entreprises d’IA choisissaient déjà de mettre en œuvre.
  • Une conséquence de ce décret a été la création de l’US AI Safety Institute (AISI), un organisme fédéral qui étudie les risques des systèmes d’IA. Opérant au sein du National Institute of Standards and Technology, l’AISI a des partenariats de recherche avec de grands laboratoires d’IA comme OpenAI et Anthropic.

Cependant, l’AISI pourrait être démantelé par une simple abrogation du décret de Biden. En octobre, une coalition de plus de 60 organisations a appelé le Congrès à adopter une loi codifiant l’AISI avant la fin de l’année.

Je pense que nous, en tant qu’Américains, partageons tous un intérêt à nous assurer que nous atténuons les inconvénients potentiels de la technologie.

– Elizabeth Kelly, directrice de l’AISI

Vers une réglementation globale de l’IA ?

Y a-t-il de l’espoir pour une réglementation complète de l’IA aux États-Unis ? L’échec du SB 1047, que Newman a qualifié de projet de loi « léger » avec la contribution de l’industrie, n’est pas exactement encourageant. Le sénateur d’État de Californie Scott Wiener, auteur du projet de loi, a déclaré qu’il ne l’aurait pas rédigé différemment et qu’il est convaincu qu’une large réglementation de l’IA finira par l’emporter.

Les opposants, eux, ont redoublé d’efforts. Lundi dernier, le fondateur de Khosla Ventures, Vinod Khosla, a qualifié Wiener de « totalement ignorant » et « non qualifié » pour réglementer les véritables dangers de l’IA. Microsoft et Andreessen Horowitz ont publié une déclaration s’opposant aux réglementations sur l’IA qui pourraient affecter leurs intérêts financiers.

Newman avance cependant que la pression pour unifier la mosaïque croissante de règles sur l’IA État par État aboutira finalement à une solution législative plus forte. À défaut de consensus sur un modèle de réglementation, les décideurs politiques des États ont introduit près de 700 textes de loi sur l’IA cette année seulement.

J’ai le sentiment que les entreprises ne veulent pas d’un environnement réglementaire disparate où chaque État est différent, et je pense qu’il y aura une pression croissante pour avoir quelque chose au niveau fédéral qui apporte plus de clarté et réduit une partie de cette incertitude.

– Jessica Newman, codirectrice de l’AI Policy Hub à l’UC Berkeley

Le chemin vers une réglementation significative de l’IA aux États-Unis est encore long et semé d’embûches. Mais les avancées récentes au niveau des États et la prise de conscience croissante des enjeux donnent des raisons d’espérer. La pression pour une approche fédérale unifiée ne fera que s’accentuer à mesure que l’IA s’intègrera dans tous les aspects de nos vies. Les prochains mois et années seront décisifs pour façonner un cadre réglementaire à la hauteur des défis posés par cette technologie révolutionnaire.

author avatar
MondeTech.fr

À lire également