Imaginez : d’un côté, les géants de la Silicon Valley et une administration Trump fraîchement réélue qui rêvent d’une IA libre comme l’air. De l’autre, des dizaines d’États américains qui, face au vide fédéral, légifèrent à tour de bras pour protéger leurs citoyens contre les dérives de l’intelligence artificielle. Nous sommes en novembre 2025 et, pour la première fois depuis l’émergence de ChatGPT, la question n’est plus « faut-il réguler l’IA ? » mais bien « qui a le droit de le faire ? ». Le bras de fer est lancé, et il pourrait redessiner durablement le paysage technologique américain.
Un vide fédéral comblé par les États
Pendant des années, Washington a observé l’explosion de l’IA sans cadre légal clair. Résultat : les États ont pris les devants. En 2025, pas moins de 38 États ont adopté plus de 100 lois liées à l’intelligence artificielle. La Californie, Texas, New York ou le Colorado ne se contentent plus d’attendre un hypothétique texte fédéral.
Quelques exemples concrets qui font trembler les labs d’IA :
- La SB-53 en Californie, qui impose des tests de sécurité obligatoires pour les modèles les plus puissants
- Le Texas Responsible AI Governance Act, qui interdit l’usage intentionnellement malveillant des systèmes IA
- Le RAISE Act à New York, qui oblige les grands labs à publier des plans de sécurité contre les risques catastrophiques
Ces lois ciblent surtout les deepfakes, la transparence, la protection des enfants et l’usage gouvernemental de l’IA. Mais elles agacent profondément l’industrie, qui crie au « patchwork réglementaire » impossible à gérer.
L’industrie passe à l’offensive : des centaines de millions pour bloquer les États
Les géants tech ne font pas que râler dans les couloirs de Washington : ils sortent le chéquier. Le super PAC Leading the Future – soutenu par Andreessen Horowitz, OpenAI, Palantir et Perplexity – a déjà levé plus de 100 millions de dollars et lance une campagne de 10 millions pour convaincre le Congrès d’imposer une loi nationale… qui écraserait toutes les réglementations locales.
« Quand vous voulez innover dans la tech, vous ne pouvez pas avoir des lois qui sortent de partout de gens qui n’ont pas forcément l’expertise technique »
– Josh Vlasto, cofondateur de Leading the Future
Leur argument massue ? La course contre la Chine. Selon eux, un kaléidoscope de règles locales ralentirait fatalement les entreprises américaines face à Pékin, qui avance sans entraves (ou presque).
David Sacks, le nouvel homme fort de la politique IA
Le personnage clé de ce tournant ? David Sacks, fraîchement nommé « AI & Crypto Czar » par Donald Trump. L’ancien PayPal Mafia et cofondateur de Craft Ventures a un credo simple : maximum growth, minimum regulation. Un projet d’Executive Order fuité en novembre 2025 lui donne même le pouvoir de coordonner une stratégie nationale qui écraserait les lois des États.
Ce texte, actuellement gelé, prévoyait :
- La création d’une task force pour attaquer en justice les lois étatiques jugées « excessives »
- L’obligation pour les agences fédérales d’identifier les réglementations locales « onéreuses »
- Le renforcement du rôle de la FCC et de la FTC pour imposer des standards nationaux
En clair : contourner le Congrès pour imposer la vision ultra-libérale de l’administration Trump.
Le NDAA, cheval de Troie de la préemption
Autre front : le National Defense Authorization Act, le texte annuel qui fixe le budget de la défense. Des élus républicains, emmenés par Steve Scalise, ont tenté d’y glisser une clause interdisant purement et simplement aux États de légiférer sur l’IA. Une manœuvre qui rappelle les tentatives passées sur la protection des données ou la neutralité du net.
Même si les négociations ont abouti à un texte plus modéré (préservant potentiellement la sécurité des enfants et la transparence), plus de 200 parlementaires et 40 procureurs généraux d’État ont signé des lettres ouvertes pour s’y opposer violemment.
« Les États sont les laboratoires de la démocratie. Ils doivent garder la flexibilité nécessaire pour répondre aux nouveaux défis numériques »
– Lettre signée par plus de 200 membres du Congrès
Le « patchwork » : argument sincère ou écran de fumée ?
L’industrie répète en boucle que gérer 50 réglementations différentes est impossible. Pourtant, les mêmes entreprises se plient sans broncher au RGPD européen ou au Digital Services Act, bien plus stricts que n’importe quelle loi californienne.
Bruce Schneier et Nathan E. Sanders, auteurs de Rewiring Democracy, résument la situation sans détour :
« Le vrai problème n’est pas le patchwork. Le vrai problème, c’est l’accountability. »
– Bruce Schneier & Nathan E. Sanders
De nombreuses industries (automobile, pharmacie, finance) fonctionnent depuis des décennies avec des règles variables d’un État à l’autre. Pourquoi l’IA serait-elle une exception ?
Vers une grande loi fédérale : le pari (risqué) de Ted Lieu
Face à cette offensive, le démocrate californien Ted Lieu prépare un « megabill » de plus de 200 pages, prévu pour décembre 2025. Son objectif : créer enfin un cadre fédéral crédible, avec :
- Des sanctions renforcées contre la fraude IA
- La protection contre les deepfakes électoraux
- Des obligations de transparence et de tests pour les grands modèles
- La protection des lanceurs d’alerte
- L’accès aux ressources de calcul pour la recherche académique
Conscient du climat politique, Lieu a volontairement adouci certaines mesures (pas d’agence fédérale dédiée à l’évaluation des modèles, contrairement à la proposition Hawley-Blumenthal) pour maximiser ses chances de passage sous un Congrès et une Maison Blanche républicains.
« Je n’écris pas la loi que j’aimerais avoir si j’étais roi. J’écris la loi qui a une chance de passer »
– Ted Lieu
Ce que cela signifie concrètement pour les startups et les entrepreneurs
Si la préemption l’emporte sans garde-fous fédéraux solides, nous pourrions nous retrouver dans une situation paradoxale : l’IA la moins régulée du monde occidental, alors même que les États-Unis abritent les leaders mondiaux du secteur.
Pour les fondateurs, cela veut dire :
- À court terme : une liberté d’innover maximale (et des levées de fonds plus faciles)
- À moyen terme : un risque réputationnel énorme si des scandales éclatent (deepfakes électoraux, biais massifs, accidents graves)
- À long terme : la possibilité que le Congrès, sous la pression populaire, adopte une loi fédérale bien plus sévère que tout ce que les États auraient pu imaginer
Comme le dit Alex Bores, jeune élu new-yorkais et cible prioritaire des super PAC pro-IA :
« L’IA qui gagnera sur le marché sera l’IA digne de confiance. Et le marché sous-estime souvent la valeur de la sécurité à court terme. »
– Alex Bores
Et l’Europe dans tout ça ?
Pendant que les États-Unis se déchirent sur la compétence, l’Union européenne applique tranquillement son AI Act, entré en vigueur progressivement depuis 2024. Les entreprises américaines s’y plient déjà. Ironie de l’histoire : c’est peut-être Bruxelles, et non Washington, qui finira par imposer de facto les standards mondiaux de sécurité IA.
Conclusion : 2026 sera décisif
Le match n’est pas terminé. Le texte final du NDAA, le sort de l’Executive Order, l’introduction (ou non) du megabill Lieu, les élections locales de 2026 financées massivement par les super PAC tech… Tout reste ouvert.
Une chose est sûre : nous assistons à un moment fondateur. Soit les États-Unis choisissent la voie du laissez-faire absolu, avec les risques que cela comporte. Soit ils trouvent un équilibre entre innovation et protection des citoyens – un équilibre que même la Silicon Valley, malgré ses milliards, ne pourra plus ignorer éternellement.
Pour les entrepreneurs, investisseurs et dirigeants qui nous lisent : le cadre réglementaire qui sortira de ce chaos en 2026 définira vos marges de manœuvre pour la prochaine décennie. Il est temps de suivre cela de très, très près.






