EU AI Act : Un Code Plus Souple pour les Géants de l’IA

Et si l’avenir de l’intelligence artificielle (IA) en Europe se jouait dès maintenant ? À l’approche d’une échéance cruciale en mai 2025, l’Union européenne peaufine son EU AI Act, une réglementation ambitieuse visant à encadrer l’usage de l’IA, notamment pour les géants technologiques. Le dernier brouillon du Code de Pratique, publié ce mardi 11 mars 2025, fait déjà couler beaucoup d’encre. Plus souple, plus accessible, il semble tendre une main aux grands acteurs de l’IA tout en tentant de maintenir un équilibre avec des exigences comme la transparence ou le respect du droit d’auteur. Mais que signifie ce virage pour les entreprises, les startups et les créateurs de contenu ? Plongeons dans ce sujet brûlant qui mêle technologie, business et politique.

Un Code de Pratique revisité : vers plus de clarté ?

Depuis son lancement l’an dernier, le Code de Pratique pour les fournisseurs de modèles d’IA à usage général (GPAI) évolue. Ce troisième brouillon, dévoilé récemment, se veut plus structuré et digeste. Objectif : aider les entreprises à se conformer aux obligations du EU AI Act sans se perdre dans un dédale administratif. Une plateforme en ligne accompagne désormais ce draft pour en faciliter l’accès, et les retours sont attendus d’ici le 30 mars 2025. Mais derrière cette volonté de simplification, certains y voient une tentative d’adoucir les contraintes pour les mastodontes de l’IA, souvent surnommés « Big AI ».

Ce texte s’adresse principalement aux acteurs développant des modèles puissants, ceux qui pourraient, par leur envergure, poser des risques systémiques. Transparence, gestion des droits d’auteur, sécurité : autant de domaines où les règles se précisent… ou s’assouplissent, selon les points de vue. Pour les startups et les PME technologiques, comprendre ces ajustements est essentiel pour anticiper l’impact sur leurs stratégies d’innovation et de croissance.

Transparence : un effort louable, mais limité ?

La transparence figure parmi les piliers du EU AI Act. Le dernier draft propose, par exemple, un formulaire type que les créateurs de modèles GPAI pourraient remplir pour informer les utilisateurs en aval – ceux qui intègrent ces technologies dans leurs propres solutions. Une idée séduisante sur le papier, mais qui soulève des questions : cette documentation sera-t-elle suffisamment détaillée pour garantir une réelle clarté ? Ou risque-t-elle de devenir une formalité vite expédiée par les géants du secteur ?

Pour les entreprises de marketing digital ou les startups tech, cette transparence peut être un atout. Elle permettrait, par exemple, de mieux comprendre les algorithmes derrière les outils d’IA qu’elles utilisent pour optimiser leurs campagnes ou analyser leurs données. Mais si les informations fournies restent vagues, l’avantage compétitif pourrait s’évanouir.

« La transparence est la clé pour bâtir une IA responsable, mais elle doit être concrète, pas cosmétique. »

– Expert anonyme en régulation IA

Copyright : Big AI a-t-il encore les coudées franches ?

Le sujet du droit d’auteur reste un terrain miné. Les grands modèles d’IA, entraînés sur des masses de données glanées sur le web, flirtent souvent avec les limites de la légalité. Le draft actuel du Code utilise des formulations prudentes – « meilleurs efforts », « mesures raisonnables » – pour demander aux acteurs de respecter les droits lors de la collecte de données ou de limiter les sorties enfreignant le copyright. Mais cette souplesse inquiète les créateurs de contenu, qui craignent que leurs œuvres continuent d’être aspirées sans réel contrôle.

Imaginez une startup développant une IA pour générer des visuels marketing. Si elle s’appuie sur un modèle GPAI qui « emprunte » des images protégées sans consentement clair, elle pourrait se retrouver dans une zone grise juridique. À l’inverse, les géants de l’IA pourraient interpréter ces termes flous comme une invitation à poursuivre leurs pratiques actuelles, quitte à régler les litiges après coup.

Autre changement notable : la version précédente du Code prévoyait un point de contact rapide pour les détenteurs de droits. Aujourd’hui, cette exigence s’est diluée en une simple mention d’un contact « facilement accessible ». Pire, les plaintes jugées « manifestement infondées » ou « répétitives » pourraient être ignorées. Un cauchemar pour les artistes tentant d’automatiser leurs réclamations via des outils IA ?

Sécurité et risques systémiques : une régulation allégée

Les obligations de sécurité concernent surtout les modèles d’IA les plus puissants, ceux dépassant les 10^25 FLOPs (une mesure de puissance de calcul). Ces « GPAISR » doivent évaluer et atténuer leurs risques systémiques, comme des biais massifs ou des impacts sociétaux imprévus. Mais là encore, le dernier brouillon réduit certaines recommandations initiales, répondant aux critiques des acteurs du secteur.

Pour une entreprise tech ou une startup, cela peut sembler une bonne nouvelle : moins de contraintes, plus de liberté pour innover. Mais pour les régulateurs, c’est un pari risqué. Si ces modèles, déployés à grande échelle, causent des dommages imprévus – pensons à une IA influençant les marchés financiers ou les élections – qui en portera la responsabilité ?

  • Évaluation des risques systémiques allégée
  • Marge de manœuvre accrue pour les développeurs
  • Potentiel danger pour la stabilité globale

Pression américaine : l’ombre de Trump plane sur l’Europe

Le contexte géopolitique ajoute une couche de complexité. Aux États-Unis, l’administration Trump, via des figures comme JD Vance, critique ouvertement la régulation européenne de l’IA. Lors du sommet AI Action à Paris, Vance a vanté une approche axée sur « l’opportunité » plutôt que la sécurité, mettant en garde contre une sur-réglementation qui pourrait étouffer l’innovation. Ce discours a-t-il influencé l’UE ? Difficile à dire, mais certains signes sont troublants.

Le projet de directive sur la responsabilité IA a été abandonné, et des réformes visant à réduire la bureaucratie sont en préparation. Pour les startups européennes, cette pression pourrait être une aubaine : moins de règles, plus de compétitivité face aux géants américains. Mais elle pose aussi un dilemme éthique : faut-il sacrifier la prudence au nom de la croissance ?

Mistral et les défis techniques : un cas d’école

En France, Mistral, un acteur clé des GPAI, illustre les tensions autour du EU AI Act. Lors du Mobile World Congress 2025 à Barcelone, son fondateur, Arthur Mensh, a déploré les difficultés techniques à respecter certaines exigences. « Nous travaillons avec les régulateurs pour trouver des solutions », a-t-il assuré. Ce cas montre à quel point l’équilibre entre innovation et conformité reste fragile, même pour les leaders européens.

Pour les entrepreneurs et marketeurs, Mistral est un exemple à suivre. Une startup qui parvient à naviguer dans ce cadre complexe pourrait non seulement se conformer aux règles, mais aussi en faire un argument de vente : une IA responsable et européenne, face aux mastodontes américains.

Et après ? Une guidance encore floue

Le Code de Pratique n’est pas le seul outil en jeu. L’AI Office de la Commission européenne prépare des lignes directrices supplémentaires pour clarifier les responsabilités des GPAI. Ces précisions, attendues « en temps voulu », pourraient encore modifier la donne. Pour les entreprises tech, les marketeurs et les startups, rester à l’affût de ces évolutions est crucial pour adapter leurs stratégies.

En attendant, une chose est sûre : le EU AI Act, même adouci, marque une étape majeure dans la régulation de l’IA. Entre opportunités et défis, il redessine le paysage technologique européen – et mondial. À vous, entrepreneurs et innovateurs, de transformer ces contraintes en leviers de succès.

Pour aller plus loin sur ces sujets, explorez les ressources de TechCrunch, une référence incontournable pour suivre les tendances tech et business.

À lire également