Après des années de préparation, le projet de règlement de l’Union Européenne sur l’Intelligence Artificielle, également appelé AI Act, est sur le point d’entrer en vigueur. Ce texte fondateur vise à encadrer le développement et l’utilisation de l’IA au sein de l’UE, avec pour ambition de stimuler l’innovation tout en protégeant les citoyens. Quelles sont les grandes lignes de cet Acte et quelles seront ses implications pour les entreprises et la société ? Décryptage.
L’approche basée sur les risques au cœur de l’AI Act
Le règlement adopte une approche graduée en fonction des risques posés par les différentes applications de l’IA :
- Les usages jugés à « risque inacceptable » comme la notation sociale ou les techniques subliminales seront interdits, avec toutefois de nombreuses exceptions.
- Les systèmes à « haut risque » (infrastructures critiques, éducation, santé…) devront faire l’objet d’évaluations de conformité avant et après leur mise sur le marché.
- Les applications à « risque moyen » comme les chatbots seront soumis à des obligations de transparence.
Les autres usages, considérés à faible risque, ne seront pas régulés. Des bonnes pratiques sont toutefois encouragées.
Focus sur les modèles de fondation (GPAI)
L’émergence des larges modèles d’IA générative comme ChatGPT a poussé les législateurs à ajouter des règles spécifiques pour ces technologies, appelées « GPAI ». Deux niveaux d’obligations sont prévus :
- Pour la plupart des GPAI commerciaux : des exigences de transparence et de documentation technique.
- Pour les modèles les plus puissants présentant un « risque systémique » : une évaluation et une atténuation proactives des risques.
Le contrôle de ces GPAI sera centralisé au niveau européen via un « AI Office ». Des amendes pouvant atteindre 3% du chiffre d’affaires mondial sont prévues en cas d’infraction.
Une mise en application progressive
Officiellement entré en vigueur le 1er août 2024, l’AI Act va s’appliquer progressivement jusqu’en 2027, le temps que les autorités définissent les standards et guides de conformité. Les interdictions s’appliqueront dès février 2025, les exigences de transparence dès août 2025, puis les obligations pour les systèmes à haut risque en 2026 et 2027.
L’UE se veut pionnière en matière de régulation de l’IA. Mais ce statut implique de résoudre de nombreux défis techniques et juridiques inédits.
Commission Européenne
Quel impact pour les entreprises et la société ?
Si l’objectif affiché est de favoriser l’innovation en renforçant la confiance, certains acteurs craignent que ces règles ne freinent la compétitivité européenne face aux géants américains et chinois. L’avenir nous dira si ce pari sur une « IA digne de confiance » portera ses fruits.
Une chose est sûre : l’AI Act va profondément modifier le paysage de l’IA en Europe et au-delà. Les entreprises développant ou utilisant cette technologie doivent dès maintenant anticiper ces changements et adapter leurs processus en conséquence. L’enjeu : concilier innovation et respect des droits fondamentaux des citoyens à l’ère de l’IA.