Le texte intégral et définitif de l’IA Act de l’UE, la réglementation européenne historique sur les applications de l’intelligence artificielle basée sur les risques, a été publié au Journal Officiel de l’Union. Dans 20 jours, le 1er août, cette nouvelle loi entrera en vigueur et d’ici mi-2026, ses dispositions seront généralement pleinement applicables aux développeurs d’IA. Cependant, la loi adopte une approche progressive pour mettre en œuvre le règlement européen sur l’IA, ce qui signifie qu’il y a diverses échéances importantes à noter entre aujourd’hui et cette date, et même au-delà, car différentes dispositions légales commenceront à s’appliquer.
Un accord politique sur l’IA Act conclu en décembre dernier
Les législateurs européens ont conclu un accord politique sur le premier ensemble complet de règles en matière d’IA en décembre dernier. Le cadre impose différentes obligations aux développeurs d’IA, en fonction des cas d’utilisation et des risques perçus. La majorité des utilisations de l’IA ne seront pas réglementées car elles sont considérées comme présentant un faible risque, mais un petit nombre de cas d’utilisation potentiels de l’IA sont interdits en vertu de la loi.
Des obligations pour les cas d’utilisation « à haut risque »
Les cas d’utilisation dits « à haut risque » – comme les utilisations biométriques de l’IA, ou l’IA utilisée dans le maintien de l’ordre, l’emploi, l’éducation et les infrastructures critiques – sont autorisés par la loi mais les développeurs de ces applications sont soumis à des obligations en matière de qualité des données et de lutte contre les biais.
Exigences de transparence pour les chatbots et les GPAI
Un troisième niveau de risque impose également des exigences de transparence plus légères aux créateurs d’outils tels que les chatbots IA. Pour les créateurs de modèles d’IA à usage général (GPAI), comme le GPT d’OpenAI, la technologie qui sous-tend ChatGPT, il existe également des exigences de transparence. Les GPAI les plus puissants, généralement définis en fonction du seuil de calcul, peuvent être tenus de procéder à une évaluation des risques systémiques.
Un lobbying intense de l’industrie de l’IA
Un lobbying intense de certains éléments de l’industrie de l’IA, soutenu par une poignée de gouvernements des États membres, a cherché à diluer les obligations relatives aux GPAI, craignant que la loi ne freine la capacité de l’Europe à produire des géants de l’IA pour concurrencer les rivaux aux États-Unis et en Chine.
Mise en œuvre progressive de l’IA Act
Tout d’abord, la liste des utilisations interdites de l’IA s’appliquera six mois après l’entrée en vigueur de la loi, début 2025. Les cas d’utilisation interdits (ou « à risque inacceptable ») de l’IA qui seront bientôt illégaux comprennent le crédit social à la chinoise, la compilation de bases de données de reconnaissance faciale par le grattage non ciblé d’Internet ou de la vidéosurveillance, et l’utilisation de la biométrie en temps réel à distance par les forces de l’ordre dans les lieux publics, sauf si l’une des nombreuses exceptions s’applique, comme lors d’une recherche de personnes disparues ou enlevées.
Ensuite, neuf mois après l’entrée en vigueur, vers avril 2025, des codes de pratique s’appliqueront aux développeurs d’applications d’IA concernées. Le Bureau de l’IA de l’UE, un organe de création d’écosystème et de surveillance établi par la loi, est chargé de fournir ces codes. Mais qui rédigera réellement les directives soulève encore des questions.
Une autre échéance clé tombe 12 mois après l’entrée en vigueur, soit le 1er août 2025, date à laquelle les règles de la loi sur les GPAI qui doivent se conformer aux exigences de transparence commenceront à s’appliquer.
Un sous-ensemble de systèmes d’IA à haut risque s’est vu accorder le délai de mise en conformité le plus généreux, 36 mois après l’entrée en vigueur – jusqu’en 2027 – pour satisfaire à leurs obligations. D’autres systèmes à haut risque devront se conformer plus tôt, après 24 mois.
Un cadre complet pour réglementer l’IA en Europe
La publication de l’IA Act au Journal Officiel de l’UE marque une étape importante dans la mise en place d’un cadre réglementaire complet pour l’intelligence artificielle en Europe. Avec ses différents niveaux d’obligations et d’exigences en fonction des risques, la loi vise à promouvoir une IA digne de confiance tout en stimulant l’innovation. Les développeurs d’IA devront suivre de près les diverses échéances légales qui se profilent pour s’assurer de se conformer à temps à cette nouvelle réglementation européenne.