L’Union européenne franchit une nouvelle étape dans la réglementation de l’intelligence artificielle en lançant une consultation publique sur deux aspects clés de sa nouvelle loi sur l’IA : la définition des systèmes d’IA et les utilisations interdites. Cette démarche témoigne de la volonté de l’UE d’impliquer toutes les parties prenantes dans l’élaboration de directives de conformité adaptées aux enjeux éthiques et sociétaux de cette technologie de rupture.
Clarifier le périmètre des systèmes d’IA
Le premier volet de la consultation porte sur la définition même des systèmes d’IA, par opposition aux logiciels traditionnels plus simples. L’UE sollicite l’avis des acteurs de l’industrie, des entreprises, du monde académique et de la société civile sur la clarté des éléments clés de la définition proposée dans la loi, ainsi que des exemples de logiciels qui devraient être exclus du champ d’application.
Établir une définition précise et opérationnelle de l’IA est un préalable indispensable pour garantir une application effective et cohérente de la réglementation. Il s’agit de trouver le juste équilibre entre une approche suffisamment large pour couvrir les technologies émergentes et une délimitation claire pour ne pas entraver l’innovation dans les domaines non concernés.
L’intelligence artificielle est une famille de technologies en constante évolution. Nous devons nous assurer que notre cadre réglementaire est suffisamment flexible pour s’adapter aux progrès futurs, tout en posant des garde-fous robustes.
Margrethe Vestager, Vice-présidente exécutive de la Commission européenne
Baliser les utilisations inacceptables de l’IA
Le second volet, qui constitue l’essentiel de la consultation, porte sur les utilisations de l’IA jugées comme présentant un « risque inacceptable » et donc interdites par la loi. Il s’agit notamment du scoring social à la chinoise, de la manipulation subliminale, de l’exploitation des vulnérabilités de certains groupes comme les enfants ou les personnes âgées, ou encore des systèmes de reconnaissance faciale généralisée dans l’espace public.
L’UE attend des retours détaillés sur chacun de ces cas d’usage prohibés, avec un intérêt particulier pour des exemples concrets. L’objectif est de délimiter précisément les contours de ces interdictions pour guider les développeurs et utilisateurs d’IA, mais aussi les autorités de contrôle chargées de faire respecter la loi.
Certaines applications de l’IA présentent des risques inacceptables pour nos valeurs et nos droits fondamentaux. Nous devons tracer des lignes rouges claires, tout en veillant à ne pas étouffer l’innovation bénéfique.
Thierry Breton, Commissaire européen au Marché intérieur
Prochaines étapes vers une IA digne de confiance
La consultation est ouverte jusqu’au 11 décembre 2024. La Commission prévoit ensuite de publier début 2025 ses orientations sur la définition des systèmes d’IA et les utilisations interdites, en s’appuyant sur les contributions reçues.
Cette étape s’inscrit dans la dynamique engagée par l’UE pour façonner une approche européenne de l’IA, fondée sur l’excellence et la confiance. Après l’adoption formelle de la loi sur l’IA en juin dernier, la priorité est désormais de préparer sa mise en œuvre concrète à travers des lignes directrices et des standards communs.
L’Europe entend ainsi affirmer son leadership dans la gouvernance éthique et responsable de l’IA, en conciliant le soutien à l’innovation, la protection des citoyens et la défense de ses valeurs fondamentales. Un défi majeur à l’heure où cette technologie transforme tous les pans de l’économie et de la société.
Les enjeux clés de la réglementation de l’IA
Au-delà des aspects techniques, la définition du cadre applicable à l’IA soulève des questions fondamentales :
- Comment évaluer et gérer les risques inhérents à ces systèmes opaques et autonomes ?
- Quelle gouvernance et quels contrôles mettre en place pour prévenir les dérives ?
- Comment assurer la transparence, l’explicabilité et la redevabilité des décisions prises par l’IA ?
- Quelle place pour l’humain dans la boucle et quels mécanismes de supervision ?
- Comment préserver les droits fondamentaux et les valeurs démocratiques face à la tentation du solutionnisme technologique ?
Autant d’interrogations qui appellent un large débat de société associant toutes les parties prenantes. C’est tout l’enjeu de la consultation lancée par l’UE, qui ouvre la voie à une régulation à la fois protectrice et habilitante, pour faire de l’IA une technologie au service du bien commun et du progrès durable.
Dans un contexte de course mondiale à l’IA, l’Europe a une carte maîtresse à jouer en incarnant une troisième voie entre laisser-faire et autoritarisme, un modèle d’innovation responsable et de souveraineté numérique qui place l’humain au cœur. Un défi aussi stimulant que nécessaire pour façonner un avenir numérique conforme à nos valeurs humanistes.