La CNIL Consulte les Acteurs de l’IA pour l’Application du RGPD

Imaginez un monde où l’intelligence artificielle se développe à une vitesse fulgurante, bousculant nos certitudes et soulevant de nombreuses questions éthiques et réglementaires. C’est précisément le défi auquel est confrontée aujourd’hui la Commission Nationale de l’Informatique et des Libertés (CNIL), garante en France du respect du Règlement Général sur la Protection des Données (RGPD). Pour y faire face, elle a décidé de consulter les acteurs du secteur de l’IA afin de clarifier l’application de ce texte aux nouveaux modèles en plein essor.

Une démarche préventive et collaborative

Lancée le 10 juin dernier, cette nouvelle consultation publique s’inscrit dans la continuité des efforts entrepris par la CNIL depuis octobre 2023 pour accompagner le développement responsable de l’IA. L’objectif est clair :

Adapter les futures recommandations aux risques réels pour les personnes concernées et aux capacités du secteur à les réduire.

En avril, sept premières fiches pratiques avaient déjà posé les bases à maîtriser. Cette fois, la Commission sollicite l’avis des experts sur deux axes :

  • Un questionnaire sur l’application du RGPD aux grands modèles d’IA
  • Sept nouvelles fiches pratiques, dont plusieurs sur la notion d’intérêt légitime

L’épineuse question de l’intérêt légitime

L’intérêt légitime est une disposition clé du RGPD qui permet, sous certaines conditions, de se passer du consentement des utilisateurs pour la collecte de données personnelles. Un sujet crucial pour les entreprises développant leurs propres modèles de langage, qui ont besoin de brasser d’immenses volumes de données pour entraîner leurs algorithmes.

La CNIL a notamment fait un focus sur le « web scraping », cette technique de moissonnage massif de données sur Internet. Comment s’assurer du respect des droits des personnes dans ce contexte ? Quelles limites légales imposer ? Autant de questions épineuses auxquelles la consultation tentera d’apporter des réponses.

Concilier innovation et protection des données

Au-delà de l’intérêt légitime, les nouvelles fiches pratiques aborderont aussi la gestion des modèles open source et le respect du droit des personnes (information, exercice des droits, etc.). L’enjeu pour la CNIL est de taille : apporter de la sécurité juridique aux acteurs de l’IA tout en préservant les libertés individuelles.

Car depuis l’arrivée de ChatGPT fin 2022, les questions sur l’utilisation des données personnelles pour l’entraînement des modèles se multiplient, donnant parfois lieu à des procédures judiciaires. Une clarification est donc plus que nécessaire, surtout dans une Union Européenne qui se veut à la pointe de la réglementation avec le RGPD et le futur AI Act.

La CNIL est consciente que l’adoption de cette technologie est, pour la France, un facteur majeur de compétitivité, d’innovation et de souveraineté.

Reste à trouver le bon équilibre entre ambition technologique et protection des citoyens. C’est tout l’enjeu de cette consultation qui se prolongera jusqu’au 1er septembre. En espérant que les acteurs de l’IA se montrent aussi innovants dans leurs réponses que dans leurs modèles !

author avatar
MondeTech.fr

À lire également