L’intelligence artificielle fait des progrès fulgurants, mais une question demeure : peut-on faire « oublier » à un modèle d’IA des données indésirables apprises lors de son entraînement, comme des informations privées ou du contenu protégé par le droit d’auteur ? Une nouvelle étude jette un froid sur les techniques actuelles d’« unlearning », révélant qu’elles dégradent significativement les performances des modèles.
Un dilemme pour les fournisseurs d’IA
Les modèles d’IA comme GPT-4 ou Lama sont entraînés sur d’immenses volumes de données glanées sur le web. Mais les détenteurs de droits d’auteur ne sont pas toujours d’accord, comme en témoignent les poursuites judiciaires intentées contre certains fournisseurs. L’unlearning pourrait offrir une solution, en plus de permettre la suppression d’informations sensibles qui se retrouvent parfois dans les données d’entraînement.
L’unlearning n’est pas aussi simple que d’appuyer sur « Supprimer ».
Un benchmark pour tester l’oubli
Des chercheurs ont mis au point MUSE, un benchmark évaluant la capacité des algorithmes d’unlearning à faire oublier certaines données à un modèle, comme des livres de la série Harry Potter. Le but : mesurer non seulement si le modèle cesse de recracher ces contenus, mais aussi s’il en a perdu toute connaissance. MUSE évalue également la rétention des connaissances générales liées, reflétant l’utilité globale du modèle après son unlearning.
Des résultats peu encourageants
L’étude a révélé que si les algorithmes testés parvenaient effectivement à faire oublier certaines informations aux modèles, cela se faisait au prix d’une dégradation significative de leurs capacités générales de réponse aux questions. Un véritable dilemme, d’après Weijia Shi, chercheuse à l’Université de Washington :
Lorsque les méthodes actuelles d’unlearning tentent de supprimer les livres Harry Potter protégés par le droit d’auteur, elles impactent aussi significativement les connaissances du modèle sur le wiki Harry Potter, qui est pourtant un contenu libre.
– Weijia Shi, Université de Washington
Pas de solution miracle pour l’instant
Les techniques d’unlearning ne sont donc pas encore prêtes pour un usage réel, selon les chercheurs. Il n’existe pas à ce jour de méthode efficace permettant à un modèle d’oublier des données spécifiques sans perte considérable d’utilité. Des avancées techniques seront nécessaires pour transformer l’unlearning en une véritable solution pour les fournisseurs d’IA confrontés aux enjeux des données d’entraînement.
En attendant, voici quelques pistes à explorer :
- Améliorer la sélection des données d’entraînement en amont
- Développer des approches plus fines pour cibler les informations à effacer
- Miser sur la prévention plutôt que la correction a posteriori
L’intelligence artificielle progresse à grande vitesse, mais il reste encore du chemin à parcourir pour résoudre l’épineuse question de l’oubli des données indésirables. Les travaux en cours ouvrent néanmoins des perspectives prometteuses pour l’avenir de l’IA.