Les Limites De L’« Oubli » Des Modèles D’IA

Les Limites De L’« Oubli » Des Modèles D’IA Une nouvelle étude révèle que les techniques visant à faire « oublier » aux modèles d’IA des données indésirables nuisent considérablement à leurs performances. Modèles d’IA Intelligence Artificielle, Données d’entraînement, Unlearning, Oubli des modèles, Performances de l’IA, Limites de l’IA, Recherche sur l’IA, Benchmark MUSE IA,Modèles d’IA,Unlearning,Oubli des modèles d’IA,Données d’entraînement de l’IA,Performances des modèles d’IA,Techniques d’oubli de l’IA,Étude sur l’oubli de l’IA,Benchmark MUSE pour l’IA,Limites de l’intelligence artificielle,Recherche sur l’intelligence artificielle,Enjeux de l’IA,Données sensibles dans l’IA,Effacement des données d’IA,Impacts de l’oubli sur l’IA Actualités Analyse de données A colorful digital illustration showing the inner workings and connections of an artificial intelligence brain, with some sections being erased or removed, on a futuristic tech background.

L’intelligence artificielle fait des progrès fulgurants, mais une question demeure : peut-on faire « oublier » à un modèle d’IA des données indésirables apprises lors de son entraînement, comme des informations privées ou du contenu protégé par le droit d’auteur ? Une nouvelle étude jette un froid sur les techniques actuelles d’« unlearning », révélant qu’elles dégradent significativement les performances des modèles.

Un dilemme pour les fournisseurs d’IA

Les modèles d’IA comme GPT-4 ou Lama sont entraînés sur d’immenses volumes de données glanées sur le web. Mais les détenteurs de droits d’auteur ne sont pas toujours d’accord, comme en témoignent les poursuites judiciaires intentées contre certains fournisseurs. L’unlearning pourrait offrir une solution, en plus de permettre la suppression d’informations sensibles qui se retrouvent parfois dans les données d’entraînement.

L’unlearning n’est pas aussi simple que d’appuyer sur « Supprimer ».

Un benchmark pour tester l’oubli

Des chercheurs ont mis au point MUSE, un benchmark évaluant la capacité des algorithmes d’unlearning à faire oublier certaines données à un modèle, comme des livres de la série Harry Potter. Le but : mesurer non seulement si le modèle cesse de recracher ces contenus, mais aussi s’il en a perdu toute connaissance. MUSE évalue également la rétention des connaissances générales liées, reflétant l’utilité globale du modèle après son unlearning.

Des résultats peu encourageants

L’étude a révélé que si les algorithmes testés parvenaient effectivement à faire oublier certaines informations aux modèles, cela se faisait au prix d’une dégradation significative de leurs capacités générales de réponse aux questions. Un véritable dilemme, d’après Weijia Shi, chercheuse à l’Université de Washington :

Lorsque les méthodes actuelles d’unlearning tentent de supprimer les livres Harry Potter protégés par le droit d’auteur, elles impactent aussi significativement les connaissances du modèle sur le wiki Harry Potter, qui est pourtant un contenu libre.

– Weijia Shi, Université de Washington

Pas de solution miracle pour l’instant

Les techniques d’unlearning ne sont donc pas encore prêtes pour un usage réel, selon les chercheurs. Il n’existe pas à ce jour de méthode efficace permettant à un modèle d’oublier des données spécifiques sans perte considérable d’utilité. Des avancées techniques seront nécessaires pour transformer l’unlearning en une véritable solution pour les fournisseurs d’IA confrontés aux enjeux des données d’entraînement.

En attendant, voici quelques pistes à explorer :

  • Améliorer la sélection des données d’entraînement en amont
  • Développer des approches plus fines pour cibler les informations à effacer
  • Miser sur la prévention plutôt que la correction a posteriori

L’intelligence artificielle progresse à grande vitesse, mais il reste encore du chemin à parcourir pour résoudre l’épineuse question de l’oubli des données indésirables. Les travaux en cours ouvrent néanmoins des perspectives prometteuses pour l’avenir de l’IA.

author avatar
MondeTech.fr

À lire également