Lilian Weng, Chercheuse en Sécurité chez OpenAI, Quitte l’Entreprise

Le monde de l’intelligence artificielle est en ébullition, avec l’annonce récente du départ de Lilian Weng, chercheuse en sécurité chez OpenAI. Cette nouvelle vient s’ajouter à une série de départs de chercheurs et d’executives de la startup, suscitant des interrogations sur ses priorités entre sécurité et commercialisation.

Une Vague de Départs Chez OpenAI

Lilian Weng, qui occupait le poste de VP recherche et sécurité chez OpenAI depuis août dernier, a annoncé son départ le 15 novembre après 7 ans dans l’entreprise. Elle rejoint ainsi plusieurs figures clés parties récemment :

  • Ilya Sutskever et Jan Leike, leaders de l’équipe Superalignment (dissoute depuis) qui travaillait sur le contrôle des IA superintelligentes
  • Miles Brundage, chercheur en politiques publiques qui conseillait l’équipe AGI Readiness également dissoute
  • Suchir Balaji, chercheur estimant que la technologie d’OpenAI apportera plus de mal que de bien à la société

Sans compter les départs du CTO Mira Murati, du chief research officer Bob McGrew, du VP recherche Barret Zoph et des éminents chercheurs Andrej Karpathy et John Schulman, co-fondateur. Beaucoup ont rejoint le concurrent Anthropic ou lancé leurs propres projets.

Lilian Weng, Un Pilier de la Sécurité IA chez OpenAI

Arrivée en 2018 chez OpenAI, Lilian Weng a d’abord travaillé sur la robotique, contribuant à développer une main robotique capable de résoudre un Rubik’s Cube. Puis elle s’est focalisée sur les grands modèles de langage type GPT, aidant à créer l’équipe de recherche appliquée en 2021.

Suite au lancement de GPT-4 en 2023, Lilian Weng s’est vu confier la création d’une équipe dédiée aux systèmes de sécurité, aujourd’hui forte de 80 scientifiques, chercheurs et experts en politiques publiques. Un travail de longue haleine qu’elle laisse désormais entre d’autres mains.

Après 7 ans chez OpenAI, je me sens prête à me réinitialiser et explorer quelque chose de nouveau. Regardant ce que nous avons accompli, je suis tellement fière de l’équipe Safety Systems et j’ai une confiance extrême dans sa capacité à continuer de s’épanouir.

– Lilian Weng, sur son départ d’OpenAI

OpenAI Accusé de Négliger la Sécurité de l’IA

Cette vague de départs alimente les critiques envers OpenAI, soupçonné de prioriser la commercialisation sur la sécurité dans sa course aux IA toujours plus puissantes. Des chercheurs partis ont exprimé leurs inquiétudes :

  • Dissolution de l’équipe AGI Readiness qui préparait l’avènement d’une IA de niveau humain
  • Technologie jugée plus néfaste que bénéfique pour la société par certains
  • Course à la performance au détriment de la fiabilité et de l’éthique

OpenAI se défend en affirmant mettre en place une transition pour remplacer Lilian Weng, afin de maintenir des garde-fous techniques rigoureux. L’équipe Safety Systems continuera de jouer un rôle clé pour assurer la sécurité et la fiabilité des systèmes servant des centaines de millions d’utilisateurs.

Trouver le Bon Équilibre Entre Performance et Sécurité

Le départ de Lilian Weng souligne le dilemme auquel font face les acteurs de l’IA comme OpenAI, tiraillés entre :

  • L’impératif d’innover et de mise sur le marché rapide pour rester compétitifs
  • Le besoin de standards élevés de sécurité, fiabilité et d’éthique pour une technologie responsable et bénéfique

Un équilibre périlleux à trouver, alors que la réglementation peine à suivre le rythme effréné des avancées. Il est crucial que l’industrie de l’IA, gouvernements, chercheurs et société civile œuvrent main dans la main pour développer des garde-fous et une gouvernance garantissant une IA sûre et alignée avec nos valeurs.

Le futur de l’IA nous appartient à tous et la sécurité ne doit pas être sacrifiée sur l’autel de la performance. Le départ de Lilian Weng est un signal d’alerte : il est temps de rééquilibrer les priorités.

À lire également