L’alerte des Employés d’OpenAI et Google sur les Risques de l’IA

L’intelligence artificielle connaît une croissance fulgurante depuis le lancement de ChatGPT en novembre 2022. En moins de deux ans, le marché de l’IA devrait atteindre les 1000 milliards de dollars de revenus. Mais derrière cette course effrénée, des voix s’élèvent pour alerter sur les risques et le manque de surveillance de cette technologie révolutionnaire.

Le cri d’alarme d’employés et ex-employés d’OpenAI et Google

Le 4 juin dernier, un groupe constitué d’actuels et d’anciens employés d’OpenAI et DeepMind (Google) a publié une lettre ouverte intitulée « Un droit d’alerte sur l’intelligence artificielle avancée ». Parmi les signataires, on retrouve notamment 4 salariés anonymes d’OpenAI et 7 ex-membres de l’entreprise. Ils y expriment leurs profondes inquiétudes :

  • Les entreprises d’IA comme OpenAI, Google ou Meta dominent le secteur mais manquent cruellement de surveillance
  • Elles détiendraient des informations sur les capacités et les risques de leurs IA, non encore rendues publiques
  • Les lanceurs d’alerte ne seraient pas suffisamment protégés face à ces géants de la tech

Nous ne pensons pas que des structures de gouvernance d’entreprise sur mesure soient suffisantes.

Extrait de la lettre ouverte

OpenAI particulièrement pointée du doigt

Si les critiques visent l’ensemble de l’industrie, OpenAI semble faire l’objet d’une attention particulière. L’entreprise derrière le célèbre ChatGPT aurait pour habitude de faire signer de larges accords de confidentialité et de non-dénigrement à ses employés. Des pratiques qui empêcheraient ces derniers de s’exprimer librement sur les potentiels problèmes.

En mai dernier, le directeur de l’alignement d’OpenAI Jan Leike a même claqué la porte, estimant que l’impact et la sécurité des IA développées n’étaient pas suffisamment prioritaires pour l’entreprise de Sam Altman. Ce dernier a pourtant mis en place un comité de sûreté et une ligne d’alerte, suite à son éviction temporaire par le conseil d’administration qui lui reprochait d’aller trop vite dans la commercialisation, au détriment de la prudence.

Un besoin urgent de régulation et de protection des lanceurs d’alerte

Face à cette situation préoccupante, les signataires de la lettre ouverte demandent la mise en place de plusieurs mesures pour mieux encadrer le développement de l’intelligence artificielle :

  • Une surveillance gouvernementale bien plus importante des entreprises d’IA
  • Un processus permettant aux employés de faire remonter leurs inquiétudes de manière anonyme
  • Une meilleure protection des lanceurs d’alerte, y compris lorsque les risques ne sont pas encore réglementés

Car si certains pays disposent de lois protégeant les lanceurs d’alerte, elles se concentrent principalement sur les activités illégales. Or dans le cas de l’IA, bon nombre des risques soulevés ne sont pour l’instant pas couverts par la réglementation. Il y a donc urgence à adapter le cadre légal pour responsabiliser les acteurs de ce secteur en plein boom.

L’intelligence artificielle soulève de nombreuses interrogations éthiques, sociétales et économiques. Les critiques émanant de l’intérieur même des entreprises leaders ne peuvent être ignorées. Il est temps que les pouvoirs publics se saisissent pleinement du sujet pour instaurer des garde-fous et s’assurer que cette technologie reste au service du bien commun. La confiance des citoyens est à ce prix.

author avatar
MondeTech.fr

À lire également