Imaginez un monde où l’intelligence artificielle pourrait échapper à tout contrôle et menacer l’existence même de l’humanité. C’est le genre de scénario catastrophe qui hante les esprits de certains employés d’OpenAI, le célèbre laboratoire de recherche en IA à l’origine de modèles ultra-performants comme GPT-3 et DALL-E.
Des employés inquiets tirent la sonnette d’alarme
Dans une lettre ouverte publiée anonymement, 13 employés et anciens employés d’OpenAI mettent en garde contre les dangers potentiels des technologies d’IA que développe la start-up. Parmi les risques cités : le renforcement des inégalités, la manipulation de masse, la désinformation généralisée, et même la possibilité que l’humanité perde le contrôle de systèmes d’IA autonomes, ce qui pourrait entraîner notre extinction pure et simple.
Pour ces lanceurs d’alerte, il est crucial que les entreprises les plus avancées dans le domaine de l’IA, comme OpenAI, acceptent que leurs employés puissent porter publiquement un regard critique sur leurs activités et les risques associés. Ils regrettent que des clauses de confidentialité trop restrictives les empêchent actuellement de s’exprimer librement sur ces sujets.
Dans la mesure où ces sociétés ne sont pas soumises à la supervision des autorités, les employés actuels ou anciens font partie des rares personnes qui peuvent leur demander des comptes.
Les signataires de la lettre ouverte
Vers une culture de la critique ouverte
Les auteurs de la lettre appellent donc les entreprises phares de l’IA à encourager une culture de la critique ouverte, en permettant à leurs employés actuels et anciens de mettre en avant publiquement leurs inquiétudes sur les technologies qu’ils développent, sans crainte de représailles.
Ils proposent aussi la création de canaux de signalement anonymes en interne, pour permettre aux employés de tirer la sonnette d’alarme en cas de dérive. L’objectif : limiter les risques en collaborant avec la communauté scientifique, les autorités et le grand public.
L’IA, un enjeu majeur pour l’avenir de l’humanité
Car si l’IA recèle un immense potentiel pour le progrès, avec des applications révolutionnaires dans des domaines aussi variés que la santé, l’éducation ou la lutte contre le changement climatique, elle comporte aussi des risques existentiels qu’il serait irresponsable d’ignorer. Surtout quand on parle d’IA dite « forte » ou « générale », c’est-à-dire capable d’égaler voire de dépasser les capacités cognitives humaines dans un large éventail de tâches.
C’est précisément le type d’IA sur laquelle planche une entreprise comme OpenAI, avec l’ambition de créer une « IA bienveillante » qui profite à toute l’humanité. Mais pour y parvenir, il faudra s’assurer que son développement se fasse de manière éthique, transparente et supervisée. D’où l’importance d’écouter les voix critiques en interne, celles des employés en première ligne.
Des garde-fous nécessaires
Tout le défi pour un acteur comme OpenAI sera donc de trouver le bon équilibre : continuer à innover à un rythme soutenu pour rester dans la course à l’IA, tout en mettant en place les garde-fous nécessaires pour se prémunir contre les dérives potentielles. Cela passera par l’adoption de principes éthiques forts, une collaboration étroite avec les régulateurs, et une supervision accrue, y compris en interne.
Cette lettre ouverte d’employés d’OpenAI est donc un signal fort. Le signal que l’IA est certes une technologie pleine de promesses, mais qu’il faut l’aborder avec discernement et précaution. Car c’est bien l’avenir de notre espèce qui est en jeu. Et cet avenir, nous devons le construire ensemble, dans le dialogue et la transparence, sans céder ni à la naïveté béate, ni à la paranoïa stérile.
- L’IA comporte des risques existentiels qu’il serait irresponsable d’ignorer
- Les entreprises d’IA doivent encourager la critique ouverte en interne
- Il faut trouver un équilibre entre innovation et éthique