OpenAI Tente De « Décensurer » ChatGPT Avec De Nouveaux Principes

ChatGPT, l’agent conversationnel d’OpenAI, va bientôt pouvoir répondre à un éventail plus large de questions et aborder des sujets plus controversés. C’est ce qui ressort d’une mise à jour de la politique de formation des modèles d’OpenAI, le laboratoire à l’origine de cette IA révolutionnaire.

Embrasser la « liberté intellectuelle »

Dans un document de 187 pages intitulé « Model Spec », OpenAI définit un nouveau principe directeur pour l’entraînement de ses IA : ne pas mentir, que ce soit en faisant des déclarations fausses ou en omettant un contexte important. L’objectif est clair : permettre à ChatGPT d’aborder n’importe quel sujet « peu importe à quel point il peut être difficile ou controversé », en offrant des perspectives multiples dans un souci de neutralité.

« Ce principe peut être controversé, car cela signifie que l’assistant peut rester neutre sur des sujets que certains considèrent comme moralement répréhensibles ou offensants », reconnaît OpenAI. « Cependant, le but d’un assistant IA est d’aider l’humanité, pas de la façonner. »

OpenAI, Model Spec

Une réponse aux critiques conservatrices ?

Ce changement de cap intervient alors que plusieurs proches conseillers du président Trump, comme les entrepreneurs David Sacks, Marc Andreessen et Elon Musk, ont accusé OpenAI de pratiquer une forme de « censure de l’IA », en bridant ChatGPT sur certains sujets sensibles. Une critique balayée par Sam Altman, le PDG d’OpenAI, qui avait parlé d’un « défaut » en voie d’être corrigé.

Pour certains observateurs, cette évolution de la politique d’OpenAI pourrait donc être un moyen de se mettre dans les bonnes grâces de la nouvelle administration Trump. Mais l’entreprise affirme qu’il s’agit surtout de refléter sa « croyance de longue date en donnant plus de contrôle aux utilisateurs ».

Vers une nouvelle définition de la « sécurité de l’IA »

Au-delà du cas d’OpenAI, c’est toute la Silicon Valley qui semble amorcer un virage sur la modération de contenu et la « sécurité de l’IA ». Elon Musk a été le premier à mettre en avant le concept de « liberté d’expression » pour son chatbot Grok, développé par xAI. Meta (Facebook) de Mark Zuckerberg a suivi le mouvement en réorientant ses activités autour des principes du premier amendement.

Alors qu’auparavant, les entreprises tech cherchaient à empêcher leurs IA de répondre à des questions pouvant mener à des réponses « dangereuses », on assiste peut-être à l’émergence d’une nouvelle doctrine. Celle-ci considérerait qu’il est plus responsable de laisser l’IA répondre à tout, plutôt que de faire des choix éditoriaux à la place des utilisateurs.

Cette approche n’est pas sans risques, mais elle est rendue possible par les progrès réalisés sur « l’alignement » des modèles d’IA, qui leur permet de mieux gérer les questions délicates. Reste à savoir si le grand public est prêt à faire confiance à des chatbots totalement « décensurés ».

À lire également