Le géant de l’intelligence artificielle OpenAI a récemment fait une modification discrète mais significative à l’un de ses documents de politique clés. La startup, connue pour son chatbot ChatGPT révolutionnaire, a supprimé une mention selon laquelle l’IA devrait viser à être « politiquement impartiale ». Ce changement soulève des questions sur la position d’OpenAI concernant le biais politique dans l’IA, un sujet de plus en plus controversé.
Un changement de politique discret mais révélateur
Dans la première version de son « plan économique » pour l’industrie de l’IA aux États-Unis, OpenAI avait déclaré que les modèles d’IA « devraient viser à être politiquement impartiaux par défaut ». Cependant, dans une nouvelle version publiée lundi, cette phrase a été supprimée. Interrogé à ce sujet, un porte-parole d’OpenAI a expliqué qu’il s’agissait de « rationaliser » le document, tout en soulignant que d’autres documents, comme le Model Spec d’OpenAI, abordent la question de l’objectivité.
Mais cette révision met aussi en lumière le champ de mines politique qu’est devenu le discours sur les « biais dans l’IA ». De nombreux alliés du président élu Donald Trump, dont Elon Musk et le « tsar » de la crypto et de l’IA David Sacks, ont accusé les chatbots d’IA de censurer les points de vue conservateurs. Sacks a particulièrement pointé du doigt ChatGPT d’OpenAI, le qualifiant de « programmé pour être woke » et de ne pas dire la vérité sur des sujets politiquement sensibles.
Les accusations de biais libéral dans l’IA
Elon Musk a blâmé à la fois les données sur lesquelles les modèles d’IA sont entraînés et la « wokeness » des entreprises de la Bay Area de San Francisco.
« Beaucoup des IA qui sont entraînées dans la Bay Area de San Francisco adoptent la philosophie des gens qui les entourent », a déclaré Musk lors d’un événement organisé par le gouvernement saoudien en octobre dernier. « Donc vous avez une philosophie woke, nihiliste – à mon avis – qui est intégrée dans ces IA. »
– Elon Musk
En réalité, le biais dans l’IA est un problème technique insoluble. La propre entreprise d’IA de Musk, xAI, a elle-même eu du mal à créer un chatbot qui ne privilégie pas certaines opinions politiques par rapport à d’autres. Une étude de chercheurs britanniques publiée en août suggère que ChatGPT a un biais libéral sur des sujets comme l’immigration, le changement climatique et le mariage homosexuel. OpenAI affirme que tout biais dans ChatGPT est un « bug, pas une fonctionnalité ».
L’importance de la transparence et de l’éthique dans l’IA
Ce changement de politique d’OpenAI, bien que discret, soulève des questions importantes sur la transparence et l’éthique dans le développement de l’IA. Alors que ces technologies deviennent de plus en plus puissantes et omniprésentes, il est crucial que les entreprises soient ouvertes sur leurs choix en matière de biais et d’impartialité.
OpenAI, en tant que leader de l’industrie, a une responsabilité particulière à cet égard. Supprimer une référence à l’impartialité politique sans explication détaillée risque de semer la confusion et la méfiance parmi le public. Au contraire, une discussion ouverte et honnête sur ces questions complexes pourrait aider à construire la confiance et à façonner des normes éthiques pour l’ensemble du secteur.
Alors que le débat sur les biais dans l’IA s’intensifie, il sera intéressant de voir comment OpenAI et d’autres acteurs clés réagissent. Une chose est sûre : à mesure que l’IA devient plus avancée et influente, la nécessité d’une réflexion éthique approfondie et d’une transparence ne fera que croître.
En résumé
- OpenAI a discrètement supprimé une mention sur l’IA « politiquement impartiale » de sa politique
- Cette révision met en lumière le débat houleux sur les biais politiques dans l’IA
- Certains accusent l’IA comme ChatGPT d’avoir un parti pris libéral et de censurer les conservateurs
- Le biais dans l’IA est un problème technique complexe et insoluble
- La transparence et l’éthique sont cruciales alors que l’IA devient plus puissante et répandue