Lors de la récente conférence annuelle sur l’intelligence artificielle NeurIPS, un incident a suscité la controverse, non pas en raison des opinions exprimées sur l’IA, mais plutôt à cause de la manière dont une intervenante a fait référence à un étudiant chinois. Cet événement soulève d’importantes questions sur les biais et l’éthique dans le domaine de l’IA.
Une Présentation qui Dérape
Lors de sa présentation intitulée « Comment optimiser ce qui compte le plus », Rosalind Picard, professeure au MIT Media Lab, a inclus une diapositive citant l’excuse donnée par un « étudiant chinois maintenant expulsé d’une grande université » pour avoir utilisé l’IA. Selon la diapositive, l’étudiant aurait déclaré : « Personne dans mon école ne nous a enseigné la morale ou les valeurs ».
La diapositive comprenait également une note de Picard indiquant : « La plupart des Chinois que je connais sont honnêtes et moralement droits ». Cette remarque, ainsi que la mention spécifique de la nationalité de l’étudiant, ont suscité des réactions indignées.
Des Chercheurs en IA Réagissent
Jiao Sun, scientifique chez Google DeepMind, a partagé une photo de la diapositive sur X (anciennement Twitter), écrivant : « Atténuer les biais raciaux des grands modèles de langage est beaucoup plus facile que de les supprimer chez les humains ! ». Yuandong Tian, chercheur chez Meta, a repartagé le commentaire de Sun en ajoutant : « C’est un biais racial explicite. Comment cela a-t-il pu se produire à NeurIPS ? ».
Lors de la séance de questions-réponses, un participant a souligné qu’il s’agissait de la seule fois où la nationalité de quelqu’un était mentionnée dans la présentation de Picard. Il a suggéré que c’était « un peu offensant » et a exhorté Picard à supprimer cette référence si elle devait refaire cette présentation, une suggestion avec laquelle elle a semblé être d’accord.
Des Excuses et un Engagement pour l’Inclusion
Suite à cette intervention, les organisateurs de NeurIPS ont publié des excuses, écrivant : « Nous voulons aborder le commentaire fait pendant la présentation de cet après-midi, car c’est quelque chose que NeurIPS ne cautionne pas et qui ne correspond pas à notre code de conduite. Nous traitons cette question directement avec l’intervenante. NeurIPS s’engage à être un lieu diversifié et inclusif où tout le monde est traité de manière égale ».
Rosalind Picard s’est également excusée dans une déclaration où elle a exprimé ses « regrets » pour avoir mentionné la nationalité de l’étudiant. Elle a écrit : « Je vois que c’était inutile, hors de propos par rapport à l’argument que je faisais, et que cela a provoqué des associations négatives non intentionnelles. Je m’en excuse et je me sens très mal à propos de la détresse que cet incident a causée. J’apprends de cette expérience et j’accueille les idées sur la façon d’essayer de réparer les torts causés à la communauté ».
L’Importance de l’Éthique dans l’IA
Cet incident met en lumière l’importance cruciale de l’éthique et de la sensibilité culturelle dans le domaine de l’intelligence artificielle. Alors que l’IA devient de plus en plus présente dans nos vies, il est essentiel que les chercheurs et les praticiens soient conscients des biais potentiels et travaillent activement à les éliminer.
Comme l’a souligné Jiao Sun, les biais raciaux peuvent être profondément ancrés chez les individus, même chez ceux qui travaillent à les combattre dans les systèmes d’IA. Il est donc crucial que nous restions vigilants et que nous nous engagions dans une introspection honnête pour identifier et surmonter nos propres préjugés.
« L’intelligence artificielle a le potentiel de transformer notre monde pour le mieux, mais seulement si nous nous assurons qu’elle est développée et utilisée de manière éthique et équitable. »
Les organisations comme NeurIPS jouent un rôle clé en établissant des normes et des attentes pour le domaine. En ayant un code de conduite clair et en réagissant rapidement lorsque des problèmes surviennent, elles peuvent contribuer à créer une culture de respect, d’inclusion et d’égalité.
Aller de l’Avant
Alors que nous continuons à faire progresser le domaine de l’intelligence artificielle, il est impératif que nous gardions l’éthique et l’équité au premier plan. Cela nécessite un effort concerté de la part de tous les acteurs – chercheurs, praticiens, entreprises et décideurs politiques – pour s’attaquer aux biais systémiques et promouvoir la diversité et l’inclusion.
Cet incident à NeurIPS sert de rappel important que nous avons encore du chemin à faire. Mais en tirant les leçons de nos erreurs, en restant ouverts au dialogue et en travaillant ensemble, nous pouvons construire un avenir où l’IA profite à tous de manière équitable.
Comme Rosalind Picard l’a démontré par ses excuses et sa volonté d’apprendre de cette expérience, reconnaître nos erreurs et chercher à nous améliorer est une étape cruciale. C’est seulement en ayant ces conversations difficiles et en nous efforçant continuellement de faire mieux que nous pouvons espérer réaliser le plein potentiel de l’IA comme outil pour le bien social.
Alors que NeurIPS et d’autres conférences sur l’IA se poursuivent, gardons à l’esprit les leçons tirées de cet incident. Prenons l’engagement de promouvoir l’éthique, l’équité et l’inclusivité dans tout ce que nous faisons. C’est ainsi que nous pouvons construire un avenir où l’IA autonomise et élève l’humanité tout entière.
En Résumé
- Un conférencier de NeurIPS a suscité la controverse en faisant référence de manière problématique à un étudiant chinois lors d’une présentation
- Des chercheurs en IA ont souligné le caractère offensant et biaisé de ces propos
- Les organisateurs de la conférence et l’intervenante se sont excusés, reconnaissant que de tels commentaires n’ont pas leur place
- Cet incident souligne l’importance cruciale de l’éthique, de l’équité et de la sensibilité culturelle dans le domaine de l’IA
- Pour réaliser le potentiel de l’IA comme outil de bien social, un engagement continu envers ces valeurs de la part de toutes les parties prenantes est essentiel