Dans un geste qui soulève autant de questions que de sourcils, le géant de l’IA OpenAI finance des recherches sur « l’éthique de l’IA ». Cette initiative, révélée dans un dossier de l’IRS, accorde une subvention de 1 million de dollars sur trois ans à des professeurs de l’université Duke étudiant la création d’une « IA morale ». Mais qu’est-ce que cela signifie vraiment, et est-ce même possible avec la technologie actuelle ?
Le Projet ‘Research AI Morality’ d’OpenAI
Peu de détails ont été divulgués sur ce projet d’OpenAI, hormis le fait que la subvention se termine en 2025. L’objectif déclaré est de former des algorithmes pour « prédire les jugements moraux humains » dans des scénarios impliquant des conflits moraux en médecine, en droit et en affaires. Cependant, les chercheurs principaux, les professeurs Walter Sinnott-Armstrong et Jana Borg, n’ont pas souhaité commenter davantage.
Leurs travaux antérieurs explorent le potentiel de l’IA en tant que « GPS moral » pour aider les humains à prendre de meilleures décisions, comme un algorithme « moralement aligné » pour attribuer les dons de reins. Mais la moralité est-elle vraiment à la portée de la technologie actuelle ?
Les Défis de l’Enseignement de l’Éthique aux Machines
Enseigner des concepts aussi nuancés que la moralité à l’IA est notoirement difficile. Les modèles d’apprentissage automatique sont des machines statistiques qui apprennent des schémas à partir d’exemples, sans réelle compréhension du raisonnement et des émotions impliqués dans la prise de décision morale. Comme l’a montré l’outil Ask Delphi de l’Allen Institute en 2021, reformuler légèrement les questions éthiques peut conduire l’IA à approuver à peu près n’importe quoi.
L’IA n’a pas de notion des concepts éthiques, ni de compréhension du raisonnement et des émotions qui interviennent dans la prise de décision morale.
De plus, l’IA a tendance à reproduire les valeurs des nations occidentales, éduquées et industrialisées qui dominent ses données d’entraînement. Elle intériorise une série de biais au-delà de ce penchant occidental, comme le fait de juger l’hétérosexualité plus « moralement acceptable » que l’homosexualité.
La Subjectivité Inhérente de la Moralité
Le défi d’OpenAI est rendu encore plus ardu par la subjectivité inhérente à la moralité. Les philosophes débattent des mérites de diverses théories éthiques depuis des millénaires, sans cadre universellement applicable en vue.
- Certains systèmes d’IA comme Claude favorisent le kantisme, en se concentrant sur des règles morales absolues.
- D’autres comme ChatGPT penchent légèrement vers l’utilitarisme, en privilégiant le plus grand bien pour le plus grand nombre.
- Est-ce qu’un de ces cadres est supérieur à l’autre ? Cela dépend de qui vous demandez !
Un algorithme prédisant les jugements moraux humains devra prendre en compte toute cette complexité. C’est une barre très élevée à franchir, en supposant qu’un tel algorithme soit possible en premier lieu.
Implications et Questions pour l’Avenir
L’initiative d’OpenAI soulève de nombreuses questions fascinantes :
- Comment les jugements moraux prédits par l’IA seront-ils utilisés en pratique ?
- Quels biais et limites faudra-t-il prendre en compte ?
- Cette recherche ouvrira-t-elle la voie à une IA véritablement « éthique », ou simplement à des systèmes qui miment les jugements humains ?
Avec l’IA qui joue un rôle croissant dans des domaines sensibles comme la santé, la justice et les affaires, il est crucial de s’attaquer à ces défis éthiques. Les efforts comme ceux d’OpenAI pourraient s’avérer des premières étapes vitales, même s’il reste un long chemin à parcourir.
Une chose est sûre : à mesure que la technologie progresse, le débat sur l’éthique de l’IA ne fera que s’intensifier. Il nous appartient à tous – chercheurs, entreprises, responsables politiques et citoyens – de façonner un avenir où l’IA incarne le meilleur de nos valeurs morales, et non le contraire.