Meta et Google face aux Hallucinations de l’IA

L’essor fulgurant de l’intelligence artificielle générative ces derniers mois a révélé un défi de taille pour les géants de la tech comme Meta et Google : les hallucinations de l’IA. Ces réponses erronées ou inappropriées générées par les modèles de langage soulèvent des questions sur la fiabilité et les biais de ces systèmes de plus en plus présents dans notre quotidien numérique.

L’assistant IA de Meta pris en défaut sur une tentative d’assassinat

Récemment, l’assistant conversationnel de Meta a affirmé à tort que la tentative d’assassinat contre l’ancien président américain Donald Trump n’avait pas eu lieu. Joel Kaplan, responsable des politiques chez Meta, a attribué cette erreur à une faille dans la technologie sous-jacente du chatbot, un problème récurrent des systèmes d’IA générative.

Ces types de réponses sont appelées hallucinations, un problème que nous observons dans tous les systèmes d’IA générative et qui constitue un défi permanent.

– Joel Kaplan, Meta

Meta a d’abord tenté de limiter les réponses de son IA sur ce sujet sensible, avant de lever ces restrictions face aux remarques des utilisateurs. Mais malgré cela, leur assistant a continué à nier l’événement, illustrant la difficulté à maîtriser ces modèles de langage.

Google accusé de censure par Elon Musk

Google a aussi dû faire face à des allégations de censure concernant Donald Trump. Elon Musk a affirmé sans preuve que le moteur de recherche avait mis en place une « interdiction de recherche » sur l’ancien président, se basant sur des captures d’écran montrant des suggestions étranges pour « président Donald ».

Google a démenti en expliquant qu’il s’agissait de bugs dans la saisie semi-automatique, dûs à des protections obsolètes liées à la violence politique. Des suggestions inhabituelles apparaissaient pour de nombreuses personnalités politiques, tous bords confondus. L’entreprise a aussi précisé que les utilisateurs pouvaient rechercher ce qu’ils voulaient, indépendamment des suggestions.

De nombreuses plateformes, y compris celle sur laquelle nous publions actuellement, afficheront des prédictions étranges ou incomplètes à divers moments.

– Google

Malgré ces explications, le tweet d’Elon Musk accusant Google d’ »ingérence électorale » a été vu plus de 118 millions de fois, déclenchant une vague de théories du complot. Une ironie puisque le milliardaire avait lui-même été critiqué pour avoir relayé une vidéo manipulée de Kamala Harris sans étiquetage.

Un défi majeur pour maîtriser l’IA générative

Ces incidents mettent en lumière les défis que représentent les hallucinations de l’IA pour les entreprises tech. Malgré les progrès fulgurants des modèles de langage, leur tendance à générer des affirmations erronées ou biaisées reste un problème épineux. Surtout quand ces outils traitent d’événements sensibles en temps réel.

Pour y remédier, les géants de la Silicon Valley devront redoubler d’efforts sur plusieurs fronts :

  • Améliorer les jeux de données d’entraînement pour couvrir un large éventail de sujets et de points de vue
  • Affiner les techniques de filtrage et de contrôle des réponses générées
  • Intégrer plus de context awareness pour adapter les réponses à la situation
  • Être transparent sur les limites actuelles de l’IA et valoriser le factchecking humain

Car au-delà des conséquences en termes de réputation, les hallucinations de l’IA pourraient avoir un impact bien réel si elles venaient à influencer des décisions importantes ou alimenter la désinformation à grande échelle. Un enjeu crucial à l’heure où ces agents conversationnels s’apprêtent à intégrer de plus en plus de produits et services du quotidien.

Nul doute que Meta, Google et les autres acteurs de l’IA mettront les bouchées doubles pour relever ce défi. Mais il faudra sans doute du temps et de la nuance avant que les chatbots ne sachent démêler le vrai du faux avec le discernement d’un humain. En attendant, mieux vaut garder son esprit critique face à leurs réponses, si impressionnantes soient-elles.

À lire également