L’essor fulgurant des chatbots d’intelligence artificielle (IA) promet un accès instantané à l’information. Mais cette promesse est-elle tenue ? Une enquête de la BBC met en lumière les failles troublantes de ces outils dans la synthèse de l’actualité. Des erreurs factuelles en série, une confusion entre faits et opinions… Le constat est alarmant. Décryptage d’un phénomène qui soulève de sérieux enjeux pour le journalisme et la fiabilité de l’information à l’ère de l’IA.
ChatGPT, Gemini, Copilot, Perplexity AI : des chatbots IA sous le feu des critiques
L’enquête de la BBC a passé au crible quatre des principaux chatbots IA : ChatGPT d’OpenAI, Copilot de Microsoft, Gemini de Google et Perplexity AI. Le verdict est sans appel : plus de la moitié des résumés d’actualité générés présentaient des problèmes significatifs, allant de simples imprécisions à de flagrantes fausses informations.
Parmi les erreurs les plus frappantes, plusieurs IA ont affirmé que Rishi Sunak et Nicola Sturgeon étaient toujours en poste, ignorant leurs démissions respectives en 2024 et 2023. Des bourdes qui risquent de désinformer les utilisateurs et de porter atteinte à la crédibilité des médias relayant ces synthèses.
Quand l’IA brouille les pistes entre faits et opinions
Au-delà des inexactitudes factuelles, l’étude révèle un écueil plus pernicieux : la confusion entre éléments factuels et prises de position. Selon Deborah Turness, directrice générale de BBC News, les chatbots ont fréquemment amalgamé actualités récentes et archives dépassées, tissant une narration trouble qui mélange les époques.
Plus grave encore, certaines citations de la BBC ont été modifiées ou tronquées. Perplexity AI a notamment déformé des informations sur le Moyen-Orient, imputant des actions aux mauvais pays et dénaturant la tonalité des événements relatés. Des approximations lourdes de conséquences sur des questions géopolitiques sensibles.
La BBC appelle les géants de la tech à une collaboration étroite avec les médias pour garantir une information plus fiable via les chatbots IA.
Vers un nécessaire cadre de coopération médias-tech
Face à ces dérives, les entreprises technologiques tentent de minimiser la portée de l’enquête tout en reconnaissant le besoin d’améliorations. OpenAI dit travailler activement avec ses partenaires pour :
- Renforcer l’exactitude des citations
- Améliorer la cohérence des résumés
- Permettre aux éditeurs de mieux contrôler l’usage de leurs contenus via le fichier robots.txt
Mais ces mesures suffiront-elles ? Pour Deborah Turness, seule une coopération étroite entre médias, régulateurs et acteurs technologiques permettra d’éviter de nouvelles dérives. Elle plaide pour un cadre où les outils d’IA seraient non seulement plus précis, mais aussi plus respectueux du contexte journalistique.
Transparence et reprise en main des contenus : les clés d’une IA journalistique responsable ?
Pete Archer, directeur du programme Générative AI à la BBC, insiste sur la nécessité pour les éditeurs de reprendre le contrôle de leurs contenus. Il exhorte les géants de la tech à davantage de transparence sur :
- L’ampleur des erreurs commises
- Les mécanismes utilisés pour produire les résumés
Les révélations de la BBC sonnent comme un électrochoc pour le monde des médias et de la tech. Elles mettent en lumière les défis éthiques et démocratiques posés par l’essor des chatbots IA dans le champ de l’information. À l’heure où ces outils façonnent de plus en plus notre accès à l’actualité, il est urgent d’ouvrir le débat sur leur fiabilité et leur responsabilité. L’avenir du journalisme à l’ère de l’intelligence artificielle en dépend.