Imaginez un utilisateur inquiet qui tape dans Google une question sur ses analyses de sang pour le foie, espérant une réponse rapide et fiable. Au lieu de cela, il reçoit un résumé IA qui présente des plages de valeurs « normales » sans nuance, ignorant des facteurs cruciaux comme l’âge, le sexe ou l’origine ethnique. Ce scénario, qui pourrait sembler anodin, devient alarmant quand on sait que des patients atteints de maladies graves pourraient se croire en bonne santé et reporter une consultation médicale vitale. C’est précisément ce que l’enquête du Guardian a mis en lumière début 2026, poussant Google à réagir promptement.
Le contexte des AI Overviews chez Google
Les **AI Overviews**, lancés par Google en 2024 et déployés largement depuis, représentent une évolution majeure de la recherche en ligne. Au lieu de simples liens, l’IA générative fournit un résumé synthétique en haut des résultats, avec des sources citées. L’objectif affiché : accélérer l’accès à l’information et améliorer l’expérience utilisateur. Pour les startups et les marketeurs digitaux, cela change la donne en termes de visibilité SEO, car ces résumés captent une grande partie de l’attention dès les premières secondes.
Cependant, cette fonctionnalité repose sur des modèles entraînés sur d’immenses volumes de données web, incluant des sites de qualité variable. Google affirme que les Overviews n’apparaissent que lorsque la confiance dans la qualité est élevée, mais les faits montrent des failles, particulièrement sur des sujets sensibles comme la santé.
L’enquête du Guardian et les cas concrets de biais médicaux
L’enquête publiée par The Guardian en janvier 2026 a révélé des exemples concrets où les AI Overviews fournissaient des informations incomplètes ou erronées. Le cas le plus emblématique concerne les requêtes sur les plages normales des tests hépatiques (liver function tests ou LFT).
Pour des questions comme « quelle est la plage normale pour les tests sanguins du foie ? », l’IA affichait des tableaux de valeurs (pour des enzymes comme ALT, AST, ALP) extraits de sources comme un hôpital indien, sans contextualiser. Or, ces plages varient significativement selon :
- l’âge du patient
- le sexe
- l’ethnicité
- la nationalité
- les médicaments pris
- les conditions sous-jacentes
Cette omission pouvait mener à une **fausse rassurance** : un patient avec une maladie hépatique grave pourrait voir ses résultats dans la plage « normale » affichée et ne pas consulter. Vanessa Hebditch, directrice de la communication à la British Liver Trust, a qualifié cela de dangereux.
« C’est dangereux car cela signifie que certaines personnes atteintes de maladies graves du foie pourraient penser avoir un résultat normal et ne pas se présenter à un rendez-vous de suivi médical. »
– Vanessa Hebditch, British Liver Trust
De plus, l’IA ne mentionnait pas qu’un résultat « normal » ne exclut pas une pathologie sérieuse nécessitant des examens complémentaires. D’autres cas incluaient des conseils alimentaires inappropriés pour des patients atteints de cancer du pancréas, recommandant d’éviter les graisses – ce qui contredit les recommandations médicales pour maintenir un apport calorique suffisant.
La réaction rapide de Google : suppressions ciblées
Suite à la publication de l’enquête, Google a supprimé les AI Overviews pour les requêtes précises comme « what is the normal range for liver blood tests » et « what is the normal range for liver function tests ». Des tests effectués peu après confirmaient l’absence de ces résumés IA, les résultats renvoyant directement vers des sources web classiques, dont parfois l’article du Guardian lui-même.
Cependant, des variantes comme « lft reference range » ou « lft test reference range » déclenchaient encore les Overviews initialement, montrant les limites d’une approche par blocage de mots-clés exacts. Google a indiqué travailler sur des améliorations globales sans commenter les suppressions individuelles.
« Nous ne commentons pas les suppressions individuelles dans Search. Dans les cas où les AI Overviews manquent de contexte, nous travaillons à des améliorations larges. »
– Porte-parole de Google
Une équipe interne de cliniciens a revu les cas signalés et jugé que beaucoup d’informations n’étaient pas inexactes, mais soutenues par des sites de qualité. Malgré cela, la prudence l’a emporté pour ces requêtes sensibles.
Les implications pour le marketing digital et les startups IA
Pour les professionnels du marketing et des startups tech, cet épisode est un rappel puissant des risques liés à l’IA générative. Les **AI Overviews** concurrencent directement les contenus SEO traditionnels : si un résumé IA capte le trafic, les sites perdent des visites. Mais quand l’IA se trompe sur des sujets critiques, cela érode la confiance globale dans les outils de recherche.
Les marketeurs doivent repenser leurs stratégies :
- Créer du contenu ultra-spécialisé et sourcé pour résister aux résumés IA
- Utiliser des formats riches (vidéos, infographies) moins facilement synthétisables
- Surveiller les évolutions des features comme AI Mode (alternative proposée par Google)
- Intégrer des disclaimers et appels à l’expertise humaine dans les contenus santé/tech
Du côté des startups IA, cela pose la question de la responsabilité : comment équilibrer innovation rapide et sécurité ? Les régulateurs pourraient s’intéresser de près à ces cas, impactant le développement de produits B2C.
Les limites persistantes de l’IA en santé et les alternatives
Malgré les progrès, l’IA générative peine sur les domaines nécessitant une expertise nuancée. La santé est un exemple parfait : les guidelines médicales évoluent, les contextes individuels priment, et les hallucinations restent un risque. Vanessa Hebditch a souligné que supprimer quelques requêtes ne résout pas le problème systémique.
« C’est une excellente nouvelle, mais notre plus grande préoccupation est que cela ne traite pas le problème plus large des AI Overviews en santé. »
– Vanessa Hebditch, British Liver Trust
Pour les entrepreneurs, cela ouvre des opportunités : outils IA spécialisés en santé avec validation humaine, plateformes de vérification de faits, ou solutions SEO adaptées aux ères post-AI Overviews.
Perspectives futures pour Google et l’écosystème tech
Google continue d’améliorer ses modèles santé-spécifiques, mais les incidents répétés montrent que la route est longue. Les marketeurs doivent s’adapter : prioriser l’autorité E-E-A-T, diversifier les sources de trafic, et explorer des alternatives comme les chatbots spécialisés.
Cet événement de janvier 2026 marque un tournant pour l’IA dans le search : innovation vs responsabilité. Les acteurs du business digital qui intègrent ces leçons seront mieux positionnés.






