Avec l’essor des chatbots d’intelligence artificielle comme ChatGPT de OpenAI, Gemini de Google ou encore Grok de X (anciennement Twitter), il est tentant de leur soumettre toutes sortes de questions et de données, y compris sur notre santé. Certains n’hésitent pas à télécharger leurs radios, IRM ou scanners pour obtenir une interprétation de l’IA. Mais attention : partager ses données médicales avec ces chatbots comporte de sérieux risques !
Vos données médicales sont sensibles et protégées
Rappelons d’abord que les données de santé constituent une catégorie particulière d’informations personnelles, qui bénéficient d’une protection renforcée. Aux États-Unis, elles sont notamment couvertes par la loi HIPAA (Health Insurance Portability and Accountability Act). En principe, vous seul pouvez décider de les partager ou non.
Mais ce n’est pas parce que vous en avez le droit que vous devez le faire ! Des experts en sécurité et confidentialité alertent depuis longtemps sur les risques liés au partage de données sensibles avec des systèmes d’IA. Une fois téléchargées, ces données peuvent en effet servir à entraîner les modèles, sans que l’on sache toujours précisément comment et avec qui elles sont partagées.
Les gens ont retrouvé leurs propres dossiers médicaux dans des jeux de données d’entraînement d’IA – ce qui signifie que n’importe qui d’autre peut les trouver, y compris les prestataires de soins, les employeurs potentiels ou les agences gouvernementales.
Les applis grand public échappent à la loi HIPAA
De plus, la plupart des applications grand public comme les chatbots IA ne sont pas soumises à HIPAA. Vos données médicales ne bénéficient donc d’aucune protection une fois partagées. Les entreprises sont libres de les utiliser comme bon leur semble, voire de changer d’avis sur leur usage.
Elon Musk a ainsi récemment encouragé les utilisateurs de X à soumettre leurs images médicales au chatbot maison Grok, reconnaissant que les résultats étaient encore préliminaires mais que le modèle deviendrait « extrêmement bon » avec le temps. Problème : la politique de confidentialité de Grok indique que X partage certaines données personnelles avec un nombre non spécifié de sociétés « liées », sans plus de précisions…
Ce qui est sur Internet y reste pour toujours
Rappelons enfin cette règle d’or : ce qui se retrouve sur Internet n’en disparaît jamais vraiment. Même si les chatbots IA actuels ne font sans doute pas un usage malveillant de vos données médicales, personne ne peut garantir qu’elles ne resurgiront pas un jour dans un autre contexte, potentiellement préjudiciable.
En résumé, avant de céder à la tentation de partager vos radios ou scanners avec un chatbot, réfléchissez-y à deux fois :
- Vos données médicales sont sensibles et méritent une protection particulière
- Les chatbots grand public n’offrent aucune garantie sur l’usage de vos données
- Ce que vous partagez en ligne peut resurgir des années plus tard
La meilleure protection reste encore de garder vos données médicales pour vous et votre médecin. Les chatbots IA ne remplaceront jamais l’expertise d’un vrai professionnel de santé de confiance !