IA et Élections : Une Conduite Mitigée des Chatbots

En cette journée d’élections, alors que les Américains se rendent aux urnes, les géants de l’intelligence artificielle font preuve d’une prudence de mise. La plupart des grands chatbots d’IA, comme ChatGPT d’OpenAI et Gemini de Google, refusent sciemment de répondre aux questions sur les résultats des élections présidentielles américaines. Une décision responsable visant à éviter la propagation d’informations erronées ou prématurées. Cependant, un acteur fait exception : Grok, le chatbot intégré à X (anciennement Twitter), n’hésite pas à avancer des affirmations sur les vainqueurs dans des États clés, et ce malgré le dépouillement toujours en cours.

Grok, le mouton noir parmi les IA

Interrogé par TechCrunch en début de soirée sur la côte Est, Grok a parfois répondu de manière catégorique que « Donald Trump a remporté l’élection de 2024 dans l’Ohio » ou encore en Caroline du Nord, alors même que le décompte des voix était loin d’être terminé. Des affirmations factuellement fausses donc, que Grok a pourtant présentées comme des certitudes, en s’appuyant sur « les informations disponibles via les recherches Web et les publications sur les réseaux sociaux ».

L’IA hallucine sur l’issue des scénarios inédits et ne comprend pas que les résultats passés ne déterminent pas ceux à venir.

Un problème de cohérence et de sources

D’après les tests menés par TechCrunch, les réponses fournies par Grok manquent cruellement de cohérence. Selon la formulation exacte de la question, le chatbot oscille entre l’affirmation erronée d’une victoire de Trump et l’aveu plus honnête que le scrutin est toujours en cours. La source de ces informations trompeuses semble résider dans des tweets relatant des élections antérieures ou formulés de manière ambiguë.

Comme toute IA générative, Grok peine à prédire l’issue de situations inédites telles qu’une élection serrée. Il ne «comprend» pas que les résultats passés ne sont pas nécessairement pertinents pour un nouveau scrutin.

Une conduite exemplaire des autres IA

À l’inverse, les autres grands chatbots font preuve d’une grande prudence :

  • ChatGPT d’OpenAI renvoie les utilisateurs vers des sources fiables comme l’Associated Press ou Reuters
  • Meta AI et Perplexity donnent des réponses justes, en précisant que le dépouillement est en cours
  • Même pendant le scrutin, ces IA se gardent d’annoncer un vainqueur de manière prématurée

Déjà des précédents pour Grok

Ce n’est malheureusement pas la première fois que Grok se retrouve accusé de propager de la désinformation électorale. En août dernier, il avait laissé entendre à tort que Kamala Harris, candidate démocrate à la présidence, n’était pas éligible dans certains États en raison du dépassement des délais d’inscription sur les bulletins de vote. Une affirmation erronée qui s’était répandue comme une traînée de poudre, touchant des millions d’utilisateurs avant d’être corrigée.

L’IA face au défi de l’intégrité électorale

Ces dérapages mettent en lumière les immenses défis que représentent la désinformation et les « fake news » pour les systèmes d’IA conversationnelle. Malgré des progrès fulgurants, ces technologies peinent encore à faire la part des choses entre faits avérés, rumeurs et pures spéculations, surtout dans des situations aussi sensibles et évolutives qu’une élection.

La retenue des grands acteurs comme OpenAI et Google montre qu’une conduite éthique et responsable est possible.

Pourtant, l’attitude prudente adoptée par la majorité des chatbots prouve qu’il est possible et souhaitable pour ces outils de faire preuve d’éthique et de responsabilité. En s’astreignant à des règles strictes, en orientant les utilisateurs vers des sources fiables et en admettant les limites de leurs connaissances, les IA peuvent contribuer à préserver l’intégrité du processus démocratique. Un enjeu crucial à l’heure où leur influence ne cesse de croître dans notre consommation d’informations au quotidien.

À lire également