Les algorithmes de recommandation des géants des réseaux sociaux comme TikTok et X (anciennement Twitter) font l’objet d’un examen minutieux quant à leur potentiel impact sur les processus démocratiques. Une récente étude menée par l’ONG Global Witness pointe du doigt un biais politique significatif en faveur de l’extrême droite dans les fils « Pour Vous » de ces plateformes en Allemagne, à l’approche des élections fédérales du dimanche 20 février 2025.
78% de contenu pro-AfD sur TikTok
Les chercheurs ont analysé le contenu présenté à de nouveaux utilisateurs via les feeds triés par algorithme. Résultat : sur TikTok, pas moins de 78% du contenu politique recommandé provenait de comptes soutenant le parti d’extrême droite AfD (Alternative für Deutschland). Un chiffre qui dépasse largement les intentions de vote actuelles du parti, autour de 20%. Sur X, ce taux atteignait 64%.
Plus généralement, les utilisateurs non partisans seraient exposés à du contenu de droite plus de deux fois plus souvent que du contenu de gauche. Même sur Instagram, pourtant jugé moins biaisé, 59% du contenu politique penchait à droite.
Des algorithmes opaques axés sur l’engagement
Ellen Judson, chercheuse chez Global Witness, souligne le manque de transparence des plateformes sur le fonctionnement de leurs systèmes de recommandation. Malgré les preuves de biais, il est difficile de comprendre précisément comment les différents signaux sont pondérés et évalués.
Il semble que ce soit un effet secondaire involontaire d’algorithmes conçus pour maximiser l’engagement des utilisateurs. Quand ces mécanismes destinés à des fins commerciales deviennent les espaces de discussions démocratiques, il y a conflit entre impératifs commerciaux et intérêt public.
– Ellen Judson, Global Witness
Ces résultats font écho à de précédentes études, comme celle de 2021 où Twitter admettait en interne que ses algorithmes amplifiaient plus les contenus de droite que de gauche.
Le rôle troublant d’Elon Musk
La situation est d’autant plus préoccupante sur X, où le propriétaire Elon Musk a ouvertement fait campagne pour l’AfD, twittant des appels à voter pour eux et organisant une interview en direct avec une de leurs dirigeantes. Avec le compte le plus suivi de la plateforme, son influence est considérable.
Face aux accusations de biais, les réseaux sociaux se retranchent souvent derrière l’argument du secret commercial pour ne pas dévoiler les détails de leurs algorithmes. Ils rejettent aussi les résultats des études indépendantes, jugeant la méthodologie non représentative.
Vers plus de transparence avec le Digital Services Act ?
Pour tenter d’y remédier, l’Union Européenne a adopté en 2023 le Digital Services Act (DSA), un cadre réglementaire visant à responsabiliser les grandes plateformes sur les risques systémiques, notamment démocratiques.
- Obligation de transparence sur le fonctionnement des algorithmes
- Proactivité dans l’identification et la réponse aux risques
- Accès des chercheurs aux données pour étudier les impacts
Mais tous les articles ne sont pas encore pleinement en vigueur, en particulier celui permettant aux chercheurs agréés d’accéder aux données non publiques des plateformes. Les premiers rapports risquent aussi de manquer de substance, le temps que les régulateurs affinent leurs exigences.
La Commission Européenne a ouvert des enquêtes sur TikTok, X et Instagram au titre du DSA. Elle est appelée à se saisir des conclusions de Global Witness pour vérifier l’existence de biais politiques et le cas échéant, y remédier. Des amendes allant jusqu’à 6% du chiffre d’affaires mondial sont prévues en cas d’infractions.
Alors qu’une élection majeure se profile en Allemagne, l’influence des algorithmes des réseaux sociaux est plus que jamais sous surveillance. Face aux dérives potentielles, le chemin vers une véritable transparence et redevabilité s’annonce encore long et semé d’embûches. Mais l’enjeu démocratique est de taille.