Royaume-Uni : Vers Un Renforcement De La Régulation Des Plateformes Tech

Alors que des troubles civils alimentés par la désinformation en ligne se propagent au Royaume-Uni, le gouvernement britannique envisage de renforcer son pouvoir de régulation des plateformes technologiques. Suite à plusieurs jours de violents désordres à travers l’Angleterre et l’Irlande du Nord, le Premier ministre Keir Starmer a confirmé qu’une revue de la loi sur la sécurité en ligne (Online Safety Act) serait menée.

Adoptée en septembre 2023 après des années de débats politiques, cette législation impose aux plateformes hébergeant des communications entre utilisateurs, comme les réseaux sociaux et applications de messagerie, de supprimer les contenus illégaux et protéger leurs utilisateurs contre d’autres préjudices tels que les discours de haine. Les sanctions en cas de non-conformité peuvent aller jusqu’à 10% du chiffre d’affaires annuel mondial.

Un examen de la loi jugé nécessaire face aux récents événements

Si le Premier ministre a souligné que les réseaux sociaux ne sont pas une zone de non-droit, comme en témoignent les premières condamnations liées à des publications incitant à la haine en lien avec les troubles, il a reconnu la nécessité d’un examen plus large du rôle des médias sociaux suite à ces événements. Selon le Guardian, cette annonce fait suite aux critiques du maire de Londres Sadiq Khan, jugeant la loi « inadaptée ».

Les violences ont éclaté après qu’une fausse information sur l’identité de l’auteur d’une attaque au couteau ayant coûté la vie à trois jeunes filles à Southport le 30 juillet se soit rapidement propagée en ligne, relayée notamment par des militants d’extrême-droite. Cette désinformation a été largement liée aux troubles secouant le pays ces derniers jours. Une femme a d’ailleurs été arrêtée pour suspicion d’incitation à la haine raciale via de faux posts sur les réseaux sociaux au sujet de l’identité du tueur.

Quelle régulation pour lutter contre la désinformation ?

Si pour l’heure, l’accent est mis sur les poursuites judiciaires des auteurs de messages haineux, la question plus large de la responsabilité des plateformes numériques dans la propagation de la désinformation risque de rester sur le devant de la scène. Alors que la loi sur la sécurité en ligne n’est pas encore pleinement opérationnelle, le régulateur étant en phase de consultation sur les directives d’application, certains estiment qu’il est prématuré de la revoir avant mi-2025 au moins, afin de lui laisser une chance de faire ses preuves.

Néanmoins, le texte a fait l’objet de critiques, pointant une rédaction approximative et l’absence de prise en compte des modèles économiques des plateformes reposant sur l’engagement et l’indignation. Des révisions majeures fin 2022 ont notamment supprimé des clauses ciblant les contenus « légaux mais préjudiciables », là où tombe généralement la désinformation. Si le gouvernement a évoqué des inquiétudes sur l’impact en termes de liberté d’expression, d’autres y ont vu un recul.

Les plateformes grand public, dont Facebook et X, ont des conditions d’utilisation prohibant les contenus susceptibles d’inciter à la violence ou à la haine, mais il n’est pas toujours évident de savoir avec quelle rigueur ces règles sont appliquées.

Quels mécanismes pour une application effective des règles des plateformes ?

Une loi régulant les ressources et processus que les réseaux sociaux doivent mettre en place pourrait les obliger à être plus proactifs pour empêcher la libre propagation de la désinformation toxique. Au niveau européen, l’application du Digital Services Act est déjà scrutée de près, la Commission ayant indiqué que le traitement par X des contenus préjudiciables liés aux troubles au Royaume-Uni pourrait être pris en compte dans l’enquête en cours sur la modération de la désinformation par la plateforme.

  • Une fois la loi sur la sécurité en ligne britannique pleinement en vigueur au printemps 2024, elle pourrait exercer une pression similaire sur l’approche des plus grandes plateformes.
  • Selon le ministère des Sciences, de l’Innovation et de la Technologie, les acteurs majeurs soumis aux exigences les plus strictes devront faire appliquer de manière cohérente leurs propres conditions d’utilisation, y compris lorsque celles-ci interdisent la propagation de fausses informations.

Face à l’ampleur prise par la désinformation en ligne et ses conséquences dans le monde réel, le débat sur la responsabilité et la régulation des géants de la tech ne fait que commencer. Entre liberté d’expression et protection contre les contenus toxiques, les équilibres à trouver sont complexes. Mais les événements récents au Royaume-Uni montrent l’urgence d’agir pour endiguer les effets délétères de la désinformation à grande échelle.

author avatar
MondeTech.fr

À lire également