Dans un développement surprenant, X, la société de médias sociaux récemment acquise par le milliardaire Elon Musk, a intenté une action en justice pour bloquer une nouvelle loi californienne visant à lutter contre les deepfakes. La loi AB 2655, également connue sous le nom de « Defending Democracy From Deepfake Deception Act of 2024 », exige que les grandes plateformes en ligne suppriment ou étiquettent les deepfakes d’IA liés aux élections. Cependant, X affirme que cette législation conduira à une censure généralisée du discours politique.
Le coeur du problème : la liberté d’expression vs la désinformation
Selon la plainte déposée par X devant un tribunal fédéral de Sacramento, il existe une longue tradition de fortes protections du Premier amendement pour les discours critiques envers les responsables gouvernementaux et les candidats à des fonctions publiques. Cela inclut une tolérance pour les discours potentiellement faux faits dans le contexte de telles critiques. En d’autres termes, X estime que la loi AB 2655 empiète sur le droit fondamental à la liberté d’expression, même si cela implique la diffusion de fausses informations.
D’un autre côté, les partisans de la loi soutiennent qu’elle est nécessaire pour protéger l’intégrité des élections et empêcher la propagation de la désinformation. Les deepfakes, qui sont des médias générés par l’IA qui font apparaître des personnes comme disant ou faisant des choses qu’elles n’ont pas réellement dites ou faites, peuvent être utilisés pour tromper et manipuler les électeurs. En exigeant que les plateformes étiquettent ou suppriment ces contenus, la loi vise à aider les citoyens à faire la distinction entre ce qui est réel et ce qui est fabriqué.
Les exigences onéreuses de la loi pour les plateformes
Au-delà des inquiétudes concernant la liberté d’expression, X considère également que la loi AB 2655 impose d’autres exigences lourdes aux plateformes, notamment :
- L’établissement de canaux pour signaler les deepfakes politiques
- Un mécanisme permettant aux candidats et aux élus de demander une injonction si une plateforme ne respecte pas la loi
Pour une entreprise comme X, qui compte des centaines de millions d’utilisateurs générant un volume massif de contenu, la mise en oeuvre de ces exigences pourrait s’avérer extrêmement difficile et coûteuse. Cela soulève des questions quant à la capacité des plateformes à se conformer à la loi sans entraver considérablement leur fonctionnement.
Le précédent de la loi californienne sur les deepfakes de campagne
Le procès intenté par X intervient quelques semaines seulement après qu’un juge fédéral a temporairement bloqué une loi californienne connexe interdisant les publicités de campagne trompeuses en ligne utilisant des deepfakes. Cette décision suggère qu’il pourrait y avoir un précédent pour les arguments de X concernant la liberté d’expression.
L’utilisation créative de la technologie n’est pas une invitation à une réglementation créative qui contourne le Premier amendement.
– Extrait de la décision du juge bloquant la loi sur les deepfakes de campagne
Cependant, les défenseurs de ces lois soutiendraient probablement que les élections sont une circonstance unique où l’intérêt de l’État à prévenir la tromperie l’emporte sur les préoccupations relatives à la liberté d’expression. Après tout, le droit de vote est tout aussi fondamental, et les électeurs ont besoin d’informations précises pour prendre des décisions éclairées.
Un débat qui ne fait que commencer
Alors que l’IA continue de progresser à un rythme rapide, les problèmes mis en évidence par le procès de X ne feront que devenir de plus en plus pressants. Les législateurs du monde entier sont confrontés au défi de savoir comment réglementer les nouvelles technologies sans compromettre des valeurs essentielles comme la liberté d’expression. Les entreprises technologiques, quant à elles, doivent trouver un équilibre entre la promotion de l’innovation et la responsabilité de leurs impacts sociaux.
Le résultat du procès de X servira certainement de test décisif pour les futures lois sur les deepfakes et l’IA. Mais quelle que soit l’issue, une chose est claire : le débat sur la façon de gérer ces puissantes technologies ne fait que commencer. Alors que la course aux armements de l’IA s’accélère, trouver le bon équilibre réglementaire sera essentiel pour protéger notre discours démocratique tout en tirant parti du potentiel de transformation de l’IA.