Amende De 6 Millions De Dollars Pour Un Arnacoeur Utilisant L’IA

Dans un cas sans précédent, la Federal Communications Commission (FCC) a proposé une amende de 6 millions de dollars à l’encontre d’un escroc qui a utilisé la technologie de clonage vocal par intelligence artificielle pour se faire passer pour le président Biden lors d’une série d’appels robotisés illégaux pendant une élection primaire au New Hampshire. Bien qu’il s’agisse davantage d’une question d’appels automatisés frauduleux que d’IA en soi, l’agence positionne clairement cette action comme un avertissement à d’autres arnaqueurs potentiels utilisant des technologies de pointe.

En janvier dernier, de nombreux électeurs du New Hampshire ont reçu un appel censé être un message du président leur disant de ne pas voter aux prochaines primaires. Il s’agissait bien sûr d’un faux, utilisant un clone vocal de Biden généré par une technologie devenue largement accessible ces dernières années. Si la création d’une fausse voix est possible depuis longtemps, les plateformes d’IA générative ont rendu la chose triviale : des dizaines de services proposent des voix clonées avec peu de restrictions ou de surveillance. Il est assez facile de créer sa propre voix « à la Biden » avec une minute ou deux de ses discours, aisément trouvables en ligne.

Un abus répréhensible de l’IA vocale

Ce que l’on ne peut pas faire en revanche, comme l’ont clairement indiqué la FCC et plusieurs agences de maintien de l’ordre, c’est utiliser ce faux Biden pour supprimer des électeurs, via des appels robotisés qui étaient déjà illégaux. Loyaan Egal, chef du Bureau d’application de la loi de la FCC, a déclaré dans un communiqué de presse :

Nous agirons rapidement et résolument pour garantir que les mauvais acteurs ne puissent pas utiliser les réseaux de télécommunications américains pour faciliter l’utilisation abusive de la technologie d’IA générative afin d’interférer avec les élections, de tromper les consommateurs ou de compromettre des données sensibles.

Le principal auteur de ces actes, le « consultant politique » Steve Kramer, a fait appel aux services douteux de la société Life Corporation (déjà accusée d’appels automatisés illégaux) et du louche opérateur télécom Lingo, alias Americatel, BullsEyeComm, Clear Choice Communications, Excel Telecommunications, Impact Telecom, Matrix Business Technologies, Startec Global Communications, Trinsic Communications, ou encore VarTec Telecom.

Des sanctions nécessaires mais limitées

Kramer est « apparemment » en violation de plusieurs règles, mais aucune procédure pénale n’a encore été engagée contre lui ou ses complices. C’est là une limite du pouvoir de la FCC : elle doit travailler avec les forces de l’ordre locales ou fédérales pour donner du poids à ses déterminations de responsabilité en tant qu’agence experte.

L’amende de 6 millions de dollars est davantage un plafond ou une aspiration. Comme pour la FTC et d’autres, le montant réellement payé est souvent bien moindre pour de nombreuses raisons, mais même ainsi, c’est une somme importante. L’étape suivante est que Kramer réponde aux allégations, bien que des actions distinctes soient menées contre Lingo, ou quel que soit le nom qu’ils se donnent maintenant qu’ils se sont fait prendre une nouvelle fois, ce qui pourrait entraîner des amendes ou la perte de licences.

Vers une meilleure régulation des abus de l’IA

L’utilisation de voix générées par IA dans les appels automatisés a été officiellement déclarée illégale en février, après que le cas ci-dessus ait soulevé la question de savoir si elles comptaient comme « artificielles » – et la FCC a décidé, fort sensément, que oui.

Cette affaire met en lumière les risques d’utilisation malveillante des technologies d’intelligence artificielle, en particulier dans le domaine sensible de la politique et des élections. Elle souligne aussi la nécessité d’un cadre réglementaire robuste pour prévenir et sanctionner les abus, tout en permettant le développement responsable de l’IA.

Des outils comme le clonage vocal ou la génération de deepfakes peuvent avoir des applications légitimes et bénéfiques, dans les domaines créatifs ou pour personnaliser des services par exemple. Mais leur accessibilité croissante augmente aussi les risques de détournement à des fins de désinformation, de fraude ou de manipulation. Un équilibre délicat doit être trouvé entre promotion de l’innovation et protection du public.

Responsabiliser les acteurs de l’IA

Au-delà des arnaqueurs eux-mêmes, une responsabilité incombe aussi aux fournisseurs de services d’IA comme les plateformes de clonage vocal, qui doivent mettre en place des garde-fous et vérifier l’usage fait de leurs outils. Les opérateurs télécom ont également un rôle à jouer pour filtrer les appels malveillants.

Les autorités de régulation comme la FCC devront probablement renforcer leurs moyens de contrôle et de sanction face à la multiplication prévisible de ce type d’abus high-tech. Une coopération internationale sera aussi nécessaire étant donné la nature globale des technologies d’IA.

Une meilleure éducation du public aux risques de manipulation par l’IA, ainsi que le développement d’outils de détection des contenus générés artificiellement, seront d’autres éléments importants pour maintenir la confiance et l’intégrité de nos espaces informationnels et démocratiques à l’ère de l’intelligence artificielle.

L’amende record infligée dans cette affaire envoie un signal fort, mais ce n’est qu’un premier pas. Fournisseurs d’IA, opérateurs, régulateurs et société civile doivent travailler main dans la main pour créer un écosystème numérique à la fois innovant et digne de confiance. La technologie pourra alors tenir ses promesses sans mettre en danger nos valeurs fondamentales.

À lire également