Character AI Invoque Le Premier Amendement Dans Une Poursuite

La plateforme de chatbot Character AI fait face à une poursuite judiciaire déposée par les parents d’un adolescent qui s’est suicidé, prétendument après être devenu dépendant de la technologie de l’entreprise. Mais dans une récente requête en irrecevabilité, les avocats de Character AI affirment que la plateforme est protégée par le premier amendement, tout comme le code informatique.

Les Détails De La Poursuite

En octobre, Megan Garcia a intenté une action en justice contre Character AI devant le tribunal de district américain pour le district central de Floride, division d’Orlando, concernant le décès de son fils, Sewell Setzer III. Selon Garcia, son fils de 14 ans a développé un attachement émotionnel à un chatbot sur Character AI, « Dany », qu’il envoyait constamment des SMS – au point qu’il a commencé à s’éloigner du monde réel.

Suite au décès de Setzer, Character AI a déclaré qu’elle déploierait un certain nombre de nouvelles fonctionnalités de sécurité, notamment une meilleure détection, une meilleure réponse et une meilleure intervention liées aux discussions qui violent ses conditions d’utilisation. Mais Garcia se bat pour des garde-fous supplémentaires, y compris des changements qui pourraient faire perdre aux chatbots de Character AI leur capacité à raconter des histoires et des anecdotes personnelles.

La Défense Du Premier Amendement

Dans la requête en irrecevabilité, les avocats de Character AI affirment que la plateforme est protégée contre toute responsabilité par le premier amendement, tout comme le code informatique. La requête peut ne pas convaincre un juge, et les justifications juridiques de Character AI peuvent changer à mesure que l’affaire progresse. Mais la requête donne peut-être un aperçu des premiers éléments de la défense de Character AI.

Le premier amendement interdit la responsabilité délictuelle à l’encontre des médias et des entreprises technologiques découlant de discours prétendument préjudiciables, y compris les discours aboutissant prétendument à un suicide.

– Extrait du dossier de Character AI

Les avocats de Character AI affirment également que l’intention réelle de Garcia est de « fermer » Character AI et de susciter une législation réglementant des technologies comme celle-ci. Si les plaignants devaient avoir gain de cause, cela aurait un « effet paralysant » sur Character AI et sur l’ensemble de l’industrie naissante de l’IA générative, selon les avocats de la plateforme.

L’Incertitude Juridique Autour De L’IA

La requête n’aborde pas la question de savoir si Character AI pourrait être tenu responsable en vertu de la section 230 de la loi sur la décence des communications, la loi fédérale de sphère de sécurité qui protège les médias sociaux et autres plateformes en ligne contre la responsabilité du contenu tiers. Les auteurs de la loi ont laissé entendre que la section 230 ne protège pas la production de l’IA comme les chatbots de Character AI, mais il s’agit loin d’être une question juridique réglée.

Le procès, qui nomme également la société mère de Character AI, Alphabet, comme défendeur, n’est qu’un des nombreux procès auxquels Character AI est confronté concernant la façon dont les mineurs interagissent avec le contenu généré par l’IA sur sa plateforme. D’autres poursuites allèguent que Character AI a exposé un enfant de 9 ans à du « contenu hypersexualisé » et a encouragé l’automutilation chez un utilisateur de 17 ans.

L’Industrie Des Applications De Compagnons IA

Character AI fait partie d’une industrie en plein essor d’applications de compagnons IA – dont les effets sur la santé mentale sont largement inexplorés. Certains experts ont exprimé des inquiétudes quant au fait que ces applications pourraient exacerber les sentiments de solitude et d’anxiété.

Character AI, qui a été fondée en 2021 par le chercheur en IA de Google Noam Shazeer, et pour laquelle Google aurait payé 2,7 milliards de dollars pour un « acqui-embauche inversé », a affirmé qu’elle continue de prendre des mesures pour améliorer la sécurité et la modération. En décembre, la société a déployé de nouveaux outils de sécurité, un modèle d’IA distinct pour les adolescents, des blocages de contenu sensible et des avis d’exclusion de responsabilité plus visibles informant les utilisateurs que ses personnages d’IA ne sont pas de vraies personnes.

Changements De Personnel Chez Character AI

Character AI a connu un certain nombre de changements de personnel après que Shazeer et l’autre co-fondateur de l’entreprise, Daniel De Freitas, soient partis pour Google. La plateforme a embauché une ancienne cadre de YouTube, Erin Teague, comme directrice des produits, et a nommé Dominic Perella, qui était le conseiller général de Character AI, PDG par intérim.

Résumé De La Situation

  • Character AI fait face à une poursuite d’une mère dont le fils s’est suicidé après être devenu dépendant à la plateforme
  • La plateforme invoque une protection du premier amendement dans une requête en irrecevabilité
  • La loi autour de la responsabilité de l’IA générative reste incertaine
  • Character AI fait partie d’une industrie grandissante d’applications de compagnons IA aux effets peu étudiés sur la santé mentale

Ce cas soulève d’importantes questions sur la responsabilité et la réglementation des plateformes d’IA comme Character AI, alors que la technologie de l’IA générative continue de se développer et de s’intégrer dans notre vie quotidienne. Il sera intéressant de voir comment ce procès et d’autres comme lui façonneront le paysage juridique autour de l’IA dans les années à venir.

À lire également