Les Avocats De La Sécurité De L’IA Appellent Les Fondateurs À Ralentir

Imaginez un monde où l’intelligence artificielle (IA) envahit tous les aspects de notre vie, des chatbots émotionnellement engageants aux plateformes sociales qui s’approprient le travail des artistes. C’est la réalité dans laquelle nous vivons aujourd’hui, et les enjeux n’ont jamais été aussi élevés. Lors de la conférence TechCrunch Disrupt 2024, trois avocats de la sécurité de l’IA ont lancé un appel pressant aux fondateurs de startups : il est temps de ralentir et de réfléchir aux conséquences à long terme de leurs produits.

L’urgence de repenser notre approche de l’IA

Sarah Myers West, co-directrice exécutive de l’AI Now Institute, a exprimé son inquiétude quant à la précipitation actuelle pour lancer des produits d’IA sur le marché, sans prendre en compte leur impact sur le monde dans lequel nous voulons vivre. Elle souligne que nous sommes à un point d’inflexion où d’énormes ressources sont investies dans ce domaine, mais que nous devons nous poser les bonnes questions sur l’héritage que nous laissons.

Nous construisons quelque chose qui a beaucoup de pouvoir et la capacité d’avoir un impact réel sur la vie des gens.

– Jingna Zhang, fondatrice de Cara

Les récents événements tragiques, comme le suicide d’un enfant potentiellement lié à son interaction avec un chatbot, illustrent les enjeux profonds du déploiement rapide des technologies basées sur l’IA. Mais au-delà de ces questions de vie ou de mort, les défis sont nombreux :

  • La désinformation et la manipulation de l’opinion publique
  • Le non-respect des droits d’auteur et de la propriété intellectuelle des artistes
  • Les deepfakes et l’utilisation non consensuelle de la voix ou de l’image

Vers une IA plus responsable et éthique

Pour Aleksandra Pedraszewska, responsable de la sécurité chez ElevenLabs, une entreprise de clonage vocal par IA, il est essentiel d’adopter une approche proactive pour prévenir les dérives. Cela passe notamment par une relation étroite avec la communauté des utilisateurs et par la mise en place de garde-fous dès la conception des produits.

Nous ne pouvons pas simplement osciller entre deux extrêmes, l’un étant totalement anti-IA et anti-IA générative, et l’autre essayant de persuader une réglementation zéro de l’espace. Je pense que nous devons trouver un juste milieu en matière de réglementation.

– Aleksandra Pedraszewska, ElevenLabs

Les intervenants s’accordent sur la nécessité d’une approche plus mesurée et réfléchie du développement de l’IA. Cela implique notamment de :

  • Tester rigoureusement les modèles pour identifier les comportements indésirables et les conséquences involontaires
  • Collaborer avec les régulateurs pour établir un cadre juridique et éthique adapté
  • Impliquer les parties prenantes, notamment les utilisateurs et les créateurs, dans le processus de développement
  • Faire preuve de transparence sur le fonctionnement des algorithmes et leurs limites

L’avenir de l’IA en question

La course effrénée à l’innovation dans le domaine de l’IA soulève de nombreuses interrogations sur l’avenir de notre société. Entre les promesses d’un monde meilleur et les risques de dérive, il est urgent de trouver un équilibre. Les avocats de la sécurité de l’IA lancent un appel à la prudence et à la responsabilité, pour que les formidables avancées technologiques se fassent au service de l’humain et non à son détriment.

Il en va de notre capacité à façonner un futur désirable, où l’IA serait un outil au service du bien commun et non une menace pour nos libertés et notre dignité. La balle est dans le camp des fondateurs de startups, des chercheurs et des décideurs politiques. À eux de relever le défi d’une IA éthique et responsable, pour que nous puissions en récolter les fruits sans en subir les dérives.

À lire également