L’essor fulgurant de l’intelligence artificielle ces dernières années a suscité de vives inquiétudes quant à ses potentiels risques et dérives. Face à cela, de nombreux législateurs ont tenté de mettre en place des réglementations pour encadrer son développement. Mais selon Martin Casado, associé chez le célèbre fonds de capital-risque Andreessen Horowitz (a16z), la plupart de ces tentatives se trompent complètement de cible.
Une approche déconnectée des réalités technologiques
Lors d’une intervention remarquée au TechCrunch Disrupt 2024, Martin Casado a pointé du doigt les lacunes de nombre de ces projets de loi :
Le problème avec la plupart des tentatives de réglementer l’IA jusqu’à présent, c’est que les législateurs se concentrent sur une expérience future mythique de l’IA, au lieu de vraiment comprendre les nouveaux risques que l’IA introduit réellement.
Martin Casado, Andreessen Horowitz
Selon lui, plutôt que d’essayer d’anticiper des scénarios dignes de la science-fiction, il faudrait se concentrer sur les enjeux concrets et actuels soulevés par ces technologies. Des enjeux que les législateurs peinent à appréhender dans toute leur complexité :
Avez-vous vu les définitions de l’IA dans ces politiques ? Nous ne pouvons même pas la définir.
Martin Casado, Andreessen Horowitz
L’exemple du projet de loi californien SB 1047
Pour illustrer son propos, Martin Casado a pris l’exemple du projet de loi californien SB 1047, qui visait à imposer un « kill switch » (interrupteur d’arrêt d’urgence) dans les super modèles d’IA. Ce texte, finalement rejeté par le gouverneur Gavin Newsom, a suscité une levée de boucliers dans la Silicon Valley.
Selon ses détracteurs, dont Martin Casado, le projet était tellement mal rédigé qu’au lieu de nous protéger d’un hypothétique monstre IA du futur, il aurait surtout semé la confusion et entravé le dynamisme de la scène IA californienne :
J’entends régulièrement des fondateurs hésiter à s’installer ici à cause de ce que cela signale sur l’attitude de la Californie vis-à-vis de l’IA – que nous préférons une mauvaise législation basée sur des préoccupations de science-fiction plutôt que sur des risques tangibles.
Martin Casado, Andreessen Horowitz
Mieux comprendre les risques spécifiques de l’IA
Bien qu’opposé à ce projet de loi, Martin Casado ne nie pas pour autant la nécessité de réguler l’IA. Mais pour lui, cela doit se faire de manière éclairée et proportionnée, en se fondant sur une analyse fine des risques :
Il faut avoir une notion de risque marginal qui soit différente. En quoi l’IA d’aujourd’hui est-elle différente de quelqu’un qui utilise Google ? En quoi est-elle différente de quelqu’un qui utilise simplement Internet ? Si on a un modèle de cette différence, on a une notion de risque marginal, et alors on peut appliquer des politiques qui répondent à ce risque marginal.
Martin Casado, Andreessen Horowitz
Plutôt que de partir de zéro, il plaide pour s’appuyer sur les cadres réglementaires existants, fruits de décennies d’expérience :
Il existe aujourd’hui un régime réglementaire robuste qui a été développé sur 30 ans, et il est bien équipé pour élaborer de nouvelles politiques pour l’IA et d’autres technologies.
Martin Casado, Andreessen Horowitz
Enfin, il met en garde contre la tentation de vouloir régler les problèmes posés par les technologies passées en réglementant l’IA :
Si on s’est trompé sur les réseaux sociaux, on ne peut pas réparer ça en le mettant sur l’IA. […] Allons plutôt régler ça dans le social.
Martin Casado, Andreessen Horowitz
Un débat crucial pour l’avenir de l’IA
Les propos de Martin Casado résument bien les enjeux du débat sur la régulation de l’IA. Si la nécessité d’un encadrement fait consensus, la manière d’y parvenir divise. Entre ceux qui prônent une approche de précaution maximale quitte à freiner l’innovation, et ceux qui défendent une régulation au cas par cas pour ne pas entraver son potentiel, le chemin sera long avant de trouver le bon équilibre.
Une chose est sûre : compte tenu des bouleversements que l’IA promet d’apporter, ces questions seront au cœur des débats dans les années à venir. Et au vu des sommes colossales investies par des acteurs comme Andreessen Horowitz, qui a levé 1,25 milliard de dollars pour son fonds dédié aux infrastructures et à l’IA, on peut parier que la voix de la Silicon Valley pèsera lourd dans les discussions.
- Une régulation de l’IA est nécessaire mais doit se faire de manière éclairée et proportionnée
- Il faut se concentrer sur les risques réels et actuels plutôt qu’anticiper des scénarios de science-fiction
- S’appuyer sur les cadres réglementaires existants plutôt que de partir de zéro
- Ne pas entraver l’innovation et le potentiel de l’IA par des réglementations trop restrictives