OpenAI Accorde un Accès Anticipé à Son Prochain Modèle à L’institut Américain de Sécurité en IA

Dans une annonce surprenante tard jeudi soir, le PDG d’OpenAI Sam Altman a révélé que la société travaille avec l’Institut américain de sécurité en IA, un organisme gouvernemental fédéral visant à évaluer et gérer les risques des plateformes d’IA, sur un accord pour fournir un accès anticipé à son prochain grand modèle d’IA générative pour des tests de sécurité.

Un effort pour contrer les critiques

Cette annonce, bien que légère en détails, semble être destinée à contrer le récit selon lequel OpenAI aurait dépriorisé le travail sur la sécurité de l’IA dans la poursuite de technologies d’IA générative plus puissantes et capables. En mai, OpenAI a effectivement dissous une unité travaillant sur le problème du développement de contrôles pour empêcher les systèmes d’IA « superintelligents » de devenir incontrôlables.

Des reportages ont suggéré qu’OpenAI avait mis de côté les recherches sur la sécurité de l’équipe au profit du lancement de nouveaux produits, ce qui a finalement conduit à la démission des deux co-responsables de l’équipe, Jan Leike (qui dirige maintenant la recherche sur la sécurité chez la startup d’IA Anthropic) et le cofondateur d’OpenAI Ilya Sutskever (qui a lancé sa propre entreprise d’IA axée sur la sécurité, Safe Superintelligence Inc.).

Des promesses de changement

En réponse à un nombre croissant de critiques, OpenAI a déclaré qu’elle éliminerait ses clauses restrictives de non-dénigrement qui décourageaient implicitement les lanceurs d’alerte et créerait une commission de sécurité, ainsi que consacrerait 20% de son calcul à la recherche sur la sécurité. Altman a réaffirmé ces engagements en mai.

Nous sommes déterminés à mettre en œuvre des protocoles de sécurité rigoureux à chaque étape de notre processus.

– Jason Kwon, directeur de la stratégie d’OpenAI, dans une lettre au Sénat

Un timing suspect

Le timing de l’accord d’OpenAI avec l’Institut américain de sécurité en IA semble un peu suspect à la lumière de l’approbation par la société cette semaine de la Future of Innovation Act, un projet de loi du Sénat qui autoriserait l’Institut de sécurité en tant qu’organisme exécutif établissant des normes et des directives pour les modèles d’IA.

Ensemble, ces mouvements pourraient être perçus comme une tentative de capture réglementaire – ou du moins comme une exercice d’influence d’OpenAI sur l’élaboration des politiques d’IA au niveau fédéral.

Une influence croissante sur la réglementation

Altman fait partie du conseil consultatif sur la sécurité et la sûreté de l’IA du département de la Sécurité intérieure des États-Unis, qui fournit des recommandations pour le « développement et le déploiement sûrs et sécurisés de l’IA » dans les infrastructures critiques des États-Unis.

De plus, OpenAI a considérablement augmenté ses dépenses de lobbying fédéral cette année, dépensant 800 000 dollars au cours des six premiers mois de 2024 contre 260 000 dollars pour l’ensemble de 2023.

Un consortium de grandes entreprises technologiques

L’Institut américain de sécurité en IA, hébergé au sein du National Institute of Standards and Technology du département du Commerce, consulte un consortium d’entreprises qui comprend Anthropic, ainsi que de grandes entreprises technologiques comme Google, Microsoft, Meta, Apple, Amazon et Nvidia.

Ce groupe industriel est chargé de travailler sur les actions décrites dans le décret sur l’IA du président Joe Biden d’octobre, notamment l’élaboration de lignes directrices pour le red-teaming de l’IA, les évaluations des capacités, la gestion des risques, la sécurité et le filigranage du contenu synthétique.

  • OpenAI collabore avec l’Institut américain de sécurité en IA pour fournir un accès anticipé à son prochain modèle d’IA générative
  • Cette démarche vise à contrer les critiques sur la dé-priorisation de la sécurité de l’IA par OpenAI
  • Le timing coïncide avec le soutien d’OpenAI à une loi autorisant l’Institut de sécurité, soulevant des questions d’influence

Il reste à voir si ces efforts d’OpenAI pour s’engager avec les régulateurs et façonner la politique d’IA rassureront les critiques sur son engagement envers le développement responsable de l’IA. Mais une chose est claire : alors que la course à l’IA générative s’intensifie, l’influence d’OpenAI sur la politique publique ne fait que croître.

author avatar
MondeTech.fr

À lire également