OpenAI Crée un Comité de Sécurité pour Guider le Développement de l’IA Générale

L’entreprise d’intelligence artificielle OpenAI, connue pour ses modèles de langage puissants comme ChatGPT et GPT-4, vient d’annoncer une nouvelle étape cruciale dans son développement. Face aux inquiétudes grandissantes sur les risques potentiels de l’IA avancée, la start-up a décidé de former un comité dédié à la sûreté et la sécurité de ses systèmes. Cette initiative intervient alors qu’OpenAI révèle travailler sur son « prochain modèle de pointe », qui devrait les rapprocher encore de l’intelligence artificielle générale (IAG), capable de réaliser les mêmes tâches qu’un être humain.

Un comité pour guider les décisions critiques

Le nouveau comité de sécurité d’OpenAI aura pour mission de conseiller le conseil d’administration sur les décisions importantes à prendre concernant la sûreté et la sécurité des projets et opérations de l’entreprise. Composé de membres du conseil, de cadres d’OpenAI dont le PDG Sam Altman, et d’experts externes, il disposera de 90 jours pour évaluer la technologie actuelle et fournir un rapport. Les recommandations adoptées seront ensuite partagées publiquement, dans un souci de transparence.

OpenAI a récemment commencé à former son prochain modèle de pointe, et nous prévoyons que les systèmes qui en résulteront nous amèneront au niveau suivant de capacités sur la voie de l’intelligence artificielle générale.

– Communiqué d’OpenAI

Des remous internes sur le rythme de développement

Cette annonce du comité de sécurité fait suite à plusieurs remous en interne chez OpenAI. La start-up a récemment dissous son équipe dédiée au « super-alignement », une discipline visant à garantir que les systèmes d’IA très avancés agissent dans l’intérêt de l’humanité. Des désaccords profonds existaient entre le cofondateur et chercheur Ilya Sutskever, partisan d’une approche prudente, et le PDG Sam Altman, pressé d’aller de l’avant. Sutskever a fini par quitter l’entreprise, entraînant d’autres départs.

Vers une superintelligence qui inquiète

Sam Altman ne cache pas son objectif ultime de développer une superintelligence, une IA dépassant de loin les capacités humaines. Mais alors que l’IA générative évolue à vitesse grand V, cette ambition suscite de plus en plus d’inquiétudes. Des anciens membres du conseil d’administration estiment que les récents remous n’augurent rien de bon pour la capacité d’OpenAI à s’autoréguler efficacement.

Avec son dernier modèle GPT-4o capable d’écouter, regarder et parler, l’entreprise semble sur le point de franchir un nouveau cap. Reste à savoir si son comité de sécurité nouvellement formé saura poser les garde-fous nécessaires pour un développement responsable de l’IA, alors que la course à la superintelligence s’accélère de jour en jour. L’avenir de l’humanité pourrait en dépendre.

  • OpenAI crée un comité de sûreté et de sécurité pour guider les décisions sur ses projets d’IA
  • L’entreprise travaille sur un nouveau modèle de pointe pour se rapprocher de l’IA générale
  • Des désaccords internes et des départs suite à la dissolution de l’équipe de super-alignement
  • L’objectif de superintelligence de Sam Altman suscite des inquiétudes croissantes

Sam Altman ne cache pas son objectif ultime de développer une superintelligence, une IA dépassant de loin les capacités humaines. Mais alors que l’IA générative évolue à vitesse grand V, cette ambition suscite de plus en plus d’inquiétudes. Des anciens membres du conseil d’administration estiment que les récents remous n’augurent rien de bon pour la capacité d’OpenAI à s’autoréguler efficacement.

Avec son dernier modèle GPT-4o capable d’écouter, regarder et parler, l’entreprise semble sur le point de franchir un nouveau cap. Reste à savoir si son comité de sécurité nouvellement formé saura poser les garde-fous nécessaires pour un développement responsable de l’IA, alors que la course à la superintelligence s’accélère de jour en jour. L’avenir de l’humanité pourrait en dépendre.

  • OpenAI crée un comité de sûreté et de sécurité pour guider les décisions sur ses projets d’IA
  • L’entreprise travaille sur un nouveau modèle de pointe pour se rapprocher de l’IA générale
  • Des désaccords internes et des départs suite à la dissolution de l’équipe de super-alignement
  • L’objectif de superintelligence de Sam Altman suscite des inquiétudes croissantes
author avatar
MondeTech.fr

À lire également