Sam Altman d’OpenAI : Le Manque de Puissance Informatique Ralentit Nos Produits

Dans une récente séance de questions-réponses sur Reddit, Sam Altman, le PDG d’OpenAI, a admis qu’un manque de puissance de calcul constitue l’un des principaux facteurs empêchant l’entreprise de livrer ses produits aussi souvent qu’elle le souhaiterait. Cette révélation soulève des questions sur les défis auxquels sont confrontées même les entreprises d’IA les plus en vue pour faire évoluer leurs systèmes complexes.

Une Complexité Croissante des Modèles d’IA

Lorsqu’on lui a demandé pourquoi les prochains modèles d’IA d’OpenAI prenaient autant de temps, Altman a répondu : « Tous ces modèles sont devenus très complexes. Nous sommes également confrontés à de nombreuses limitations et décisions difficiles concernant l’allocation de notre puissance de calcul vers de nombreuses excellentes idées. »

De nombreux rapports suggèrent qu’OpenAI a du mal à obtenir une infrastructure informatique suffisante pour exécuter et entraîner ses modèles génératifs. Reuters a rapporté qu’OpenAI travaille depuis des mois avec Broadcom pour créer une puce IA destinée à l’exécution de modèles, qui pourrait arriver dès 2026.

Des Retards dans les Fonctionnalités Avancées

En partie à cause de ces contraintes de capacité, Altman a déclaré que le mode conversationnel réaliste de ChatGPT, Advanced Voice Mode, n’obtiendrait pas de sitôt les capacités visuelles présentées pour la première fois en avril. Lors de cet événement presse, OpenAI avait montré l’application ChatGPT fonctionnant sur un smartphone et répondant à des signaux visuels, comme les vêtements portés par une personne, dans le champ de vision de la caméra du téléphone.

Nous n’avons pas encore de plan de sortie pour la prochaine version majeure de DALL-E.

– Sam Altman, PDG d’OpenAI

De même, Sora, l’outil de génération de vidéos d’OpenAI, a été retardé par le « besoin de perfectionner le modèle, de bien gérer la sécurité, l’usurpation d’identité et d’autres éléments, et de mettre à l’échelle le calcul », a écrit Kevin Weil, directeur des produits d’OpenAI.

Priorité à l’Amélioration des Modèles de Raisonnement

Altman a précisé que la principale priorité d’OpenAI est actuellement d’améliorer sa série de modèles de « raisonnement » o1 et leurs successeurs. Plusieurs fonctionnalités à venir pour o1 ont été présentées lors de la conférence DevDay d’OpenAI à Londres cette semaine, notamment la compréhension des images.

Nous avons de très bonnes versions à venir plus tard cette année. Rien que nous appellerons GPT-5, cependant.

– Sam Altman, PDG d’OpenAI

Les Défis de la Mise à l’Échelle de l’IA

Les commentaires d’Altman mettent en lumière les défis auxquels sont confrontées même les entreprises d’IA les plus avancées lorsqu’il s’agit de déployer des modèles à grande échelle. Malgré des investissements massifs et des partenariats avec des géants de la technologie, obtenir une puissance de calcul suffisante reste un obstacle majeur.

Alors que la course à la suprématie de l’IA s’intensifie, avec des acteurs comme Google, Meta et Microsoft investissant massivement dans ce domaine, la question de l’infrastructure informatique devient cruciale. Les entreprises capables de sécuriser une capacité de calcul à grande échelle pourraient avoir un avantage significatif dans le développement et le déploiement de systèmes d’IA avancés.

Cependant, comme le montrent les retards d’OpenAI, même avec des ressources substantielles, faire évoluer l’IA est loin d’être simple. Les modèles deviennent de plus en plus complexes et gourmands en ressources, nécessitant des innovations constantes en matière d’infrastructure et d’architecture.

L’Avenir de l’IA à Grande Échelle

Malgré ces défis, OpenAI et d’autres leaders de l’IA restent déterminés à repousser les limites de ce qui est possible. Avec des avancées continues dans les puces IA spécialisées, l’informatique en nuage et les algorithmes d’optimisation, la capacité à exécuter des modèles massifs devrait s’améliorer avec le temps.

Pendant ce temps, les entreprises doivent faire des compromis difficiles sur la façon d’allouer leurs ressources de calcul limitées. Comme Altman l’a noté, cela signifie souvent retarder certains produits ou fonctionnalités au profit d’autres priorités.

À mesure que l’IA continue de progresser à un rythme rapide, surmonter les goulots d’étranglement de l’infrastructure informatique sera essentiel pour concrétiser tout le potentiel de cette technologie transformatrice. Les révélations d’Altman offrent un aperçu fascinant des coulisses de cette course à l’armement de l’IA, et un rappel des immenses défis techniques qui restent à relever.

author avatar
MondeTech.fr

À lire également