Zuckerberg : Meta Aura Besoin De 10x Plus De Puissance Pour Llama 4

Le paysage de l’intelligence artificielle évolue à une vitesse vertigineuse, et les géants de la tech sont engagés dans une course effrénée pour développer les modèles de langage les plus puissants. Mark Zuckerberg, le PDG de Meta, a récemment révélé que sa société aura besoin d’une puissance de calcul colossale pour entraîner la prochaine itération de son modèle open source Llama.

Une Puissance De Calcul Multipliée Par 10 Pour Llama 4

Lors de l’appel sur les résultats du second trimestre de Meta, Zuckerberg a déclaré sans détour que l’entraînement de Llama 4 nécessiterait environ 10 fois plus de ressources informatiques que ce qui avait été mobilisé pour Llama 3. Un bond quantique qui en dit long sur les défis techniques à relever pour faire progresser l’état de l’art en matière d’IA générative.

La quantité de calcul nécessaire pour entraîner Llama 4 sera probablement presque 10 fois supérieure à ce que nous avons utilisé pour Llama 3, et les futurs modèles continueront à croître au-delà de cela.

– Mark Zuckerberg, PDG de Meta

Malgré l’ampleur de l’investissement requis, le dirigeant de Meta préfère prendre le risque de bâtir une capacité excédentaire plutôt que de se retrouver à la traîne face à une concurrence qui ne cesse de s’intensifier. Les longs délais nécessaires pour déployer de nouvelles infrastructures d’inférence justifient cette approche proactive.

Course À L’Armement Dans Les Modèles De Langage

Avec Llama 3 et ses 8 milliards de paramètres dévoilé en avril, puis Llama 3.1 405B et ses 405 milliards de paramètres en août, Meta a clairement affiché ses ambitions dans la bataille des grands modèles de langage open source. Mais la firme de Menlo Park est loin d’être seule sur ce créneau ultra-concurrentiel.

  • OpenAI et son fameux GPT-4 aux capacités étendues
  • Google et son modèle PaLM 2 de 340 milliards de paramètres
  • DeepMind et son Chinchilla de 70 milliards de paramètres
  • Anthropic et son modèle éthique Claude basé sur l’architecture constitutionnelle

Tous ces acteurs, et bien d’autres, se livrent une lutte sans merci pour repousser les limites des modèles génératifs et proposer des assistants IA toujours plus performants. Une compétition qui se joue autant sur le terrain des prouesses techniques que sur celui des ressources informatiques mobilisées.

L’Infrastructure, Nerf De La Guerre De L’IA

Pour soutenir ses efforts dans la course à l’IA générative, Meta compte investir massivement dans les data centers et la capacité d’entraînement de ses futurs modèles. Des dépenses en capital qui devraient s’intensifier en 2025 selon les prévisions de Susan Li, la directrice financière du groupe.

Une approche qui n’est pas sans rappeler celle d’OpenAI, qui aurait dépensé pas moins de 3 milliards de dollars pour entraîner ses modèles et 4 milliards supplémentaires pour louer des serveurs à prix réduit auprès de Microsoft selon le média The Information. Preuve que la bataille de l’IA se gagne aussi à coup de milliards dans les fermes de serveurs.

À mesure que nous augmentons la capacité d’entraînement de l’IA générative pour faire progresser nos modèles fondateurs, nous continuerons à construire notre infrastructure de manière à nous donner de la flexibilité dans la façon dont nous l’utilisons au fil du temps.

– Susan Li, Directrice Financière de Meta

Meta compte ainsi orienter sa puissance de calcul soit vers l’inférence pour l’IA générative, soit vers ses travaux de base sur le classement et les recommandations, en fonction de la valeur attendue. Une stratégie d’allocation des ressources qui sera cruciale pour rester dans la course face à des concurrents déterminés à prendre la tête de la prochaine révolution informatique.

Vers Une Démocratisation De L’IA Malgré Les Défis

Si la course à la performance des grands modèles de langage est souvent perçue comme l’apanage des géants de la tech, l’approche open source de Meta avec Llama ouvre la voie à une certaine démocratisation de l’IA générative. En mettant ses modèles à disposition de la communauté scientifique et des développeurs, le groupe espère stimuler l’innovation et l’émergence de nouvelles applications.

Reste que le coût faramineux de l’entraînement des modèles les plus ambitieux risque de creuser le fossé entre les acteurs capables de se payer les infrastructures de pointe et les autres. Un enjeu de souveraineté technologique qui interpelle également les pouvoirs publics, sommés de soutenir l’écosystème de l’IA pour ne pas se faire distancer dans cette course planétaire.

Avec son pari sur Llama 4 et les investissements massifs qu’il implique, Mark Zuckerberg envoie un signal fort sur la détermination de Meta à peser dans le game de l’IA générative. Mais il rappelle aussi, en creux, l’immensité du défi technologique et financier que représente cette nouvelle frontière de l’informatique. Une équation complexe dont la résolution sera déterminante pour façonner le visage du web de demain.

author avatar
MondeTech.fr

À lire également