Meta Investit Massivement Dans Les GPUs Pour L’IA En 2025

1,3 million de GPUs dédiés à l’intelligence artificielle d’ici fin 2025 : c’est l’objectif ambitieux annoncé par Mark Zuckerberg, PDG de Meta, dans un post Facebook vendredi dernier. Cette course effrénée à l’IA entre les géants de la tech promet de faire exploser les budgets d’infrastructure dans les années à venir.

Meta double la mise sur l’IA

Pour tenir la cadence face à des rivaux acharnés comme Microsoft et OpenAI, Meta prévoit de doubler ses dépenses en capital en 2025, les portant à 60-80 milliards de dollars contre 35-40 milliards l’an dernier. L’essentiel de cet argent sera consacré aux data centers et à l’expansion des équipes de développement en IA de l’entreprise.

Zuckerberg a également indiqué que Meta mettra en service environ un gigawatt de puissance de calcul cette année – soit l’équivalent de la consommation de 750 000 foyers moyens. D’ici la fin de l’année, les data centers de l’entreprise devraient héberger plus de 1,3 million de GPUs, ces processeurs graphiques devenus indispensables pour entraîner les réseaux de neurones de l’IA.

L’infrastructure est vraiment au cœur de nos plans en IA. C’est le fondement de tout ce que nous faisons.

– Mark Zuckerberg, PDG de Meta

La ruée vers l’or de l’IA

Meta est loin d’être le seul à investir massivement dans l’infrastructure pour l’intelligence artificielle. Microsoft prévoit de dépenser 80 milliards de dollars dans des data centers IA en 2025, tandis qu’OpenAI contribue à une joint-venture, Stargate, qui pourrait lui rapporter des centaines de milliards de dollars en ressources de data centers.

Cette ruée vers l’or de l’IA semble motivée par le potentiel immense des dernières avancées en matière d’apprentissage automatique, comme l’ont montré les modèles de langage de type ChatGPT ou les générateurs d’images comme DALL-E. Les applications possibles vont du marketing à la recherche médicale en passant par la finance.

Une course à l’armement computationnel

Mais cette course à l’IA a un coût, et pas seulement financier. L’entraînement des grands modèles d’IA nécessite une puissance de calcul phénoménale, qui se traduit par une consommation électrique de plus en plus importante des data centers.

Certains experts s’inquiètent d’une véritable course à l’armement computationnel, où chaque acteur cherche à avoir les plus gros supercalculateurs et les modèles les plus complexes, sans trop se soucier de l’efficacité énergétique ou de l’impact environnemental.

Nous entrons dans une ère où la puissance de calcul sera une ressource stratégique, au même titre que le pétrole au XXe siècle.

– Yoshua Bengio, pionnier de l’apprentissage profond

Vers une IA plus verte ?

Face à ces préoccupations, certaines entreprises tentent de développer des approches plus durables de l’IA. Google a par exemple conçu ses propres puces TPU optimisées pour l’apprentissage automatique et moins gourmandes en énergie. Des chercheurs travaillent aussi sur des algorithmes capables d’apprendre avec moins de données et de calculs.

Mais dans l’immédiat, la course à l’IA ne semble pas près de ralentir. Meta, Microsoft, OpenAI et les autres vont continuer à construire des supercalculateurs toujours plus puissants pour propulser la prochaine génération d’IA. Reste à espérer qu’ils le feront de manière responsable et durable.

  • La course à l’IA pousse les géants de la tech à doubler leurs investissements dans les data centers et les GPUs.
  • Cette ruée vers l’or computationnel pose des questions de durabilité et d’efficacité énergétique.
  • Le développement d’une IA plus « verte » apparaît comme un enjeu majeur pour le futur.

À lire également