Les poids lourds du secteur technologique, dont Intel, Google, Microsoft et Meta, se rassemblent pour former un nouveau groupe industriel visant à guider le développement des composants qui relient les puces d’accélération d’intelligence artificielle dans les data centers. Baptisé Ultra Accelerator Link (UALink) Promoter Group, ce consortium compte également parmi ses membres AMD, Hewlett Packard Enterprise, Broadcom et Cisco.
Un standard ouvert pour connecter les accélérateurs IA
L’objectif principal du groupe UALink est de proposer un nouveau standard industriel permettant de connecter les puces d’accélération IA, qu’il s’agisse de GPU ou de solutions sur mesure, qui se retrouvent de plus en plus dans les serveurs. Selon Forrest Norrod, directeur général des solutions data center d’AMD :
L’industrie a besoin d’un standard ouvert qui puisse être développé très rapidement, dans un format ouvert permettant à de multiples entreprises d’apporter de la valeur à l’écosystème global.
– Forrest Norrod, AMD
La première version de cette spécification, UALink 1.0, pourra connecter jusqu’à 1 024 accélérateurs IA (GPU uniquement) au sein d’un seul « pod » informatique, défini comme un ou plusieurs racks dans un serveur. Basé sur des « standards ouverts » comme l’Infinity Fabric d’AMD, UALink 1.0 offrira des chargements et stockages directs entre la mémoire attachée aux accélérateurs IA, tout en augmentant la vitesse et en réduisant la latence de transfert des données par rapport aux spécifications d’interconnexion existantes.
Un consortium pour superviser le développement d’UALink
Le groupe prévoit de créer un consortium, l’UALink Consortium, au troisième trimestre pour superviser le développement de la spécification UALink. La version 1.0 sera mise à disposition à peu près au même moment aux entreprises qui rejoindront le consortium, tandis qu’une version mise à jour offrant une bande passante plus élevée, UALink 1.1, est prévue pour le quatrième trimestre 2024. Les premiers produits compatibles UALink devraient arriver « dans les deux prochaines années », selon Forrest Norrod.
Les grands absents : Nvidia et AWS
Il est frappant de constater l’absence de Nvidia, de loin le plus grand producteur d’accélérateurs IA avec une part de marché estimée entre 80% et 95%. Nvidia propose sa propre technologie d’interconnexion propriétaire pour relier les GPU au sein d’un serveur de data center, et n’est probablement pas enthousiaste à l’idée de soutenir une spécification basée sur des technologies rivales. De plus, Nvidia opère à partir d’une position de force et d’influence considérable, avec des ventes de puces IA en hausse de plus de 400% sur un an au dernier trimestre. Si la trajectoire actuelle se poursuit, Nvidia est en passe de dépasser Apple comme deuxième entreprise la plus valorisée au monde cette année.
Quant à Amazon Web Services (AWS), seul géant du cloud public ne contribuant pas à UALink, il pourrait adopter une position attentiste alors qu’il travaille sur ses propres efforts en matière de matériel d’accélération. Il se peut aussi qu’AWS, avec sa mainmise sur le marché des services cloud, ne voie pas l’intérêt stratégique de s’opposer à Nvidia, qui fournit une grande partie des GPU qu’il propose à ses clients.
Les plus grands bénéficiaires d’UALink
En dehors d’AMD et Intel, les plus grands bénéficiaires d’UALink semblent être Microsoft, Meta et Google, qui ont collectivement dépensé des milliards de dollars en GPU Nvidia pour alimenter leurs clouds et entraîner leurs modèles d’IA toujours plus volumineux. Tous cherchent à se détacher d’un fournisseur qu’ils considèrent comme préoccupant dominant dans l’écosystème matériel de l’IA.
Gartner estime que la valeur des accélérateurs IA utilisés dans les serveurs atteindra 21 milliards de dollars cette année, pour grimper à 33 milliards d’ici 2028. Les revenus des puces IA devraient quant à eux atteindre 33,4 milliards de dollars d’ici 2025.
Des efforts internes en matière de puces IA
Google dispose de puces personnalisées pour l’entraînement et l’exécution de modèles d’IA, les TPU et Axion. Amazon a plusieurs familles de puces IA à son actif. Microsoft s’est lancé l’année dernière avec Maia et Cobalt. Et Meta peaufine sa propre gamme d’accélérateurs. Par ailleurs, Microsoft et son proche collaborateur OpenAI prévoiraient de dépenser au moins 100 milliards de dollars dans un superordinateur destiné à entraîner des modèles d’IA, qui sera équipé de futures versions des puces Cobalt et Maia. Ces puces auront besoin de quelque chose pour les relier – et ce sera peut-être UALink.
En résumé
- Les géants de la tech forment le groupe UALink pour guider le développement des composants reliant les puces d’accélération IA
- UALink 1.0 pourra connecter jusqu’à 1 024 GPU au sein d’un « pod » informatique
- Nvidia et AWS, grands absents, ont leurs propres stratégies en matière de puces IA
- Microsoft, Meta et Google cherchent à réduire leur dépendance vis-à-vis de Nvidia
- La valeur des accélérateurs IA dans les serveurs devrait atteindre 33 milliards de dollars d’ici 2028
Cette alliance des poids lourds de la tech autour d’UALink illustre les enjeux colossaux que représentent les accélérateurs d’IA, composants essentiels de l’infrastructure des data centers à l’heure où l’intelligence artificielle prend une place de plus en plus centrale. Reste à voir si ce standard émergent parviendra à s’imposer face à la position dominante de Nvidia et aux efforts internes des géants du cloud et de la tech en matière de puces IA.