Imaginez un instant : une startup indienne, à peine trois ans d’existence, qui ose défier les mastodontes américains et chinois de l’intelligence artificielle sur leur propre terrain, celui des grands modèles de langage. C’est exactement ce que vient de réaliser Sarvam AI en dévoilant, en février 2026, une nouvelle génération de modèles qui pourraient bien changer la donne dans l’écosystème mondial de l’IA open source.
Alors que beaucoup pensaient que la course à l’IA se résumait à une bataille de milliards de dollars et de paramètres entre OpenAI, Google, Meta et quelques acteurs chinois, Sarvam démontre qu’une approche différente est possible : miser sur l’efficacité, la pertinence locale et l’open source pour capter une part significative du marché, surtout dans les pays émergents.
Sarvam AI : l’ambition indienne face aux géants
Basée à Bengaluru, Sarvam AI n’est pas une inconnue pour les observateurs attentifs de l’écosystème startup indien. Fondée en 2023, l’entreprise a rapidement levé plus de 40 millions de dollars auprès d’investisseurs de premier plan : Lightspeed Venture Partners, Khosla Ventures et Peak XV Partners (l’ancien bras indien de Sequoia). Mais c’est surtout son positionnement qui intrigue : construire des modèles d’IA taillés pour l’Inde, tout en restant ouverts à la communauté mondiale.
Le 18 février 2026, lors du India AI Impact Summit à New Delhi, Sarvam a levé le voile sur une suite impressionnante de technologies : deux grands modèles de langage (30 milliards et 105 milliards de paramètres), un système texte-vers-parole, un système parole-vers-texte et même un modèle de vision capable d’analyser des documents. Un bond spectaculaire depuis leur premier modèle Sarvam 1 de seulement 2 milliards de paramètres sorti fin 2024.
« Nous voulons être conscients dans notre manière de scaler. Nous ne souhaitons pas scaler de façon aveugle. Nous voulons identifier les tâches qui comptent vraiment à grande échelle et construire spécifiquement pour elles. »
– Pratyush Kumar, co-fondateur de Sarvam
Cette déclaration résume parfaitement la philosophie de l’entreprise : privilégier la pertinence plutôt que la taille brute. Une posture qui contraste fortement avec la course aux records de paramètres observée chez certains concurrents.
L’architecture Mixture-of-Experts au cœur de la stratégie
Le secret de cette prouesse computationnelle réside dans l’utilisation d’une architecture Mixture-of-Experts (MoE). Contrairement aux modèles denses traditionnels où tous les paramètres sont activés à chaque inférence, le MoE n’active qu’une fraction des experts pour chaque requête. Résultat : des coûts d’inférence bien inférieurs tout en maintenant des performances élevées.
Le modèle 30B de Sarvam supporte une fenêtre de contexte de 32 000 tokens, parfaitement adaptée aux usages conversationnels en temps réel. Le modèle 105B pousse cette logique plus loin avec 128 000 tokens, ce qui le rend capable de traiter des raisonnements complexes sur de très longs documents ou conversations.
Pour les marketeurs et entrepreneurs qui déploient des chatbots ou des assistants vocaux multilingues, cette différence n’est pas anodine : une fenêtre de contexte plus large permet de maintenir une cohérence sur des échanges clients beaucoup plus longs, réduisant drastiquement les frustrations liées aux « oublis » du modèle.
Entraînés from scratch et taillés pour l’Inde
Contrairement à de nombreux acteurs qui se contentent de fine-tuner des modèles existants (Llama, Mistral, Gemma…), Sarvam a choisi la voie la plus ambitieuse : pré-entraîner ses modèles from scratch. Le 30B a été formé sur environ 16 trillions de tokens, tandis que le 105B a digéré des quantités astronomiques de données couvrant de multiples langues indiennes.
Pourquoi cette approche ? Parce que l’Inde compte plus de 22 langues officielles et des centaines de dialectes. Les modèles occidentaux, même multilingues, restent souvent médiocres sur le hindi, le tamoul, le bengali, le télougou ou le marathi. Sarvam entend combler ce vide avec des performances natives inégalées sur ces langues.
- Support natif et fluide des principales langues indiennes
- Compréhension contextuelle culturelle beaucoup plus fine
- Meilleure gestion des code-switching (mélange anglais + langue locale)
- Réduction drastique des hallucinations sur les sujets locaux
Ces avantages sont cruciaux pour les entreprises indiennes qui souhaitent déployer des assistants clients, des outils de support ou des campagnes marketing ultra-personnalisées dans les langues vernaculaires.
Un soutien stratégique de l’État indien
Derrière cette accélération technologique, on retrouve l’IndiaAI Mission, un programme gouvernemental massif destiné à doter le pays d’une souveraineté technologique en IA. Sarvam a bénéficié de ressources de calcul très importantes fournies par cette initiative, ainsi que d’un partenariat avec Yotta (opérateur de data centers) et Nvidia.
Cette collaboration public-privé illustre une tendance mondiale : les États-nations prennent conscience que l’IA n’est plus seulement une technologie, mais un levier de souveraineté numérique. La France avec son plan IA, les Émirats avec Falcon, la Chine avec ses multiples acteurs… l’Inde entre désormais dans la danse avec une approche résolument open source.
Open source : le vrai pari stratégique de Sarvam
En choisissant de rendre ses modèles 30B et 105B open source, Sarvam adopte une stratégie diamétralement opposée à celle d’OpenAI ou Google. Mais pourquoi ce choix ? Plusieurs raisons convergent :
- Accélérer l’adoption par la communauté de développeurs indiens et mondiaux
- Créer un écosystème d’applications autour de ses modèles
- Profiter de l’amélioration collective (fine-tunings, quantizations, etc.)
- Se positionner comme leader moral et technique de l’IA ouverte en Asie
- Attirer talents et partenaires grâce à la transparence
Attention toutefois : l’entreprise n’a pas encore précisé si les données d’entraînement et le code complet de training seraient également publiés. Cela reste un point clé qui déterminera le vrai degré d’ouverture de ces modèles.
Comparaison avec la concurrence internationale
Sarvam positionne clairement son 30B face à Gemma 27B (Google) et GPT-OSS-20B (OpenAI), tandis que le 105B vise directement GPT-OSS-120B et Qwen-3-Next-80B (Alibaba). Sur le papier, les performances devraient être compétitives, surtout en langues indiennes et en coût d’inférence.
Pour les startups et PME qui n’ont pas les moyens d’appeler GPT-4o ou Claude 3.5 à chaque requête, un modèle open source auto-hébergé ou via une API low-cost représente souvent une économie de 60 à 90 % sur la facture IA. C’est là que Sarvam peut véritablement disrupter le marché.
Les produits concrets qui arrivent
Au-delà des modèles bruts, Sarvam prépare plusieurs verticales applicatives :
- Sarvam for Work : outils IA spécialisés entreprise (notamment coding et productivité)
- Samvaad : plateforme d’agents conversationnels vocaux et textuels
- Modèles spécialisés coding et analyse de documents
Ces produits pourraient devenir des SaaS compétitifs sur le marché indien et sud-asiatique, où la sensibilité au prix reste très forte et où la maîtrise des langues locales est un avantage concurrentiel décisif.
Quelles leçons pour les entrepreneurs tech et marketeurs ?
1. L’open source n’est pas mort : au contraire, il devient un levier stratégique pour les acteurs qui ne peuvent pas rivaliser en taille brute.
2. La localisation linguistique et culturelle devient un avantage compétitif majeur dans les marchés émergents.
3. Les architectures efficaces (MoE, quantization, distillation) permettent de déployer des expériences premium à des coûts raisonnables.
4. Les gouvernements jouent un rôle croissant dans la construction d’écosystèmes IA souverains.
Pour une startup française ou européenne qui cible l’Afrique francophone, le Maghreb ou l’Asie du Sud-Est, l’exemple Sarvam est inspirant : construire des modèles adaptés aux langues et cultures locales, les ouvrir, et créer un cercle vertueux d’adoption et d’amélioration communautaire.
Vers une IA plus démocratique et accessible ?
Si Sarvam parvient à tenir ses promesses de performance, de coût maîtrisé et de qualité linguistique, nous pourrions assister à un véritable basculement : l’émergence de clusters régionaux d’IA open source qui viendraient concurrencer les monopoles américains et chinois.
Pour les marketeurs, cela signifie plus de choix, des API moins chères, des assistants vocaux plus naturels dans les langues locales, et in fine des campagnes plus pertinentes et moins coûteuses.
Pour les fondateurs de startups, c’est une invitation à repenser la stack IA : plutôt que de dépendre exclusivement des API des Big Tech, construire sur des modèles ouverts locaux peut devenir un avantage compétitif durable.
L’histoire de Sarvam ne fait que commencer, mais elle pourrait bien marquer un tournant dans la démocratisation et la décentralisation géographique de l’intelligence artificielle.
À suivre de très près en 2026 et au-delà.







