La startup française d’intelligence artificielle Mistral vient de franchir une étape majeure dans la démocratisation de l’IA générative. Avec le lancement de sa nouvelle famille de modèles baptisée « Les Ministraux », Mistral propose pour la première fois des modèles d’IA conçus spécifiquement pour fonctionner sur des appareils de périphérie, comme les ordinateurs portables et les smartphones.
Une Avancée Majeure Pour L’IA Embarquée
Les modèles Ministral 3B et Ministral 8B, qui composent la gamme Les Ministraux, ont été optimisés pour offrir des performances impressionnantes malgré leur taille réduite. Avec une fenêtre contextuelle de 128 000 tokens, soit l’équivalent d’un livre de 50 pages, ces modèles sont capables de générer du texte, mais aussi de travailler en tandem avec des modèles plus puissants pour accomplir une grande variété de tâches.
Nos clients et partenaires les plus innovants nous demandent de plus en plus une inférence locale et respectueuse de la confidentialité pour des applications critiques telles que la traduction sur appareil, les assistants intelligents sans Internet, l’analytique locale et la robotique autonome.
– Mistral, dans un article de blog
Disponibilité Et Tarification Des Modèles Ministral
Dès aujourd’hui, les développeurs peuvent télécharger Ministral 8B à des fins de recherche. Pour les déploiements en production de Ministral 8B ou Ministral 3B, Mistral exige l’obtention d’une licence commerciale. Les modèles sont également accessibles via la plateforme cloud de Mistral, La Platforme, ainsi que sur d’autres clouds partenaires dans les semaines à venir.
En termes de tarification, Ministral 8B coûte 10 centimes par million de tokens d’entrée/sortie (environ 750 000 mots), tandis que Ministral 3B est facturé 4 centimes par million de tokens.
La Tendance Des Petits Modèles D’IA
Le lancement des Ministraux par Mistral s’inscrit dans une tendance plus large du secteur de l’IA vers des modèles de petite taille. En effet, ces derniers sont moins coûteux et plus rapides à entraîner, à affiner et à exécuter que leurs homologues plus volumineux. Des géants de la tech comme Google, avec sa famille de modèles Gemma, Microsoft, avec sa collection Phi, ou encore Meta, avec ses récents modèles Llama optimisés pour le matériel de périphérie, investissent massivement dans cette approche.
Des Performances Supérieures Aux Modèles Concurrents
Selon Mistral, les modèles Ministral 3B et 8B surpassent des modèles comparables de Llama, de Gemma, ainsi que son propre modèle Mistral 7B, sur plusieurs benchmarks d’IA évaluant les capacités de suivi d’instructions et de résolution de problèmes. Cette prouesse technique démontre la volonté de la startup parisienne de se hisser au niveau des meilleurs modèles actuels, comme GPT-4 d’OpenAI ou Claude d’Anthropic.
Une Expansion Continue Du Portfolio De Mistral
Le lancement des Ministraux s’inscrit dans une stratégie d’expansion continue du portfolio de produits d’IA de Mistral. Ces derniers mois, la startup a lancé un service gratuit permettant aux développeurs de tester ses modèles, un SDK pour affiner ces modèles, ainsi que de nouveaux modèles spécialisés, comme Codestral pour la génération de code. Fondée par des alumni de Meta et DeepMind, Mistral a pour ambition de créer des modèles phares rivalisant avec les plus performants du marché, tout en générant des revenus, un défi de taille pour la plupart des startups d’IA générative.
En Résumé
Avec le lancement de ses modèles Ministral optimisés pour les appareils, Mistral franchit une étape clé dans la démocratisation de l’IA générative. Cette avancée ouvre la voie à de nombreuses applications innovantes tirant parti de l’inférence locale, tout en préservant la confidentialité des données. Parmi les cas d’usage prometteurs, on peut citer :
- La traduction en temps réel sur appareil, sans connexion Internet
- Des assistants intelligents fonctionnant en mode hors-ligne
- L’analyse de données directement sur les terminaux des utilisateurs
- Des robots autonomes exploitant l’IA embarquée pour prendre des décisions
Nul doute que cette initiative de Mistral va encourager d’autres acteurs de l’IA à proposer des modèles toujours plus compacts et performants, capables de fonctionner au plus près des utilisateurs et de leurs appareils. Une tendance de fond qui pourrait bien façonner l’avenir de l’intelligence artificielle dans les années à venir.
Le lancement des Ministraux par Mistral s’inscrit dans une tendance plus large du secteur de l’IA vers des modèles de petite taille. En effet, ces derniers sont moins coûteux et plus rapides à entraîner, à affiner et à exécuter que leurs homologues plus volumineux. Des géants de la tech comme Google, avec sa famille de modèles Gemma, Microsoft, avec sa collection Phi, ou encore Meta, avec ses récents modèles Llama optimisés pour le matériel de périphérie, investissent massivement dans cette approche.
Des Performances Supérieures Aux Modèles Concurrents
Selon Mistral, les modèles Ministral 3B et 8B surpassent des modèles comparables de Llama, de Gemma, ainsi que son propre modèle Mistral 7B, sur plusieurs benchmarks d’IA évaluant les capacités de suivi d’instructions et de résolution de problèmes. Cette prouesse technique démontre la volonté de la startup parisienne de se hisser au niveau des meilleurs modèles actuels, comme GPT-4 d’OpenAI ou Claude d’Anthropic.
Une Expansion Continue Du Portfolio De Mistral
Le lancement des Ministraux s’inscrit dans une stratégie d’expansion continue du portfolio de produits d’IA de Mistral. Ces derniers mois, la startup a lancé un service gratuit permettant aux développeurs de tester ses modèles, un SDK pour affiner ces modèles, ainsi que de nouveaux modèles spécialisés, comme Codestral pour la génération de code. Fondée par des alumni de Meta et DeepMind, Mistral a pour ambition de créer des modèles phares rivalisant avec les plus performants du marché, tout en générant des revenus, un défi de taille pour la plupart des startups d’IA générative.
En Résumé
Avec le lancement de ses modèles Ministral optimisés pour les appareils, Mistral franchit une étape clé dans la démocratisation de l’IA générative. Cette avancée ouvre la voie à de nombreuses applications innovantes tirant parti de l’inférence locale, tout en préservant la confidentialité des données. Parmi les cas d’usage prometteurs, on peut citer :
- La traduction en temps réel sur appareil, sans connexion Internet
- Des assistants intelligents fonctionnant en mode hors-ligne
- L’analyse de données directement sur les terminaux des utilisateurs
- Des robots autonomes exploitant l’IA embarquée pour prendre des décisions
Nul doute que cette initiative de Mistral va encourager d’autres acteurs de l’IA à proposer des modèles toujours plus compacts et performants, capables de fonctionner au plus près des utilisateurs et de leurs appareils. Une tendance de fond qui pourrait bien façonner l’avenir de l’intelligence artificielle dans les années à venir.