Le géant de la technologie Google vient une nouvelle fois de secouer le monde de l’intelligence artificielle avec l’annonce de mises à jour majeures pour ses modèles Gemini 1.5. Baptisées Gemini-1.5-Pro-002 et Gemini-1.5-Flash-002, ces nouvelles versions promettent des gains significatifs en termes de performances tout en réduisant drastiquement les coûts d’utilisation. Une excellente nouvelle pour les développeurs et les entreprises souhaitant exploiter le plein potentiel de l’IA.
Une baisse de plus de 50% des coûts d’utilisation pour Gemini 1.5 Pro
Premier point clé de cette annonce : Google divise par plus de deux les coûts liés à l’exploitation du modèle Gemini 1.5 Pro et ses 2 millions de tokens de contexte. Concrètement, les tarifs des tokens d’entrée et de sortie diminuent respectivement de 64% et 52%. Quant aux tokens mis en cache pour les prompts de moins de 128K tokens, ils bénéficient également d’une baisse de 64%.
Effectives dès le 1er octobre 2024, ces réductions tarifaires devraient faciliter l’intégration des modèles avancés d’IA dans un plus grand nombre d’applications et de logiciels d’entreprise en allégeant considérablement le poids des dépenses associées.
Des performances doublées et une latence réduite par trois
Au-delà des aspects financiers, les nouvelles versions de Gemini 1.5 se distinguent par des performances doublées en matière de vitesse de sortie tout en réduisant par trois la latence. Des améliorations notables qui permettent une exécution plus rapide d’une grande variété de tâches :
- Compréhension de vidéos longues
- Gestion de volumineux fichiers PDF
- Génération de code à grande échelle
Davantage de requêtes par minute pour traiter plus de données
Soucieux de répondre aux besoins grandissants des développeurs, Google a aussi revu à la hausse les limites de requêtes pour ses modèles Gemini 1.5 :
- Gemini 1.5 Flash passe de 1000 à 2000 requêtes par minute (RPM)
- Gemini 1.5 Pro grimpe de 360 à 1000 RPM
Il devient ainsi possible de traiter des volumes de données encore plus importants et ce, plus rapidement qu’auparavant. De quoi booster la productivité des équipes travaillant sur des projets d’IA à forte intensité de données.
Des réponses plus concises pour une meilleure efficacité
Dernière amélioration et non des moindres, les modèles Gemini 1.5 mis à jour génèrent dorénavant des réponses plus concises, réduisant la longueur de sortie de 5 à 20% pour des cas d’utilisation comme les résumés ou les questions-réponses. Un point positif à double titre :
- Cela contribue à diminuer les coûts de traitement
- Tout en augmentant l’efficacité globale des modèles
Notez toutefois que les utilisateurs préférant des réponses plus détaillées conservent la possibilité de les obtenir en ajustant les prompts utilisés pour interroger les modèles.
Une disponibilité progressive dans les prochaines semaines
Pour l’instant, ces nouvelles versions optimisées de Gemini 1.5 ne seront accessibles que via l’API de Google. Mais les abonnés à Gemini Advanced devraient prochainement pouvoir en profiter directement depuis l’interface de conversation de Gemini, une fois les modèles adaptés à ce type d’interactions.
Nul doute que ces avancées significatives, combinant puissance, rapidité et maîtrise des coûts, sauront séduire un large panel d’acteurs désireux de franchir un cap dans leurs projets basés sur l’intelligence artificielle. Reste à suivre de près les prochains retours d’expérience pour confirmer le potentiel prometteur de ces nouveaux modèles Gemini 1.5 !