Dans un contexte où l’intégration de l’intelligence artificielle au sein des workflows et des produits des entreprises ne cesse de croître, la demande pour des outils et des plateformes facilitant la création, le test et le déploiement de modèles de machine learning est en plein essor. C’est dans cette catégorie de plateformes, communément appelée MLOps (Machine Learning Operations), que la startup sud-coréenne VESSL AI tente de se démarquer en se concentrant sur l’optimisation des coûts GPU grâce à une infrastructure hybride combinant environnements sur site et dans le cloud.
VESSL AI vient de lever 12 millions de dollars lors d’un tour de financement de série A afin d’accélérer le développement de son infrastructure, destinée aux entreprises souhaitant développer des modèles de langage personnalisés de grande envergure (LLM) et des agents d’IA verticaux. La startup compte déjà parmi ses 50 clients de grandes entreprises telles que Hyundai, LIG Nex1 (fabricant aérospatial et d’armes sud-coréen), TMAP Mobility (coentreprise de mobilité entre Uber et l’opérateur télécoms SK Telecom), ainsi que des startups technologiques comme Yanolja, Upstage, ScatterLab et Wrtn.ai.
Une approche innovante pour réduire les coûts GPU
La plateforme MLOps de VESSL AI se distingue par sa capacité à réduire les dépenses GPU jusqu’à 80% grâce à une stratégie multi-cloud et à l’utilisation d’instances ponctuelles. Cette approche permet également de pallier les pénuries de GPU et de rationaliser l’entraînement, le déploiement et l’exploitation des modèles d’IA, y compris les LLM à grande échelle.
La stratégie multi-cloud de VESSL AI permet d’utiliser les GPU de divers fournisseurs de services cloud comme AWS, Google Cloud et Lambda. Ce système sélectionne automatiquement les ressources les plus rentables et les plus efficaces, réduisant ainsi considérablement les coûts pour les clients.
– Jaeman Kuss An, cofondateur et PDG de VESSL AI
Principales fonctionnalités de la plateforme VESSL AI
La plateforme de VESSL AI propose quatre fonctionnalités principales :
- VESSL Run : automatise l’entraînement des modèles d’IA
- VESSL Serve : prend en charge le déploiement en temps réel
- VESSL Pipelines : intègre l’entraînement des modèles et le prétraitement des données pour rationaliser les workflows
- VESSL Cluster : optimise l’utilisation des ressources GPU dans un environnement en cluster
Un marché MLOps en pleine expansion
Le marché des plateformes MLOps est déjà bien fourni, avec des startups comme InfuseAI, Comet, Arrikto, Arize, Galileo, Tecton et Diveplane, sans oublier les offres des géants du cloud comme Google Cloud, Azure et AWS. Cependant, l’approche unique de VESSL AI en matière d’optimisation des coûts GPU et son orientation vers le développement de modèles de langage personnalisés et d’agents d’IA verticaux lui permettent de se démarquer dans cet environnement concurrentiel.
Des investisseurs de renom et des partenariats stratégiques
Le tour de financement de série A, qui porte le total des fonds levés par VESSL AI à 16,8 millions de dollars, a attiré des investisseurs renommés tels que A Ventures, Ubiquoss Investment, Mirae Asset Securities, Sirius Investment, SJ Investment Partners, Wooshin Venture Investment et Shinhan Venture Investment. La startup a également noué des partenariats stratégiques avec Oracle et Google Cloud aux États-Unis.
Une équipe expérimentée pour porter la vision de VESSL AI
VESSL AI a été fondée en 2020 par Jaeman Kuss An (PDG), Jihwan Jay Chun (CTO), Intae Ryoo (CPO) et Yongseon Sean Lee (responsable technique), des entrepreneurs ayant précédemment travaillé chez Google, PUBG et d’autres startups d’IA. L’équipe compte aujourd’hui 35 collaborateurs répartis entre la Corée du Sud et un bureau à San Mateo, aux États-Unis.
Avec cette levée de fonds et son approche innovante, VESSL AI est bien positionnée pour répondre aux besoins croissants des entreprises en matière d’intégration de l’IA, tout en leur permettant de maîtriser leurs coûts d’infrastructure. La startup sud-coréenne a le potentiel de devenir un acteur majeur du marché MLOps en pleine expansion, en particulier dans le domaine des modèles de langage personnalisés et de l’IA verticale.