Dans un contexte où l’intelligence artificielle (IA) suscite autant d’enthousiasme que d’inquiétudes, Google a décidé de prendre les devants en lançant une nouvelle série de modèles d’IA open source baptisés Gemma 2. L’objectif affiché : offrir des outils plus sûrs, plus compacts et plus transparents aux développeurs et aux chercheurs du monde entier.
Gemma 2 2B : Un modèle léger et polyvalent
Le premier né de cette nouvelle génération est Gemma 2 2B, un modèle conçu pour générer et analyser du texte sur une large gamme d’appareils, des ordinateurs portables aux appareils en périphérie. Sous licence pour certaines applications de recherche et commerciales, il est téléchargeable depuis diverses sources telles que la bibliothèque de modèles Vertex AI de Google, la plateforme de science des données Kaggle ou encore la boîte à outils AI Studio de Google.
ShieldGemma : Un bouclier contre les contenus toxiques
Mais Google ne s’arrête pas là. Avec ShieldGemma, la firme de Mountain View propose une collection de « classificateurs de sécurité » destinés à détecter les contenus toxiques tels que les discours haineux, le harcèlement ou les contenus sexuellement explicites. Basé sur Gemma 2, ShieldGemma peut être utilisé pour filtrer les invites envoyées à un modèle génératif ainsi que les contenus générés par ce dernier.
Gemma Scope : Zoom sur le fonctionnement interne des modèles
Enfin, avec Gemma Scope, Google ambitionne de rendre les modèles Gemma 2 plus interprétables en permettant aux développeurs de « zoomer » sur des points spécifiques et de mieux comprendre leur fonctionnement interne. Comme l’explique Google dans un billet de blog :
[Gemma Scope est composé de] réseaux de neurones spécialisés qui nous aident à décompresser les informations denses et complexes traitées par Gemma 2, en les développant sous une forme plus facile à analyser et à comprendre. En étudiant ces vues élargies, les chercheurs peuvent obtenir de précieux éclairages sur la façon dont Gemma 2 identifie les schémas, traite l’information et, en fin de compte, fait des prédictions.
Un engagement en faveur de l’open source et de la sécurité
Le lancement de ces nouveaux modèles Gemma 2 intervient peu après que le département américain du Commerce a approuvé les modèles d’IA open source dans un rapport préliminaire. Selon ce rapport, les modèles ouverts élargissent la disponibilité de l’IA générative aux petites entreprises, aux chercheurs, aux organisations à but non lucratif et aux développeurs individuels, tout en soulignant la nécessité de disposer de capacités pour surveiller ces modèles et détecter les risques potentiels.
Avec cette initiative, Google semble donc vouloir montrer son engagement en faveur d’une IA plus ouverte, mais aussi plus sûre et plus transparente. Une démarche qui contraste avec celle de certains de ses concurrents comme OpenAI, qui garde jalousement le contrôle de ses modèles phares tels que GPT-4.
Une réponse à Meta et son modèle Llama
Cette offensive de Google sur le terrain de l’IA open source peut également être vue comme une réponse au géant des réseaux sociaux Meta, qui a récemment lancé son propre modèle de langage open source baptisé Llama. Comme Gemma, Llama vise à favoriser la bonne volonté au sein de la communauté des développeurs en leur fournissant des outils puissants et accessibles pour construire leurs propres applications d’IA.
Un pas vers une IA plus responsable ?
Reste à savoir si ces initiatives suffiront à apaiser les craintes suscitées par l’essor fulgurant de l’IA générative ces derniers mois. Entre risques de désinformation, de manipulation ou encore de perte massive d’emplois, les défis posés par cette technologie sont nombreux et complexes.
En tout état de cause, le lancement des modèles Gemma 2 par Google constitue un pas intéressant vers une IA potentiellement plus responsable et bénéfique pour tous. Il témoigne également de l’intensification de la course à l’armement technologique que se livrent les géants du Web dans ce domaine stratégique. Une course dont l’issue façonnera sans nul doute notre avenir à tous dans les années à venir.