Dans un contexte où l’intelligence artificielle (IA) ne cesse de progresser et de susciter des investissements colossaux, la question de la fiabilité et de la sécurité des modèles d’IA devient cruciale. C’est précisément le défi que cherche à relever la jeune startup CTGT, fondée par Cyril Gorlla et Trevor Tuttle, deux passionnés d’IA qui ont décidé de mettre leur expertise au service d’une IA plus sûre et plus transparente.
Le parcours atypique de Cyril Gorlla, fondateur de CTGT
Issu d’une famille d’immigrants, Cyril Gorlla a appris à coder en autodidacte dès son plus jeune âge. À seulement 11 ans, il réussit avec brio le cours de programmation de sa mère dans un community college. Au lycée, il découvre l’IA et se passionne pour l’entraînement de modèles, allant jusqu’à démonter son ordinateur portable pour en améliorer le refroidissement. Cette passion le mènera à un stage chez Intel pendant sa deuxième année d’université, où il travaillera sur l’optimisation et l’interprétabilité des modèles d’IA.
Mais Cyril Gorlla réalise vite que dans la course effrénée à l’IA, la sécurité passe trop souvent au second plan. Convaincu qu’un changement de paradigme est nécessaire, il décide avec Trevor Tuttle, rencontré pendant ses études, de se lancer dans l’aventure entrepreneuriale. CTGT voit ainsi le jour, avec pour mission d’aider les entreprises à déployer l’IA de manière plus réfléchie et responsable.
Identifier les biais et les hallucinations des modèles d’IA
L’approche de CTGT consiste à travailler main dans la main avec les entreprises pour repérer les biais et les « hallucinations » (réponses erronées) générés par leurs modèles d’IA, et tenter d’en identifier les causes profondes. Car si certaines erreurs peuvent prêter à sourire, comme une IA qui conseille de mettre de la colle dans une recette de cuisine, d’autres peuvent avoir des conséquences bien plus graves :
Recevoir des informations issues d’une étude clinique obsolète ou se voir refuser un crédit sur la base d’informations « hallucinées » est tout simplement inacceptable.
– Cyril Gorlla, co-fondateur de CTGT
S’il est impossible d’éliminer totalement les erreurs d’un modèle, CTGT affirme que son approche d’audit permet d’en atténuer fortement les effets. Là où la plupart des méthodes actuelles reposent sur l’entraînement de centaines de modèles « juges » pour superviser les modèles en production, l’approche mathématique de CTGT serait bien plus performante et économe en ressources de calcul.
Des investisseurs de renom et des clients Fortune 10
Malgré son jeune âge, CTGT a su convaincre des investisseurs de premier plan, parmi lesquels d’anciens partners de Google Ventures, Mark Cuban, ou encore Mike Knoop, co-fondateur de Zapier. La startup compte également parmi ses clients trois entreprises du Fortune 10, dont une qui a fait appel à CTGT pour réduire les biais de son algorithme de reconnaissance faciale :
Nous avons identifié que le modèle se focalisait trop sur les cheveux et les vêtements pour faire ses prédictions. Notre plateforme a fourni aux praticiens des insights immédiats, sans les tâtonnements et pertes de temps des méthodes d’interprétabilité traditionnelles.
– Cyril Gorlla
Pour Mark Cuban, investisseur de la startup, «Une IA qui ne peut pas expliquer son raisonnement n’est pas suffisamment intelligente pour de nombreux domaines où des règles et exigences complexes s’appliquent. J’ai investi dans CTGT car ils résolvent ce problème.»
Rendre l’IA plus sûre et explicable, un enjeu majeur pour son adoption
Alors que la taille des modèles d’IA augmente bien plus vite que les avancées matérielles, il devient crucial de mieux comprendre leur fonctionnement interne pour gagner en efficacité et en confiance. C’est tout l’enjeu de l’interprétabilité, ce domaine encore émergent mais promis à un bel avenir. Selon le cabinet Markets and Markets, le marché de l’IA explicable pourrait atteindre 16,2 milliards de dollars d’ici 2028.
Pour CTGT, les prochains mois seront consacrés au renforcement de l’équipe d’ingénieurs et au perfectionnement de sa plateforme. Car pour que l’IA tienne ses promesses dans des secteurs aussi critiques que la santé ou la finance, il est impératif de pouvoir lui faire confiance. En aidant les entreprises à mieux comprendre et maîtriser leurs modèles d’IA, CTGT apporte une pierre essentielle à l’édifice d’une IA plus sûre, plus transparente et in fine, plus utile à la société.