Dans les coulisses du développement de l’IA générative, des armées d’employés chez des géants comme Google et OpenAI, appelés « ingénieurs prompt » et analystes, notent la précision des réponses des chatbots pour améliorer ces systèmes d’IA. Mais une nouvelle directive interne de Google à ses sous-traitants travaillant sur Gemini soulève des inquiétudes quant à la propension de Gemini à délivrer des informations erronées sur des sujets très sensibles, comme la santé, au grand public.
Des sous-traitants forcés d’évaluer hors de leur domaine d’expertise
Pour perfectionner Gemini, les sous-traitants de GlobalLogic, une société d’externalisation appartenant à Hitachi, doivent régulièrement évaluer les réponses générées par l’IA selon des critères comme la « véracité ». Jusqu’à récemment, ils pouvaient « sauter » certaines invites, et donc ne pas évaluer diverses réponses écrites par l’IA à ces invites, si elles étaient très éloignées de leur domaine d’expertise. Par exemple, un sous-traitant pouvait sauter une question pointue sur la cardiologie car il n’avait aucune formation scientifique.
Mais la semaine dernière, GlobalLogic a annoncé un changement imposé par Google : les sous-traitants n’ont plus le droit de sauter ces invites, quelle que soit leur propre expertise. Ils doivent maintenant « évaluer les parties de l’invite qu’ils comprennent » et inclure une note indiquant qu’ils n’ont pas les connaissances du domaine.
Des inquiétudes sur la précision de Gemini sur des sujets sensibles
Cette situation suscite des préoccupations directes quant à l’exactitude de Gemini sur certains sujets, car les sous-traitants sont parfois chargés d’évaluer des réponses IA très techniques sur des questions comme les maladies rares, pour lesquelles ils n’ont aucune connaissance de base.
Je pensais que l’intérêt de sauter était d’augmenter la précision en le confiant à quelqu’un de mieux placé ?
– Un sous-traitant dans une correspondance interne
Les sous-traitants ne peuvent désormais sauter des invites que dans deux cas :
- S’il manque complètement des informations comme l’invite ou la réponse complète
- Si elles contiennent du contenu préjudiciable nécessitant des formulaires de consentement spéciaux pour être évaluées
Implications pour la transparence et la responsabilité de l’IA
Ce développement soulève des questions plus larges sur la transparence et la responsabilité dans le développement de l’IA générative. Bien que des entreprises comme Google et OpenAI s’appuient fortement sur des armées de sous-traitants et d’employés pour former et affiner leurs modèles d’IA, peu de détails sont connus du public sur ces processus cruciaux.
Avec la course à l’IA générative qui s’accélère et des chatbots comme ChatGPT et Gemini étant déployés à grande échelle, il est essentiel que des garde-fous soient mis en place pour s’assurer que ces systèmes fournissent des informations précises et fiables, en particulier sur des sujets sensibles comme la santé. Des directives comme celles de Google semblent aller dans la mauvaise direction, privilégiant la rapidité à la rigueur.
À mesure que l’IA générative s’intègre dans nos vies, de la recherche aux soins de santé en passant par l’éducation, la nécessité d’une réglementation et d’une surveillance accrues devient de plus en plus pressante. Sans une meilleure compréhension et un meilleur contrôle des processus de formation de l’IA, nous risquons de déployer des systèmes biaisés ou inexacts pouvant avoir des conséquences néfastes dans le monde réel. Il est temps pour l’industrie technologique et les régulateurs de donner la priorité à la transparence, à la responsabilité et à l’éthique dans le développement de l’IA avant qu’il ne soit trop tard.