Google Utilise l’IA Claude pour Améliorer Gemini

Dans la course effrénée au développement de l’intelligence artificielle, les géants de la tech rivalisent d’ingéniosité pour perfectionner leurs modèles. Une récente découverte révèle que Google fait appel à l’IA Claude d’Anthropic pour améliorer les performances de son modèle maison, Gemini. Cette collaboration soulève des questions quant à l’utilisation éthique des IA concurrentes et met en lumière les enjeux de cette quête d’excellence.

Google mise sur Claude pour booster Gemini

Selon des documents internes consultés par TechCrunch, les équipes de Google en charge de perfectionner Gemini comparent systématiquement ses réponses à celles générées par Claude. Les contractants notent chaque sortie selon divers critères tels que la véracité et la concision, disposant de 30 minutes pour déterminer quel modèle l’emporte.

Cette approche comparative est monnaie courante dans l’industrie, les entreprises évaluant leurs IA à l’aune de benchmarks sectoriels. Toutefois, l’implication directe de Claude dans le processus d’amélioration de Gemini suscite des interrogations quant au respect des conditions d’utilisation d’Anthropic, qui interdisent l’accès à son IA pour développer des produits concurrents sans accord préalable.

Claude, parangon de sécurité ?

Les contractants de Google ont remarqué que Claude semblait mettre davantage l’accent sur la sécurité comparé à Gemini. Qualifié comme ayant « les paramètres de sécurité les plus stricts », Claude refuse de répondre à certaines requêtes jugées risquées, là où Gemini peut commettre de « graves violations de sécurité ».

Claude ne répondra pas à des demandes impliquant de la nudité ou du bondage, contrairement à Gemini qui peut alors générer du contenu hautement problématique.

Cette prudence de Claude s’explique par les efforts d’Anthropic pour développer une IA éthique et responsable. L’entreprise a mis au point un ensemble de garde-fous pour éviter les dérives, une approche qui semble porter ses fruits au vu des retours des testeurs de Google.

Google et Anthropic, entre partenariat et concurrence

Si Google est un investisseur majeur d’Anthropic, cela ne lui donne pas pour autant un passe-droit pour exploiter Claude à sa guise. Les conditions d’utilisation sont claires :

  • Pas d’accès pour développer un produit concurrent
  • Pas d’entraînement de modèles IA rivaux

Google assure ne pas enfreindre ces règles, indiquant comparer les sorties des modèles dans le cadre de ses évaluations, sans pour autant entraîner Gemini sur Claude. Difficile cependant de tracer une frontière nette entre comparaison et exploitation, surtout quand les équipes dédiées à Gemini sont exposées quotidiennement aux réponses de Claude.

La course à l’IA soulève des questions éthiques

Au-delà du cas Google-Anthropic, cette affaire illustre les dilemmes éthiques qui se posent dans la course à l’IA. Jusqu’où les entreprises peuvent-elles aller pour perfectionner leurs modèles ? L’utilisation d’IA concurrentes est-elle acceptable si elle permet d’obtenir de meilleures performances ?

Ces questions prennent une dimension particulière dès lors qu’on touche à des domaines sensibles comme la santé. Des documents internes révèlent l’inquiétude des contractants de Google quant à la capacité de Gemini à générer des informations potentiellement erronées sur ces sujets. Un modèle IA mal entraîné pourrait avoir de lourdes conséquences…

L’avenir de l’IA passe par une collaboration éthique

S’il est crucial pour les acteurs de l’IA de sans cesse repousser les limites, cela ne doit pas se faire au détriment de l’éthique. Les géants de la tech ont la responsabilité de montrer l’exemple en adoptant des pratiques transparentes et responsables.

Plutôt que d’utiliser les IA concurrentes à leur insu, pourquoi ne pas envisager des partenariats ouverts et encadrés ? Un partage des connaissances et des bonnes pratiques profiterait à l’ensemble du secteur et favoriserait le développement d’une IA de confiance, au service du bien commun.

Les révélations autour de l’utilisation de Claude par Google doivent servir d’électrochoc. Il est temps pour l’industrie de se doter de standards éthiques ambitieux et de mécanismes de contrôle indépendants. Seule une collaboration sincère et responsable permettra de libérer tout le potentiel de l’IA, sans sacrifier nos valeurs sur l’autel de la performance.

À lire également