Google Autorise l’IA dans les Domaines à Haut Risque, avec Supervision Humaine

Dans un contexte où l’intelligence artificielle (IA) générative ne cesse de progresser, Google vient de mettre à jour ses conditions d’utilisation pour permettre à ses clients d’employer ces puissants outils dans des domaines considérés comme « à haut risque ». Une décision qui soulève des questions sur la responsabilité et l’éthique entourant l’IA.

L’IA Générative dans les Secteurs Sensibles : Un Pas en Avant pour Google

Selon la nouvelle politique d’utilisation de l’IA générative de Google, publiée mardi dernier, les clients sont désormais autorisés à utiliser l’IA de Google pour prendre des « décisions automatisées » dans des domaines tels que la santé, l’emploi, le logement, les assurances et la protection sociale. Une évolution majeure, car ces secteurs étaient jusqu’à présent considérés comme trop sensibles pour y laisser libre cours à l’IA.

Toutefois, Google impose une condition : la présence d’une supervision humaine. Autrement dit, l’IA ne peut pas prendre de décisions de manière totalement autonome dans ces domaines. Un opérateur humain doit toujours garder un œil sur le processus et pouvoir intervenir si nécessaire.

Prise de Décision Automatisée : Un Enjeu Majeur

Dans le contexte de l’IA, la prise de décision automatisée fait référence aux décisions prises par un système d’IA sur la base de données factuelles et inférées. Par exemple, un système pourrait décider d’accorder un prêt ou de présélectionner un candidat à l’emploi.

De telles décisions peuvent avoir un impact significatif sur la vie des individus concernés. C’est pourquoi elles sont considérées comme « à haut risque » et font l’objet d’une attention particulière de la part des régulateurs.

Des Règles Plus Strictes chez les Concurrents

Google se démarque ici de ses principaux rivaux dans le domaine de l’IA, comme OpenAI et Anthropic. Ces derniers ont en effet des règles plus strictes concernant l’utilisation de leur IA pour la prise de décision automatisée dans les domaines à haut risque :

  • OpenAI interdit l’utilisation de ses services pour les décisions automatisées concernant le crédit, l’emploi, le logement, l’éducation, la notation sociale et l’assurance.
  • Anthropic autorise l’utilisation de son IA dans des domaines comme le droit, l’assurance et la santé, mais uniquement sous la supervision d’un « professionnel qualifié ». Les clients doivent aussi divulguer qu’ils utilisent l’IA à ces fins.

Préoccupations Réglementaires et Éthiques

L’utilisation de l’IA pour la prise de décision automatisée soulève de nombreuses questions éthiques et réglementaires. Les régulateurs craignent notamment que ces systèmes ne perpétuent des discriminations historiques ou ne profilent les individus de manière préjudiciable.

En Europe, le projet de loi sur l’IA (AI Act) prévoit une surveillance accrue des systèmes d’IA à haut risque. Aux États-Unis, certains États comme le Colorado et la ville de New York ont déjà adopté des lois visant à encadrer l’utilisation de l’IA dans des domaines sensibles comme l’emploi.

Vers une IA Générative Responsable ?

En autorisant l’utilisation de son IA générative dans les domaines à haut risque, Google fait un pari audacieux. La firme semble convaincue que la supervision humaine suffira à prévenir les dérives et à garantir une utilisation éthique et responsable de l’IA.

Reste à savoir si cette approche sera suffisante pour rassurer les régulateurs et le public. L’avenir nous dira si Google a eu raison de faire confiance à l’IA générative, ou si des garde-fous supplémentaires seront nécessaires pour encadrer cette technologie révolutionnaire mais potentiellement risquée.

« L’IA générative est une technologie incroyablement puissante. Utilisée de manière responsable, elle a le potentiel d’apporter d’immenses bénéfices à la société. Mais nous devons rester vigilants et nous assurer que son développement se fasse dans un cadre éthique strict. »

Sundar Pichai, PDG de Google

À lire également