IA et Humanitaire : Les Avatars Réfugiés à l’Épreuve

Imaginez un instant pouvoir discuter avec une personne fictive, créée par une intelligence artificielle, qui vous raconte la vie dans un camp de réfugiés ou les dilemmes d’un combattant dans un conflit armé. Cette idée, qui semble sortie d’un roman de science-fiction, est devenue réalité grâce à une initiative audacieuse du United Nations University Center for Policy Research (UNU-CPR). Leur projet, baptisé Ask Amina et Ask Abdalla, explore l’utilisation d’avatars IA pour sensibiliser aux enjeux des réfugiés et des conflits. Mais cette innovation soulève une question cruciale : l’IA peut-elle vraiment donner une voix authentique aux populations marginalisées, ou risque-t-elle de les réduire à des simulations numériques ? Plongeons dans cette expérimentation fascinante, ses promesses, ses limites et les débats éthiques qu’elle suscite.

Une Innovation au Service de l’Humanitaire

Le projet Ask Amina et Ask Abdalla est né d’une classe expérimentale dirigée par Eduardo Albrecht, professeur à l’université Columbia et chercheur senior au UNU-CPR. L’objectif ? Utiliser l’intelligence artificielle pour créer des avatars capables de simuler des conversations réalistes avec des profils spécifiques : Amina, une femme fictive ayant fui le conflit au Soudan pour vivre dans un camp de réfugiés au Tchad, et Abdalla, un commandant fictif des Rapid Support Forces (RSF), une milice paramilitaire soudanaise. Ces avatars, conçus avec la technologie HeyGen et basés sur le modèle GPT-4o mini d’OpenAI, s’appuient sur une base de données soigneusement organisée pour répondre de manière crédible et contextuellement adaptée.

L’idée derrière cette initiative est de fournir un outil pédagogique pour les travailleurs humanitaires, les médiateurs ou même les donateurs. En interagissant avec Amina, par exemple, les utilisateurs peuvent poser des questions sur les défis quotidiens dans un camp de réfugiés, comme l’accès à la nourriture ou la sécurité des enfants. Abdalla, quant à lui, permet de simuler des négociations avec un acteur de conflit, offrant ainsi une formation précieuse pour les diplomates. Mais au-delà de l’aspect technique, ce projet soulève une réflexion profonde sur la manière dont la technologie peut amplifier – ou déformer – les voix des populations vulnérables.

« Nous jouions avec le concept, sans proposer cela comme une solution définitive pour l’ONU. »

– Eduardo Albrecht, professeur à Columbia et chercheur au UNU-CPR

Comment Fonctionnent Ces Avatars ?

Les avatars Amina et Abdalla ne sont pas de simples chatbots. Ils combinent plusieurs technologies avancées pour offrir une expérience immersive :

  • Modèles de langage avancés : Basés sur GPT-4o mini, ils génèrent des réponses textuelles fluides et contextuelles.
  • Retrieval-Augmented Generation (RAG) : Une base de données spécifique, créée par un « agent anthropologue » IA, garantit que les réponses s’appuient sur des informations culturelles et contextuelles pertinentes.
  • Avatars visuels : Grâce à HeyGen, Amina et Abdalla prennent une forme visuelle animée, renforçant l’immersion.

Pour tester leur fiabilité, les créateurs ont évalué Amina en lui posant 20 questions tirées de quatre enquêtes distinctes, incluant des données du SENS Nutritional Survey et du Norwegian Refugee Council. Les résultats ont montré que ses réponses correspondaient étroitement aux réalités des populations réfugiées, bien que des ajustements soient nécessaires pour éviter les biais. Abdalla, quant à lui, a été conçu pour refléter les comportements et les décisions d’un commandant paramilitaire, offrant un outil unique pour simuler des scénarios de négociation.

Un Potentiel Révolutionnaire pour l’Humanitaire

Le potentiel des avatars IA dans le secteur humanitaire est immense. Voici quelques applications envisagées :

  • Éducation et sensibilisation : Les avatars peuvent aider à faire comprendre les réalités des réfugiés à un public plus large, y compris les décideurs politiques et les donateurs.
  • Formation : Les travailleurs humanitaires et les médiateurs peuvent s’entraîner à interagir avec des populations difficiles d’accès, comme les combattants armés.
  • Collecte de données : Dans les zones de crise où les enquêtes traditionnelles sont risquées ou lentes, les avatars pourraient fournir des évaluations rapides des besoins.

Par exemple, un donateur basé à New York pourrait dialoguer avec Amina pour comprendre les priorités d’un camp au Tchad, permettant une prise de décision plus rapide et informée. De même, les simulations avec Abdalla pourraient préparer les négociateurs à des discussions complexes dans des contextes de conflit. Ces outils pourraient ainsi combler le fossé entre les réalités sur le terrain et les décideurs éloignés géographiquement.

Les Controverses et Défis Éthiques

Malgré ces promesses, le projet a suscité des réactions mitigées, voire hostiles, lors d’un atelier organisé par le UNU-CPR. De nombreux participants, issus d’organisations humanitaires et d’ONG, ont exprimé des inquiétudes sur l’utilisation de l’IA pour représenter des réfugiés. Parmi les critiques :

  • Déshumanisation : Les avatars risquent de réduire les réfugiés à des simulations, alors qu’ils sont capables de raconter leurs propres histoires.
  • Biais technologiques : Les modèles d’IA, comme ceux utilisés pour Amina et Abdalla, peuvent reproduire les préjugés de leurs créateurs ou des données sur lesquelles ils sont entraînés.
  • Manque d’authenticité : Certains ont noté que les avatars, avec leur ton parfois trop optimiste ou leur accent américain, manquent de réalisme dans des contextes graves.

« Pourquoi présenter les réfugiés comme des créations IA alors qu’il y a des millions de personnes réelles qui peuvent raconter leurs histoires ? »

– Participant à l’atelier du UNU-CPR

Ces critiques soulignent un dilemme éthique fondamental : comment garantir que l’IA amplifie les voix des marginalisés sans les remplacer ? Le risque de déshumanisation est particulièrement préoccupant dans un contexte où les réfugiés sont déjà souvent réduits à des chiffres ou à des récits simplifiés pour des besoins politiques ou financiers.

Vers une Gouvernance Éthique de l’IA

Pour répondre à ces préoccupations, les chercheurs du UNU-CPR insistent sur la nécessité d’une gouvernance éthique. Ils proposent plusieurs garde-fous :

  • Participation communautaire : Les populations représentées par les avatars doivent avoir un droit de regard sur leur conception et leur utilisation.
  • Transparence : Les limites et les biais des avatars doivent être clairement communiqués aux utilisateurs.
  • Complémentarité : Les avatars doivent servir à préparer des interactions humaines, non à les remplacer.

Eleanore Fournier-Tombs, experte en politique d’IA au UNU-CPR, souligne que l’adoption de l’IA dans l’humanitaire est inévitable. « Quelqu’un utilisera des agents IA dans ce contexte, et si ce n’est pas fait avec des principes éthiques, cela pourrait causer plus de mal que de bien », avertit-elle. Cette réflexion est d’autant plus pertinente que d’autres initiatives, comme le projet Jetson du UNHCR, utilisent déjà l’IA pour anticiper les flux migratoires en Somalie, prouvant que la technologie peut transformer l’aide humanitaire lorsqu’elle est utilisée de manière responsable.

Un Équilibre entre Innovation et Humanité

Le projet Ask Amina et Ask Abdalla illustre le paradoxe de l’intelligence artificielle dans l’humanitaire : une technologie capable de révolutionner la collecte de données et la sensibilisation, mais qui doit être maniée avec prudence pour éviter de déshumaniser ceux qu’elle cherche à aider. Si les avatars peuvent offrir des perspectives précieuses dans des contextes où l’accès direct est limité, ils ne doivent jamais remplacer les voix réelles des réfugiés ou des acteurs de conflits.

Pour les professionnels du marketing, des startups et de la technologie, ce projet est une leçon sur l’importance d’intégrer l’éthique dans l’innovation. Les entreprises technologiques, en particulier celles développant des chatbots IA ou des solutions pour le secteur social, doivent tirer des enseignements de cette expérimentation. En équilibrant innovation et responsabilité, l’IA peut devenir un outil puissant pour amplifier les voix marginalisées, tout en respectant leur dignité.

« L’objectif n’est pas de remplacer les humains, mais de préparer des interactions plus efficaces avec eux. »

– UNU-CPR, rapport sur les agents IA

Perspectives pour l’Avenir

Alors que l’IA continue de transformer des secteurs comme le marketing, la finance ou l’e-commerce, son application dans l’humanitaire ouvre un nouveau champ de possibilités. Le projet du UNU-CPR, bien qu’expérimental, pose les bases d’une réflexion plus large sur la manière dont les technologies peuvent servir des causes sociales. À l’avenir, nous pourrions voir des avatars IA utilisés pour :

  • Faciliter l’inclusion digitale des populations marginalisées dans les processus de décision.
  • Renforcer la formation en ligne pour les travailleurs humanitaires dans des contextes de crise.
  • Améliorer la gestion de communauté en permettant des interactions simulées avec des groupes difficiles d’accès.

En conclusion, Ask Amina et Ask Abdalla ne sont pas seulement une prouesse technologique, mais aussi un miroir des défis éthiques auxquels notre société est confrontée à l’ère de l’IA. Pour les entrepreneurs et les innovateurs, ce projet est un rappel que la technologie, aussi puissante soit-elle, doit toujours être au service de l’humain. En gardant l’éthique au cœur de leurs démarches, les entreprises technologiques peuvent non seulement innover, mais aussi contribuer à un monde plus juste et inclusif.

author avatar
MondeTech.fr

À lire également