Imaginez pouvoir avoir votre voix doublée instantanément dans une langue étrangère lors de vos réunions en ligne. C’est bientôt ce que va permettre Microsoft avec son nouvel outil Interpreter pour Microsoft Teams. Annoncé lors de la conférence Microsoft Ignite 2024, cet outil de traduction vocale en temps réel va simuler votre voix dans jusqu’à 9 langues.
Cloner sa voix pour une expérience plus personnelle
Grâce à Interpreter, les utilisateurs de Microsoft Teams pourront bientôt avoir une doublure virtuelle de leur propre voix s’exprimant en anglais, français, allemand, italien, japonais, coréen, portugais, mandarin et espagnol lors de réunions. Le but : offrir une expérience plus personnelle et engageante pour tous les participants.
Imaginez pouvoir sonner comme vous dans une langue différente.
– Jared Spataro, CMO de Microsoft
Selon Microsoft, Interpreter ne stockera aucune donnée biométrique et pourra être désactivé dans les paramètres de Teams. La fonctionnalité sera disponible début 2025 pour les abonnés Microsoft 365.
Un marché en plein essor
Microsoft n’est pas la seule entreprise à miser sur les technologies de traduction et de clonage vocal. Meta teste actuellement un outil de traduction automatique des voix dans les Reels Instagram. La société ElevenLabs propose quant à elle une plateforme avancée de génération de parole multilingue.
Malgré certaines limitations par rapport aux traducteurs humains, l’IA attire de plus en plus d’entreprises grâce aux économies potentielles. Selon Markets and Markets, le secteur des technologies de traitement du langage naturel, dont la traduction, pourrait peser 35,1 milliards de dollars d’ici 2026.
Les risques des clones vocaux
Si les avancées en IA impressionnent, elles soulèvent aussi des inquiétudes. Les deepfakes, ces contenus manipulés hyper-réalistes, prolifèrent sur les réseaux sociaux, rendant plus difficile la distinction entre le vrai et le faux. Des escrocs les utilisent même pour soutirer de l’argent en se faisant passer pour un proche.
Récemment, des cybercriminels auraient utilisé un clone vocal lors d’une réunion Teams pour convaincre une entreprise de transférer 25 millions de dollars. Face à ces risques, OpenAI a même renoncé à diffuser son outil de clonage vocal cette année.
Une utilisation encadrée chez Microsoft
Pour l’instant, l’utilisation d’Interpreter semble relativement circonscrite chez Microsoft. Mais cela n’exclut pas les possibilités de détournement, comme faire traduire un message trompeur pour cibler quelqu’un dans sa langue.
Espérons que Microsoft communiquera prochainement sur les garde-fous mis en place autour d’Interpreter. Car si le clonage vocal promet de faciliter les échanges, il doit impérativement s’accompagner de solides garanties en termes de sécurité et de consentement.
- Un outil prometteur pour faciliter les échanges multilingues
- Des inquiétudes légitimes sur les risques de détournement
- La nécessité de solides garde-fous éthiques et sécuritaires