L’essor fulgurant de l’intelligence artificielle ces dernières années a bousculé notre façon de travailler et de communiquer. Parmi les outils les plus plébiscités, on retrouve notamment les assistants de transcription automatique comme Otter AI. Si ces technologies offrent un gain de temps et de productivité indéniable, elles soulèvent aussi de sérieuses questions quant à la confidentialité des données et la gestion des informations sensibles en entreprise. L’incident récemment vécu par le chercheur Alex Bilzerian avec Otter AI illustre parfaitement ces enjeux.
Un outil de transcription automatique au cœur de la polémique
Alex Bilzerian utilisait Otter AI pour enregistrer une réunion Zoom avec des investisseurs. Quelle ne fut pas sa surprise de recevoir, en plus du compte-rendu de la réunion, des heures de conversations privées entre ces derniers, révélant au passage des détails confidentiels sur leur entreprise. Un incident qui a poussé Bilzerian à abandonner tout accord avec eux, par crainte de ne pouvoir protéger efficacement les données sensibles.
Malheureusement, ce cas est loin d’être isolé. D’autres utilisateurs ont rapporté des mésaventures similaires, où des informations sensibles ont été partagées par inadvertance suite à de mauvais réglages ou une méconnaissance des capacités de l’outil. Le risque ? Voir fuiter des secrets d’entreprise ou des discussions stratégiques, ouvrant la porte à des poursuites judiciaires ou des brèches de confiance majeures.
La technologie progresse plus vite que notre capacité à la maîtriser
Ce qui transparaît avec l’affaire Bilzerian, c’est le décalage croissant entre le rythme effréné des avancées en IA et notre aptitude à les contrôler et les comprendre pleinement. Tous les utilisateurs de ces outils ne sont pas forcément des experts en technologie. Il est donc primordial que les entreprises maîtrisent les paramètres et les implications de ces solutions avant de les déployer massivement.
Les pratiques de certains assistants virtuels comme Otter AI, notamment la possibilité d’envoyer automatiquement les enregistrements et transcriptions aux participants même après la fin de la réunion, représentent un vrai défi pour la confidentialité et la sécurité des données. Face à ces inquiétudes, Otter AI rappelle que les utilisateurs ont un contrôle total sur les paramètres de partage des conversations et peuvent les modifier ou les stopper à tout moment.
L’IA, une alliée de taille pour la productivité… si elle est bien maîtrisée
Malgré ces écueils, force est de constater que les fonctionnalités offertes par les assistants virtuels IA séduisent de nombreuses entreprises en quête de gains de productivité :
- Salesforce a lancé Agentforce, une offre d’IA permettant de créer des agents virtuels pour l’aide aux ventes et au service client
- Slack intègre des fonctions d’IA pour résumer les conversations, rechercher des sujets et générer des récapitulatifs quotidiens
Cependant, l’adoption de ces technologies doit s’accompagner d’une bonne compréhension de leurs réglages et implications pour éviter tout comportement automatique non désiré. Par exemple, la fonction « auto-transcription » peut continuer à fonctionner même après le départ des participants, constituant une faille potentielle de confidentialité.
Bien que la technologie évolue rapidement, les humains doivent être capables de superviser et de réguler efficacement son usage pour éviter les incidents regrettables.
Au final, même si l’IA peut grandement nous aider dans notre travail, ce sont les compétences humaines qui restent essentielles pour garantir une utilisation correcte et éthique de ces outils. La supervision humaine demeure indispensable pour tirer pleinement parti du potentiel de l’IA, sans en subir les dérives. Un équilibre délicat à trouver, au cœur des défis des entreprises pour les années à venir.