L’entreprise d’intelligence artificielle Scale AI, valorisée à la coquette somme de 13,8 milliards de dollars l’année dernière, fait face à une série noire. En l’espace d’un mois, pas moins de trois poursuites judiciaires ont été engagées contre la licorne de la Silicon Valley concernant ses pratiques de travail. Le dernier procès en date, une plainte collective déposée le 17 janvier, se concentre sur les préjudices psychologiques subis par les travailleurs de la plateforme Outlier.
Forcés d’écrire des contenus violents sans soutien adéquat
Selon la plainte, les travailleurs étaient contraints de rédiger des contenus dérangeants incluant des scènes de violence et d’abus, y compris sur des enfants, sans bénéficier d’un accompagnement psychologique adapté. Lorsqu’ils cherchaient à obtenir un soutien pour leur santé mentale, ils subissaient des représailles. Les plaignants affirment avoir été induits en erreur sur la nature du travail lors de l’embauche et souffrir désormais de problèmes de santé mentale comme des syndromes de stress post-traumatique en raison de leur activité chez Scale AI.
Scale AI force les travailleurs à visionner des contenus horribles et violents pour entraîner ces modèles d’IA
– Glenn Danas, avocat représentant les plaignants
Deux autres procès pour salaires impayés et classification erronée
Ce procès intervient quelques semaines seulement après deux autres plaintes déposées contre Scale AI. Début janvier, une ancienne employée a poursuivi l’entreprise, affirmant avoir été payée en dessous du salaire minimum et avoir été mal classée comme contractuelle. Une plainte similaire avait déjà été déposée en décembre 2024. Steve McKinney, l’un des plaignants du procès du 17 janvier, est également le plaignant principal de la plainte de décembre.
Scale AI se défend et critique le cabinet d’avocats
Du côté de Scale AI, on se défend de toute mauvaise pratique. Joe Osborne, un porte-parole, a critiqué le cabinet d’avocats Clarkson Law Firm, qui représente les plaignants dans deux des trois procès. Il a souligné que ce cabinet avait déjà poursuivi sans succès des entreprises technologiques innovantes par le passé, avec des plaintes jugées trop longues et non pertinentes par un juge fédéral.
Scale AI affirme se conformer à toutes les lois et réglementations en vigueur et disposer de nombreuses mesures de protection pour ses contributeurs, comme la possibilité de se retirer à tout moment, un avertissement avancé sur les contenus sensibles et un accès à des programmes de bien-être. L’entreprise assure également ne pas accepter de projets pouvant inclure du matériel pédopornographique.
Nécessité de réguler l’IA et de protéger les travailleurs
Ces poursuites judiciaires mettent en lumière les enjeux cruciaux autour des conditions de travail dans l’industrie de l’IA. Avec l’essor fulgurant de ce secteur, les entreprises comme Scale AI prospèrent en proposant des services d’annotation de données et d’entraînement de modèles. Mais à quel prix humain ?
De nombreux travailleurs, souvent précaires et peu protégés par leur statut, se retrouvent exposés à des contenus potentiellement traumatisants dans le cadre de leur activité. Sans un encadrement strict et des mesures de soutien psychologique robustes, leur santé mentale est mise en péril.
Au-delà de Scale AI, c’est toute l’industrie de l’IA qui doit urgemment se pencher sur ces questions éthiques et mettre en place des garde-fous pour protéger ses travailleurs. Les autorités ont également un rôle clé à jouer en imposant un cadre réglementaire contraignant.
Car derrière les prouesses technologiques et les levées de fonds record, il y a des femmes et des hommes qui sacrifient leur bien-être mental pour entraîner les IA de demain. Il est grand temps que leurs conditions soient dignes et que l’éthique ne soit pas sacrifiée sur l’autel de la course à l’innovation.
Les enjeux clés des procès contre Scale AI :
- Préjudice psychologique des travailleurs exposés à des contenus violents
- Manque de soutien et de mesures de protection pour la santé mentale
- Salaires non conformes au droit du travail et mauvaise classification des employés
- Nécessité d’un cadre éthique et réglementaire pour l’industrie de l’IA
Il faudra suivre de près le déroulé de ces procès qui pourraient faire jurisprudence et pousser l’écosystème de l’IA à un profond changement de pratiques. Les projecteurs sont désormais braqués sur les conditions de travail dans ce secteur en plein boom mais encore peu régulé. Une chose est sûre : la pression monte pour que l’éthique devienne enfin une priorité, au même titre que la performance des algorithmes.