La transformation d’OpenAI en entreprise à but lucratif ne fait pas l’unanimité. Elon Musk, un des contributeurs initiaux de l’organisation, s’y oppose fermement et il n’est pas seul dans cette bataille. L’ONG Encode a en effet déposé un mémoire d’amicus curiae pour soutenir l’injonction de Musk visant à stopper cette transition.
OpenAI, une mission philanthropique en péril ?
Fondé en 2015 en tant que laboratoire de recherche à but non lucratif, OpenAI s’était donné pour mission de développer une intelligence artificielle sûre et bénéfique pour l’humanité. Mais face à des expériences de plus en plus coûteuses, l’organisation a adopté une structure hybride avec un volet lucratif contrôlé par une entité à but non lucratif. Aujourd’hui, OpenAI souhaite franchir un nouveau cap en transformant sa branche lucrative en une société d’intérêt public du Delaware (PBC).
Pour Elon Musk, c’est une trahison de la mission originelle d’OpenAI. Dans sa plainte déposée en novembre, il accuse l’organisation d’avoir abandonné sa vocation philanthropique et de priver ses rivaux, dont sa propre startup xAI, de capitaux. Des accusations qu’OpenAI rejette en bloc, n’y voyant qu’un cas de mauvais perdant.
L’ONG Encode monte au créneau
Mais Musk n’est pas seul dans ce combat. L’ONG Encode, qui avait co-parrainé le projet de loi californien SB 1047 sur la sécurité de l’IA, a demandé l’autorisation de déposer un mémoire d’amicus curiae pour appuyer l’injonction de Musk. Selon Encode, laisser OpenAI devenir une entreprise à but lucratif minerait sa mission de développer une IA « sûre et bénéfique pour le public ».
Si le monde est vraiment à l’aube d’une nouvelle ère d’intelligence artificielle générale (AGI), alors le public a un intérêt profond à ce que cette technologie soit contrôlée par une organisation caritative légalement tenue de privilégier la sécurité et l’intérêt public, plutôt que par une entreprise focalisée sur les retours financiers pour quelques investisseurs privilégiés.
Extrait du mémoire d’Encode
Sneha Revanur, fondatrice et présidente d’Encode, va plus loin en accusant OpenAI d’ »internaliser les profits de l’IA mais d’en externaliser les conséquences pour l’humanité ». Elle appelle la justice à intervenir pour garantir que le développement de l’IA serve l’intérêt général.
Des soutiens de poids
Le mémoire d’Encode a reçu le soutien de personnalités éminentes du monde de l’IA comme Geoffrey Hinton, pionnier du domaine et lauréat du prix Nobel 2024, ou encore Stuart Russell, professeur d’informatique à Berkeley et directeur du Center for Human-Compatible AI.
Pour Hinton, permettre à OpenAI de renier ses engagements en matière de sécurité quand cela l’arrange enverrait un très mauvais signal aux autres acteurs de l’écosystème. Il rappelle qu’OpenAI a bénéficié de nombreux avantages fiscaux et autres grâce à son statut d’organisme à but non lucratif.
Meta s’invite dans la danse
Avec Encode, c’est un autre poids lourd de la tech qui s’immisce dans ce bras de fer : Meta, la maison mère de Facebook et rival d’OpenAI sur le terrain de l’IA. En décembre, Meta a envoyé une lettre au procureur général de Californie Rob Bonta, arguant que laisser OpenAI changer de statut aurait des « implications sismiques pour la Silicon Valley ».
Selon les avocats d’Encode, les projets d’OpenAI reviendraient à transformer une organisation tenue par la loi de garantir la sécurité de l’IA avancée en une entité devant « équilibrer » cette considération avec les intérêts financiers de ses actionnaires. Le devoir fiduciaire d’OpenAI envers l’humanité s’évanouirait, la loi du Delaware stipulant clairement que les dirigeants d’une PBC n’ont aucun devoir envers le public.
La sécurité de l’IA en question
Ces préoccupations font écho à celles exprimées en interne chez OpenAI. Plusieurs employés de haut niveau ont quitté l’entreprise ces derniers mois, dont Miles Brundage, chercheur de longue date sur les politiques d’IA. Il craint que l’entité à but non lucratif ne devienne une « chose secondaire » servant de caution à la PBC pour fonctionner comme une entreprise normale sans traiter les problèmes potentiels.
Au cœur de ce litige, c’est bien la question de la sécurité et de la gouvernance de l’IA qui est posée. Avec les progrès fulgurants du domaine et la perspective d’une IA générale se rapprochant, de nombreuses voix s’élèvent pour réclamer un cadre strict afin de garantir un développement responsable et éthique de ces technologies. La justice californienne, en statuant sur le cas OpenAI, pourrait créer un précédent important en la matière.