Imaginez un monde où vos contenus les plus précieux, fruits d’années de journalisme rigoureux, sont aspirés en temps réel par une intelligence artificielle pour alimenter les réponses d’un concurrent direct. C’est exactement ce que reproche le New York Times à Perplexity, cette startup qui ambitionne de révolutionner la recherche en ligne grâce à l’IA. En décembre 2025, le célèbre journal américain a déposé une plainte pour violation massive de droits d’auteur. Une affaire qui cristallise les tensions grandissantes entre les géants des médias et les innovateurs de l’intelligence artificielle.
Pour les entrepreneurs, marketeurs et passionnés de tech qui nous lisent, cette bataille judiciaire n’est pas qu’une simple querelle juridique. Elle touche au cœur même du modèle économique des startups IA : comment monétiser des outils puissants sans piétiner les droits des créateurs de contenu ? Et surtout, comment anticiper les risques légaux dans un secteur en pleine explosion ?
Les Faits : Pourquoi Le New York Times Atteint Perplexity En Justice
Le 5 décembre 2025, le New York Times a officiellement porté plainte contre Perplexity devant un tribunal fédéral. Les accusations sont lourdes : la startup utiliserait sans autorisation des articles protégés par copyright pour générer des réponses à ses utilisateurs, reproduisant parfois textuellement ou quasi-textuellement des passages entiers.
Le cœur du problème réside dans la technologie de retrieval-augmented generation (RAG) employée par Perplexity. Contrairement aux modèles classiques qui s’appuient uniquement sur leurs données d’entraînement, le RAG va chercher en temps réel des informations sur le web, les synthétise et les reformule. Problème : selon le plaignant, Perplexity contourne les paywalls et extrait du contenu premium pour le redistribuer gratuitement.
« RAG permet à Perplexity de crawler internet et de voler du contenu derrière notre paywall pour le livrer en temps réel à ses clients. Ce contenu devrait être accessible uniquement à nos abonnés payants. »
– Graham James, porte-parole du New York Times
Le journal reproche également à l’IA de Perplexity d’avoir halluciné des informations fausses tout en les attribuant au New York Times, ce qui porterait atteinte à sa réputation.
Une Stratégie Bien Rodée Des Médias Traditionnels
Cette plainte n’arrive pas de nulle part. Elle s’inscrit dans une longue série d’actions judiciaires menées par les éditeurs contre les entreprises technologiques. Radio, télévision, internet, réseaux sociaux… l’histoire se répète. Mais cette fois, les enjeux financiers sont colossaux.
Le New York Times utilise clairement les tribunaux comme levier de négociation. Objectif : forcer les entreprises d’IA à signer des accords de licence rémunérés. Une tactique déjà éprouvée avec succès contre d’autres acteurs.
D’ailleurs, le journal n’est pas opposé par principe aux partenariats avec l’IA. Preuve en est : il a conclu un accord pluriannuel avec Amazon pour licencier son contenu aux modèles d’intelligence artificielle du géant du e-commerce.
Perplexity : Une Startup Dans La Tourmente
De son côté, Perplexity tente de jouer la carte de l’innovation responsable. La société a lancé un Publishers’ Program l’an dernier, partageant une partie de ses revenus publicitaires avec certains médias partenaires comme TIME, Fortune ou le Los Angeles Times.
Plus récemment, elle a introduit Comet Plus, un abonnement à 5 dollars par mois dont 80 % des revenus sont reversés aux éditeurs participants. Un accord pluriannuel a même été signé avec Getty Images pour les photos.
« Les éditeurs poursuivent les nouvelles technologies depuis cent ans, de la radio à l’IA. Heureusement, ça n’a jamais fonctionné, sinon on communiquerait encore par télégraphe. »
– Jesse Dwyer, responsable communication de Perplexity
Une réponse ironique qui cache mal la pression croissante. Car Perplexity fait face à une vague de plaintes : Chicago Tribune, News Corp, Encyclopedia Britannica, Reddit… La liste s’allonge dangereusement.
Les Enjeux Techniques : Comprendre Le RAG Et Ses Risques
Pour bien saisir l’affaire, il faut comprendre comment fonctionne le RAG. Cette architecture hybride combine :
- Une base de connaissances externe mise à jour en continu
- Un modèle de langage qui génère la réponse finale
- Un système de récupération d’informations pertinent
L’avantage ? Des réponses plus actuelles et précises que celles des LLM traditionnels. L’inconvénient ? Un risque élevé de reproduction non autorisée de contenus protégés.
Pour les startups qui développent des outils similaires, la leçon est claire : il faut mettre en place des garde-fous robustes (filtre de sources, paraphrase systématique, citation obligatoire) pour éviter les poursuites.
Fair Use Ou Vol Organisé ? Le Débat Juridique
Le nœud du problème reste la doctrine du fair use aux États-Unis. Les entreprises d’IA arguent que l’utilisation transformative de contenus publics pour entraîner ou alimenter leurs modèles est légale. Les éditeurs, eux, considèrent qu’il s’agit d’une exploitation commerciale directe qui prive les créateurs de revenus.
Des précédents récents commencent à dessiner les contours :
- Le règlement à 1,5 milliard de dollars d’Anthropic dans l’affaire des livres piratés
- La plainte toujours en cours du New York Times contre OpenAI et Microsoft
- Les accords de licence signés par OpenAI avec Associated Press, Axel Springer ou Vox Media
Clairement, la tendance est à la monétisation du contenu plutôt qu’à la gratuité totale.
Impacts Pour Les Startups Et Entrepreneurs Tech
Si vous lancez une startup dans l’IA générative ou le search augmentée, cette affaire doit vous alerter sur plusieurs points critiques :
- Budget juridique : prévoyez dès le début des fonds pour d’éventuelles négociations ou litiges
- Partenariats éditeurs : explorer dès tôt des programmes de revenue sharing
- Transparence sources : citez systématiquement les origines de l’information
- Paraphrase avancée : investissez dans des modèles qui reformulent profondément plutôt que de coller
- Respect robots.txt : même si techniquement contournable, ignorer les instructions des sites est risqué
Les investisseurs, eux aussi, scrutent désormais ces risques. Une levée de fonds peut être compromise si le modèle économique repose trop lourdement sur du contenu tiers non licencié.
Vers Un Nouveau Modèle Économique Pour L’IA ?
À long terme, ces conflits pourraient redessiner l’écosystème de l’intelligence artificielle. On assiste déjà à l’émergence de deux voies :
- Les accords de licence massifs (comme ceux d’OpenAI ou Google)
- Les places de marché de données où les créateurs fixent leurs conditions
Pour les médias, c’est une opportunité de diversifier leurs revenus au-delà de la publicité et des abonnements. Pour les startups IA, c’est le prix à payer pour une croissance durable et éthique.
Et Après ? Les Prochaines Étapes Du Litige
Le procès pourrait durer plusieurs années. En attendant, Perplexity risque une injonction préliminaire qui l’obligerait à bloquer l’accès aux contenus du New York Times. Des dommages et intérêts substantiels sont également réclamés.
Mais l’impact le plus important sera probablement extra-judiciaire : cette affaire va accélérer les négociations entre éditeurs et entreprises d’IA. On peut s’attendre à une vague d’accords de licence dans les mois qui viennent.
En conclusion, cette confrontation entre le New York Times et Perplexity illustre parfaitement la maturité forcée du secteur de l’intelligence artificielle. L’innovation effrénée des dernières années cède peu à peu la place à une approche plus responsable, plus régulée et – espérons-le – plus équitable pour tous les acteurs. Une évolution indispensable si l’on veut que l’IA continue de transformer positivement nos vies sans détruire les industries qui produisent la connaissance.
Pour les entrepreneurs que vous êtes, la leçon est simple : innover oui, mais avec une vision claire des implications légales et éthiques. L’avenir de l’IA se jouera autant dans les laboratoires que dans les salles d’audience.







