Neurophos Lève 110M$ pour Révolutionner l’IA

Imaginez un monde où les data centers qui consomment des quantités astronomiques d’électricité pour faire tourner les modèles d’IA les plus puissants deviennent soudainement bien plus sobres énergétiquement, tout en multipliant par 25 la vitesse de traitement. C’est précisément ce que promet une startup texane qui vient de boucler l’une des levées de fonds les plus impressionnantes du début d’année 2026 dans le domaine de l’IA hardware.

Neurophos, spin-off de l’université Duke et incubée par Metacept, a annoncé avoir levé 110 millions de dollars en Série A. Un tour de table mené par Gates Frontier (le fonds de Bill Gates) et qui a attiré des investisseurs de très haut vol : M12 (le fonds corporate de Microsoft), Aramco Ventures, Bosch Ventures, Carbon Direct et plusieurs autres. Une preuve supplémentaire que le secteur des infrastructures IA attire désormais les plus gros capitaux institutionnels.

Des métamatériaux nés d’une cape d’invisibilité

L’histoire commence il y a plus de vingt ans, lorsque David R. Smith, professeur à Duke University, parvient à créer une véritable cape d’invisibilité… aux micro-ondes. Pas tout à fait comme dans Harry Potter, mais suffisamment pour démontrer que les métamatériaux – ces structures artificielles conçues pour manipuler les ondes électromagnétiques d’une manière impossible dans la nature – pouvaient révolutionner la physique.

Ces travaux pionniers en science des matériaux ont progressivement migré vers d’autres domaines, dont l’électromagnétisme et, plus récemment, l’optique appliquée au calcul. C’est sur cette base scientifique solide que Neurophos a bâti sa technologie de rupture : un modulateur de surface métamatérielle capable de réaliser des multiplications matricielles-vectorielles directement dans le domaine optique.

« Quand vous réduisez drastiquement la taille du transistor optique, vous pouvez effectuer énormément plus de calculs dans le domaine optique avant de devoir reconvertir en domaine électronique. »

– Dr. Patrick Bowen, CEO et co-fondateur de Neurophos

Cette citation résume l’essence de l’innovation. Les processeurs actuels, même les plus avancés comme le Blackwell de Nvidia, restent prisonniers des limitations physiques du silicium traditionnel : chaleur, consommation électrique exponentielle avec la fréquence, et goulots d’étranglement dans les conversions analogique-numérique.

Pourquoi l’inférence IA est devenue le goulot d’étranglement majeur

Si l’entraînement des grands modèles fait la une, c’est bien l’inférence – l’utilisation quotidienne des modèles déjà entraînés – qui représente aujourd’hui la plus grosse dépense en calcul pour les hyperscalers et les entreprises déployant massivement l’IA générative.

Chaque requête ChatGPT, chaque génération d’image Midjourney, chaque recommandation ultra-personnalisée sur les plateformes e-commerce ou streaming : tout cela consomme des dizaines, voire des centaines de milliards d’opérations par seconde. Et la facture énergétique explose.

Neurophos affirme que son Optical Processing Unit (OPU) peut atteindre 235 Peta Operations per Second (POPS) tout en consommant seulement 675 watts, contre 9 POPS pour le Nvidia B200 qui tire 1000 watts. Soit un gain d’efficacité énergétique d’environ 25x et une vitesse brute 26x supérieure.

  • Fréquence d’horloge : 56 GHz (contre ~2 GHz pour les cœurs tensoriels les plus rapides actuels)
  • Consommation : 675 W pour 235 POPS
  • Comparaison Nvidia B200 : ~1000 W pour 9 POPS
  • Avantage revendiqué : ~25x plus efficace énergétiquement et ~26x plus rapide

Ces chiffres, s’ils sont confirmés en conditions réelles, représenteraient un bond technologique comparable à celui qui a séparé les premiers GPU grand public des TPU de Google en 2016-2018.

Les défis historiques de la photonique résolus ?

La photonique promet depuis des décennies des avantages théoriques majeurs : vitesse de la lumière, absence (quasi totale) de dissipation thermique par effet Joule, bande passante énorme. Mais la réalité industrielle a toujours été cruelle :

  • Composants optiques beaucoup plus gros que les transistors CMOS
  • Difficulté à miniaturiser et intégrer à grande échelle
  • Convertisseurs O/E/O (optique-électronique-optique) gourmands et encombrants
  • Processus de fabrication non compatibles avec les fonderies silicium classiques

Neurophos prétend avoir cassé ces barrières grâce à sa metasurface modulator qui serait 10 000 fois plus petite qu’un modulateur optique traditionnel. Cette miniaturisation extrême permettrait d’intégrer des milliers de ces unités sur une seule puce, réalisant ainsi un parallélisme massif directement dans le domaine optique avant toute conversion électronique.

Autre point crucial : la startup affirme que ses puces peuvent être fabriquées avec les outils, matériaux et procédés standards des fonderies silicium actuelles. Pas besoin de changer toute la chaîne de production mondiale – un argument industriel majeur face aux approches purement photoniques qui nécessitent des lignes de production spécifiques.

Un marché dominé par Nvidia… mais sous pression

Nvidia reste l’acteur incontesté avec plus de 90 % du marché des accélérateurs IA. Sa domination s’appuie sur trois piliers :

  • Écosystème logiciel CUDA ultra-mature
  • Améliorations constantes des architectures (H100 → B200 → Blackwell Ultra → Rubin)
  • Effet réseau : plus les clients achètent, plus l’écosystème se renforce

Mais la loi de Moore ralentit, les nœuds 2 nm et 1,4 nm arrivent à des limites physiques et économiques très dures. Patrick Bowen, le CEO de Neurophos, est clair :

« Même en projetant les améliorations d’architecture Nvidia et les nœuds TSMC jusqu’en 2028, nous pensons conserver un avantage massif en efficacité énergétique et en vitesse brute. »

– Dr. Patrick Bowen

Si cette prédiction se réalise, 2028 pourrait marquer le début d’une ère où plusieurs architectures coexistent : GPU/NPU classiques pour l’entraînement et certaines tâches, OPU photoniques pour l’inférence massive à très faible latence et très haute efficacité.

Microsoft, déjà très intéressé

Parmi les investisseurs, M12 n’est pas là par hasard. Marc Tremblay, VP et Technical Fellow chez Microsoft pour l’infrastructure IA core, a tenu à saluer publiquement la technologie :

« L’inférence IA moderne exige des quantités monumentales de puissance et de calcul. Nous avons besoin d’une avancée en calcul comparable aux bonds observés dans les modèles IA eux-mêmes. C’est exactement ce que l’équipe de Neurophos est en train de développer. »

– Dr. Marc Tremblay, Microsoft

Quand le principal concurrent de Nvidia (via son partenariat OpenAI) affiche un tel intérêt, cela donne du crédit à la promesse technologique.

Feuille de route et prochaines étapes

Neurophos prévoit de livrer ses premiers processeurs photoniques intégrés d’ici mi-2028. D’ici là, plusieurs jalons :

  • Développement du premier système photonique intégré complet
  • Modules OPU prêts pour data center
  • Stack logiciel complet
  • Hardware early-access pour développeurs
  • Ouverture d’un bureau d’ingénierie à San Francisco
  • Extension significative du siège à Austin, Texas

La société revendique déjà plusieurs clients signés (non nommés) et un intérêt très marqué de la part de plusieurs hyperscalers.

Quelles implications pour les startups et le marketing digital ?

Pour les entrepreneurs et marketeurs qui nous lisent, cette avancée pourrait avoir des répercussions concrètes dans les 3 à 5 prochaines années :

  • Coût marginal de l’inférence qui chute drastiquement → démocratisation de l’IA générative personnalisée à très grande échelle
  • Latence encore plus faible → nouvelles expériences utilisateur en temps réel (chat, génération vidéo live, agents autonomes)
  • Meilleure efficacité énergétique → possibilité de déployer des modèles massifs sur edge computing (smartphones, voitures, robots)
  • Nouvelles contraintes marketing : comment communiquer sur une IA « verte » quand vos concurrents restent sur du GPU classique ?

Les marques qui sauront raconter l’histoire d’une IA plus responsable et plus performante pourraient gagner un avantage compétitif significatif dans un marché où l’empreinte carbone devient un critère d’achat pour de plus en plus d’entreprises.

Risques et points de vigilance

Malgré l’enthousiasme légitime, plusieurs défis demeurent :

  • Validation indépendante des performances annoncées
  • Maturité du logiciel et intégration avec les frameworks existants (PyTorch, JAX, TensorFlow)
  • Coût de production à grande échelle des metasurfaces
  • Concurrence accrue : Lightmatter, Ayar Labs, Celestial AI, Luminous, etc.
  • Écosystème Nvidia qui continue de s’améliorer rapidement

Il faudra probablement attendre 2027-2028 pour savoir si Neurophos parvient vraiment à transformer sa promesse technologique en produit commercial rentable et largement adopté.

Conclusion : un futur où la lumière dépasse le silicium ?

Neurophos ne prétend pas remplacer Nvidia partout et pour tout. Mais en se concentrant sur le cas d’usage le plus coûteux et le plus scalable – l’inférence massive – et en apportant une réponse physique fondamentalement différente (optique + métamatériaux vs. transistors CMOS), la jeune pousse texane pourrait bien devenir l’un des acteurs les plus disruptifs de la décennie dans l’infrastructure IA.

Pour les entrepreneurs, investisseurs et marketeurs du numérique, suivre de près cette filière photonique semble aujourd’hui plus pertinent que jamais. Car derrière les annonces spectaculaires de nouveaux modèles de langage se cache une course bien plus fondamentale : celle de la plateforme de calcul qui permettra (ou non) de rendre ces modèles économiquement viables à l’échelle de milliards d’utilisateurs quotidiens.

Et si la réponse à cette équation passait par la lumière plutôt que par l’électricité ? 2028 nous le dira.

author avatar
MondeTech.fr

À lire également