Waymo : Robotaxis et Bus Scolaires, le Choc

Imaginez la scène : un bus scolaire jaune, gyrophare allumé, panneau « STOP » déployé, des enfants qui traversent tranquillement… et soudain, une voiture sans conducteur qui passe tranquillement devant. Pas de klaxon outré, pas de coup de frein paniqué, juste un robotaxi qui semble ignorer superbement la loi. Cette situation, digne d’un mauvais film de science-fiction, se produit pourtant bel et bien en 2025 à Austin, Texas. Et ce n’est pas une fois, ni deux, mais dix-neuf fois depuis la rentrée scolaire que des véhicules Waymo ont été surpris en infraction face à des bus scolaires. Résultat ? Les autorités fédérales américaines montent au créneau et le district scolaire d’Austin tape du poing sur la table. Bienvenue dans le Far West de la voiture autonome.

Que s’est-il réellement passé à Austin ?

Depuis le début de l’année scolaire 2025-2026, le district scolaire d’Austin a recensé 19 passages illégaux de robotaxis Waymo devant des bus à l’arrêt. Le plus inquiétant ? Au moins cinq de ces incidents ont eu lieu après la mise à jour logicielle que Waymo jurait corrective, déployée le 17 novembre 2025.

Dans une lettre particulièrement remontée datée du 20 novembre, le district scolaire n’y va pas par quatre chemins :

« Les mises à jour logicielles de Waymo ne fonctionnent clairement ni comme prévu, ni assez rapidement. Nous ne pouvons pas permettre à Waymo de continuer à mettre en danger nos élèves pendant qu’ils tentent de corriger le tir. »

– Austin Independent School District

Conséquence immédiate : le district exige purement et simplement l’arrêt des opérations Waymo aux heures de ramassage et de dépôt des élèves (5 h 20 – 9 h 30 et 15 h – 19 h). Rien que ça.

La NHTSA entre dans la danse

Quatre jours plus tard, la National Highway Traffic Safety Administration (NHTSA), via son Office of Defects Investigation, envoie un courrier très officiel à Waymo. Ton : poli mais ferme. Les questions posées sont lourdes de sens :

  • Avez-vous suspendu vos opérations aux horaires demandés ?
  • Votre correctif logiciel du 17 novembre a-t-il réellement résolu le problème ?
  • Envisagez-vous un rappel de flotte (recall) ?

Cette enquête fait suite à une première alerte ouverte en octobre 2025 après une vidéo à Atlanta montrant un robotaxi Waymo couper la route d’un bus scolaire en pleine dépose d’enfants. Waymo avait alors expliqué que le bus bloquait partiellement une entrée et que les capteurs n’avaient pas détecté le panneau STOP ni les feux clignotants. Mise à jour logicielle promise, confiance affichée.

Sauf que les faits sur le terrain disent exactement le contraire.

Waymo se défend… avec des statistiques

Contactée, l’entreprise (filiale d’Alphabet, maison-mère de Google) maintient que la sécurité reste sa priorité absolue. Elle brandit des chiffres impressionnants :

  • 5 fois moins d’accidents avec blessures que les conducteurs humains
  • 12 fois moins d’accidents impliquant des piétons

Et ajoute, confiante :

« Nous avons déjà déployé des mises à jour logicielles qui améliorent significativement nos performances et nous continuons à progresser. […] NHTSA joue un rôle vital pour la sécurité routière et nous collaborerons pleinement. »

– Waymo, déclaration officielle

Waymo assure même que, sur ce point précis des bus scolaires, ses véhicules dépassent désormais le niveau de performance des conducteurs humains. Un argument qui peine à convaincre les parents d’élèves d’Austin.

Pourquoi c’est un énorme problème (au-delà des enfants)

Cet incident n’est pas qu’une anecdote locale. Il cristallise tous les débats qui agitent l’écosystème des startups de la mobilité autonome depuis dix ans :

  • Jusqu’où peut-on déployer à grande échelle une technologie encore imparfaite ?
  • Qui est responsable quand l’algorithme fait une erreur potentiellement mortelle ?
  • Comment concilier vitesse d’innovation et sécurité publique ?

Pour les investisseurs, les fondateurs et les dirigeants de startups tech, c’est un cas d’école fascinant. Waymo, c’est plus de 20 milliards de dollars investis depuis 2009, des milliers d’ingénieurs parmi les meilleurs du monde, et pourtant… un simple bus scolaire met en lumière les limites actuelles de l’IA embarquée.

Le précédent Cruise : fantôme dans la salle

On ne peut pas parler de Waymo sans penser à Cruise (GM). Rappel des faits : octobre 2023, un piéton traîné sur 6 mètres à San Francisco après avoir été percuté par un autre véhicule. Conséquence ? Suspension totale de la licence en Californie, licenciements massifs, réputation détruite.

Aujourd’hui, tout le secteur regarde Waymo avec angoisse : va-t-on vers un « Cruise 2.0 » ? Pour l’instant, non : Waymo conserve ses autorisations, mais la pression réglementaire monte d’un cran. Et chaque incident alimente le camp des sceptiques qui répètent inlassablement : « Move fast and break things… mais pas la vie des enfants. »

Ce que ça dit de l’état de l’IA en 2025

Paradoxalement, ces ratés arrivent au moment où l’intelligence artificielle semble tout écraser sur son passage : GPT-5.2, Gemini Ultra, Claude 3.5… Les grands modèles de langage progressent à une vitesse folle. Mais dès qu’on les met dans un véhicule de deux tonnes lancé à 50 km/h en milieu urbain, les limites réapparaissent brutalement.

Pourquoi ? Parce que conduire n’est pas seulement une question de perception (« je vois le bus ») mais de compréhension contextuelle profonde (« ce bus est arrêté, les feux clignotent, des enfants peuvent surgir à tout moment, je dois m’arrêter même si je suis prioritaire »). C’est exactement le type de raisonnement que les modèles actuels peinent encore à maîtriser de façon parfaitement fiable à 100 % des cas edge.

Les leçons business pour les entrepreneurs tech

Si vous levez des fonds, pilotez une startup deep tech ou travaillez dans la mobilité, voici ce que cet épisode Waymo nous enseigne :

  • La sécurité n’est pas négociable – même si vos statistiques globales sont excellentes, un seul incident grave peut tout faire basculer.
  • La communication de crise compte autant que la tech – Waymo communique bien, mais les parents se fichent des ratios d’accidents quand leur enfant manque de se faire écraser.
  • Les régulateurs deviennent des parties prenantes clés – ignorer la NHTSA ou les autorités locales, c’est jouer à la roulette russe.
  • Le scaling prématuré tue – déployer des centaines de véhicules avant d’avoir réglé les cas rares mais critiques (bus scolaires, pompiers, ambulances) est une erreur stratégique majeure.

Et maintenant ? Trois scénarios possibles

Scénario 1 – Le « soft landing » : Waymo déploie rapidement un correctif efficace, suspend temporairement ses opérations aux heures scolaires à Austin, collabore pleinement avec la NHTSA. L’incident reste une anecdote.

Scénario 2 – Le « Cruise bis » : nouveaux incidents graves, perte de confiance publique, suspension partielle ou totale des opérations dans plusieurs États. Valorisation en chute libre.

Scénario 3 – Le « tournant réglementaire » : le Congrès américain profite de l’émotion pour imposer un cadre fédéral beaucoup plus strict, ralentissant toute l’industrie pendant des années.

Conclusion : la route est encore longue

En 2025, nous rêvons tous de villes sans embouteillage, sans accident, sans pollution. Les robotaxis devaient être la réponse. Mais l’affaire des bus scolaires d’Austin nous rappelle une vérité brutale : la technologie la plus avancée du monde reste perfectible, et quand la vie d’enfants est en jeu, la société n’accorde pas de seconde chance.

Waymo sortira probablement renforcé de cette crise – ils ont les moyens, les données, les talents. Mais pour tous les entrepreneurs qui nous lisent : souvenez-vous que le vrai produit, ce n’est pas seulement la voiture autonome. C’est la confiance. Et celle-ci se gagne incident après incident, mise à jour après mise à jour, transparence après transparence.

La révolution de la mobilité viendra. Mais elle arrivera au rythme de la prudence, pas de l’arrogance technologique.

author avatar
MondeTech.fr

À lire également