Ces marques automobiles chinoises ne survivront pas selon le patron de Skoda
Le marché automobile chinois pourrait connaître un bouleversement majeur dans les années à venir. Martin Jahn, directeur commercial et marketing […]
Sommaire
Voilà qui ne va pas redorer le blason de la conduite autonome. Alors que le fondateur de Waymo, John Krafcik, s’attaque publiquement à la sécurité de Tesla et critique son approche basée uniquement sur les caméras pour la conduite entièrement autonome, les propres véhicules de sa société multiplient les infractions dangereuses. Le district scolaire d’Austin au Texas rapporte que les robotaxis Waymo continuent de dépasser illégalement les bus scolaires, mettant potentiellement en danger la sécurité des enfants.
Le Austin Independent School District (ISD) tire la sonnette d’alarme : malgré plusieurs tentatives de correction via des mises à jour logicielles, les véhicules autonomes de Waymo persistent dans leurs comportements dangereux. Le dernier incident documenté s’est produit seulement deux jours après la finalisation du dernier rappel logiciel que Waymo prétendait avoir effectué. Cette situation exaspère les responsables du district scolaire d’Austin, qui réclament désormais l’arrêt pur et simple des opérations Waymo dans leur zone.
Les chiffres parlent d’eux-mêmes et révèlent l’ampleur du problème. Waymo avait annoncé au Austin ISD que les corrections logicielles seraient opérationnelles dès le 5 novembre 2025. Pourtant, un mémorandum daté du 20 novembre adressé par le conseil juridique du district scolaire à Waymo fait état d’au moins cinq violations survenues après la mise à jour de novembre. “Les mises à jour logicielles de Waymo ne fonctionnent manifestement pas comme prévu ni aussi rapidement que nécessaire”, peut-on lire dans le document officiel.
Austin n’est malheureusement pas un cas isolé dans cette affaire. La National Highway Traffic Safety Administration (NHTSA) examine déjà de près les pratiques de Waymo après qu’une de leurs voitures ait été filmée en train de dépasser illégalement un bus scolaire à l’arrêt à Atlanta. L’incident, largement diffusé sur les réseaux sociaux, montrait des enfants descendant du véhicule scolaire tandis que le robotaxi poursuivait sa route sans respecter l’obligation d’arrêt.
Cette récurrence des incidents soulève des questions fondamentales sur la fiabilité des systèmes autonomes actuels. Les autorités scolaires d’Austin ne mâchent pas leurs mots : “Nous ne pouvons pas permettre à Waymo de continuer à mettre en danger nos élèves pendant qu’elle tente de mettre en œuvre une correction.” Le district explore actuellement tous les recours juridiques disponibles pour faire cesser ces pratiques.
La situation actuelle interroge sur les capacités réelles des véhicules autonomes à interpréter correctement les signaux de circulation spécialisés. Les bus scolaires déploient pourtant une signalisation particulièrement visible :
Cette séquence de signalisation, conçue pour être impossible à manquer, semble poser des difficultés persistantes aux algorithmes de Waymo. Les experts en programmation s’étonnent de ces défaillances répétées, considérant que la détection de ces signaux lumineux devrait représenter un défi technique relativement simple pour des capteurs modernes.
L’ironie de la situation n’échappe à personne dans l’industrie automobile. Pendant que John Krafcik qualifie l’approche de Tesla de “myope” concernant sa dépendance exclusive aux caméras, les propres véhicules de Waymo, équipés de LiDAR et de multiples capteurs, échouent à respecter une règle de circulation de base. Cette contradiction affaiblit considérablement les arguments de Waymo contre ses concurrents.
Le Austin ISD maintient sa position ferme : “Austin ISD demande à nouveau que Waymo cesse ses opérations le matin et l’après-midi pendant les jours d’école lorsque nos élèves utilisent nos bus.” Cette demande reflète une perte de confiance totale envers la capacité de l’entreprise à résoudre rapidement ses problèmes techniques. Les enjeux dépassent largement les considérations commerciales quand la sécurité des enfants est en jeu.
La répétition de ces incidents malgré les corrections annoncées révèle soit des défaillances dans le processus de déploiement des mises à jour, soit des problèmes plus profonds dans la conception même des algorithmes de détection. Dans les deux cas, la crédibilité de Waymo sur le marché des véhicules autonomes risque d’en pâtir durablement, d’autant plus que les conducteurs humains, bien qu’imparfaits, comprennent généralement l’importance vitale de respecter l’arrêt des bus scolaires.
Réagissez à l'article