Finalement, le prochain SUV électrique de Mercedes aura un moteur essence
Mercedes-Benz avait annoncé en 2023 l’arrivée d’un Classe G miniature prévu pour 2027, initialement conçu comme un véhicule 100% électrique. […]
Sommaire
Le programme Robotaxi de Tesla vient de connaître son premier incident, et l’ironie de la situation ne pouvait pas être plus parfaite. Dans une vidéo publiée sur X le 24 juin dernier, on découvre un véhicule autonome de la marque californienne qui percute délicatement une Toyota Camry stationnée. L’accident, aussi mineur soit-il, soulève des questions importantes sur la maturité technologique des systèmes de conduite autonome de Tesla, particulièrement quand on les compare à la concurrence comme Waymo.
Cette collision symbolique marque un tournant dans l’histoire du programme Robotaxi, lancé en grande pompe par Elon Musk. Vous vous demandez sans doute comment un véhicule bourré de technologie peut-il percuter une voiture immobile ? La réponse réside dans les choix techniques controversés de Tesla et dans les défis complexes de la conduite autonome en environnement urbain.
L’incident s’est produit dans un contexte particulièrement révélateur. Chris, un influenceur Tesla connu sous le pseudonyme DirtyTesla, testait le service Robotaxi lorsque le véhicule a rencontré des difficultés pour accéder au parking d’une pizzeria locale, Home Slice Pizza. Après plusieurs tentatives infructueuses, le système a tout simplement abandonné la mission et a déposé le passager sur le côté de l’entrée du parking.
C’est à ce moment précis que l’improbable s’est produit. Une fois Chris sorti du véhicule, le Robotaxi a inexplicablement tourné ses roues et s’est dirigé tout droit vers la Toyota Camry stationnée à quelques centimètres. Le pneu a légèrement touché la portière de la voiture garée avant que le système ne s’arrête et n’active les feux de détresse. Cette séquence, filmée et partagée sur YouTube, illustre parfaitement les limites actuelles de la technologie Tesla.
L’aspect le plus troublant de cet incident réside dans sa simplicité. Un système d’évitement de collision basique devrait pouvoir détecter un objet stationnaire sans difficulté. Cette défaillance soulève des interrogations sur l’efficacité du système vision-only adopté par Tesla depuis 2022, qui a remplacé les capteurs ultrasoniques traditionnels.
Tesla a fait le pari audacieux de supprimer les capteurs ultrasoniques de ses véhicules en 2022, optant pour un système entièrement basé sur la vision artificielle. Cette décision, présentée comme une révolution technologique, montre aujourd’hui ses limites dans des situations pourtant élémentaires. L’accident du Robotaxi démontre que la détection d’obstacles statiques reste problématique avec cette approche.
Les conséquences de ce choix technologique se manifestent de plusieurs façons :
Cette approche contraste fortement avec celle de Waymo, qui utilise une combinaison de capteurs LiDAR, radar et caméras. Les véhicules autonomes de Google naviguent dans des environnements urbains complexes depuis des années avec un taux d’incidents significativement plus faible. La différence de maturité technologique entre les deux approches devient évidente quand on compare leurs performances sur le terrain.
L’incident du Robotaxi Tesla met en lumière un décalage croissant avec les leaders du secteur. Waymo, qui opère ses services de transport autonome dans plusieurs villes américaines, a accumulé des millions de kilomètres de conduite autonome avec des incidents rarissimes. Leurs véhicules naviguent dans des environnements urbains denses, gèrent les intersections complexes et évitent efficacement les obstacles statiques.
Cette différence de performance s’explique par plusieurs facteurs techniques et opérationnels :
| Critère | Tesla Robotaxi | Waymo |
|---|---|---|
| Capteurs | Vision-only (caméras uniquement) | LiDAR + radar + caméras |
| Cartographie | Générique | Haute définition spécialisée |
| Zones d’opération | Limitées, phase pilote | Multiples villes, service commercial |
| Supervision | Opérateur passager | Surveillance à distance |
Musk avait initialement promis que les Robotaxis fonctionneraient sans opérateur de sécurité, s’appuyant sur des téléopérateurs distants. La réalité du terrain a imposé la présence d’un superviseur humain dans chaque véhicule, installé côté passager plutôt que derrière le volant. Cette adaptation témoigne d’une approche qu’Elon Musk qualifie lui-même de “super paranoïaque” en matière de sécurité.
Cet accident apparemment anodin révèle des enjeux beaucoup plus larges pour l’industrie du transport autonome. Si Tesla ne parvient pas à résoudre des problèmes aussi basiques que la détection d’obstacles statiques, comment peut-on envisager un déploiement à grande échelle de ses Robotaxis ? Les autorités fédérales américaines, qui surveillent déjà de près les performances du système Full Self-Driving, pourraient durcir leur position.
L’incident soulève également des questions sur la responsabilité en cas d’accident. Dans une situation normale, un conducteur laisserait ses coordonnées d’assurance sous l’essuie-glace du véhicule endommagé. Mais avec un véhicule autonome, la chaîne de responsabilité devient plus complexe, impliquant le constructeur, l’opérateur du service et potentiellement le superviseur présent dans le véhicule.
Le timing de cet accident, survenu peu après le lancement du programme pilote, suggère que Tesla a encore du chemin à parcourir avant d’atteindre la fiabilité nécessaire pour un service commercial. Contrairement aux collisions à haute vitesse qui ont parfois impliqué le système Full Self-Driving, cet incident urbain à basse vitesse révèle des lacunes fondamentales dans la perception de l’environnement proche.
L’industrie automobile observe attentivement ces développements, car ils influenceront les réglementations futures et l’acceptation publique des véhicules autonomes. Tesla dispose certainement des ressources techniques pour améliorer ses systèmes, mais la question demeure : combien de temps faudra-t-il pour rattraper le retard sur les acteurs plus matures du secteur ? Les prochains mois seront cruciaux pour déterminer si le constructeur peut transformer ces erreurs de jeunesse en apprentissage constructif.
Réagissez à l'article