Audi E7X : ce SUV électrique développé en Chine arrive-t-il bientôt en Europe ?
Audi vient de dévoiler l’E7X, un SUV électrique qui marque une nouvelle approche pour la marque aux quatre anneaux. Développé […]
Sommaire
Une vidéo troublante circule actuellement sur les réseaux sociaux, montrant un conducteur de sécurité d’un Tesla Robotaxi endormi pendant un trajet à San Francisco. L’incident soulève des questions importantes sur la supervision des véhicules autonomes et l’efficacité des systèmes de surveillance du conducteur dans le cadre des services de robotaxi.
Vous l’aurez compris, même en 2025, la route vers une conduite entièrement autonome reste semée d’embûches. Cette situation met en lumière les défis auxquels font face les constructeurs lorsqu’ils déploient des technologies de niveau 2 sous l’appellation de “robotaxi”.
Tesla opère actuellement son service “Robotaxi” dans deux zones géographiques distinctes : Austin au Texas et la Bay Area en Californie. La différence de réglementation entre ces deux États crée des conditions d’exploitation radicalement opposées. La Californie impose des exigences strictes pour les véhicules autonomes, obligeant les entreprises à prouver qu’elles peuvent fonctionner comme un système de conduite autonome de niveau 4.
Tesla n’a pas encore franchi ce cap réglementaire et n’a même pas déposé de demande de permis pour ce niveau d’autonomie. Résultat ? Dans la Bay Area, les “Robotaxis” Tesla fonctionnent exactement comme des véhicules équipés du système Full Self-Driving (Supervised) classique, avec un conducteur de sécurité derrière le volant, responsable du véhicule à tout moment.
L’utilisateur qui a filmé la scène raconte avoir utilisé le service Tesla Robotaxi plusieurs fois sans problème, se sentant même plus en sécurité qu’avec un service de VTC traditionnel. Cette fois était différente. Le conducteur de sécurité s’est littéralement endormi au moins trois fois pendant le trajet, réveillé à chaque fois par les alertes sonores du système de surveillance du conducteur.
La vidéo montre clairement le système FSD de Tesla qui détecte l’inattention du conducteur et déclenche ses alertes. Le problème ? Le système anti-somnolence aurait dû intervenir bien plus tôt, avant que le conducteur ne s’endorme complètement, la tête baissée. Voici ce qui s’est passé :
My Tesla Robotaxi “safety” driver fell asleep
byu/ohmichael insanfrancisco
Cette situation illustre parfaitement le paradoxe de l’automatisation. Demander à un humain de rester vigilant face à une tâche qu’il n’exécute pas activement s’avère extrêmement difficile. Le travail de conducteur de sécurité consiste à surveiller un système qui gère 90% des tâches de conduite, tout en restant prêt à reprendre le contrôle instantanément.
Les données de Tesla concernant les accidents dans sa flotte autonome à Austin montrent que le système commet encore des erreurs, rendant la présence du conducteur de sécurité absolument critique. À San Francisco, la situation est différente mais tout aussi préoccupante. Les incidents tombent sous la réglementation des systèmes d’aide à la conduite (ADAS), et Tesla occulte la plupart des informations cruciales dans ses rapports, rendant impossible de distinguer les incidents impliquant des Robotaxis de ceux concernant des clients FSD classiques.
L’utilisateur ayant filmé la scène a signalé l’incident via l’application Tesla au service support Robotaxi, précisant qu’il disposait de vidéos comme preuves. Plus d’une semaine après le signalement, aucune réponse n’a été apportée par Tesla. Cette absence de communication a poussé l’utilisateur à rendre l’affaire publique.
La vidéo est rapidement devenue virale sur Reddit, et d’autres utilisateurs ont rapporté des expériences similaires, certains pensant même avoir eu affaire au même conducteur. Cette récurrence suggère un problème systémique plutôt qu’un incident isolé.
| Zone géographique | Position du conducteur | Niveau réglementaire | Taux d’accidents |
|---|---|---|---|
| Austin, Texas | Siège passager | Moins strict | Préoccupant |
| Bay Area, Californie | Siège conducteur | Très strict | Données occultées |
Le système de surveillance du conducteur de Tesla semble présenter des lacunes importantes dans ce cas précis. Normalement, ces dispositifs sont conçus pour détecter les signes de somnolence précoce et alerter le conducteur avant qu’il ne s’endorme complètement. Le fait que le conducteur ait pu s’endormir trois fois suggère soit un dysfonctionnement du système, soit un réglage inadéquat de ses seuils d’alerte.
Cette situation met en évidence la difficulté de maintenir un niveau d’attention constant lors de la supervision d’un système automatisé. Les experts en facteurs humains connaissent bien ce phénomène : plus un système est fiable, plus il devient difficile pour l’opérateur humain de rester engagé et vigilant. C’est exactement ce qui se produit avec les conducteurs de sécurité des robotaxis Tesla.
L’industrie automobile devra résoudre ce paradoxe fondamental avant de pouvoir déployer massivement des services de transport autonome véritablement sûrs. En attendant, des incidents comme celui-ci rappellent que la route vers l’autonomie complète reste longue et semée d’embûches techniques et humaines.
Réagissez à l'article