Volkswagen ID.3 Neo : tout savoir sur la nouvelle version et les changements
Vous vous souvenez de cette époque où chaque constructeur voulait absolument nous imposer des écrans tactiles partout dans l’habitacle ? […]
Sommaire
Le compte officiel de Tesla Amérique du Nord a récemment relayé une vidéo qui soulève de sérieuses interrogations sur la manière dont le constructeur californien communique autour de son système “Full Self-Driving”. Dans cette interview, un nouveau propriétaire de Cybertruck explique qu’il a acheté son véhicule sur recommandation de son ophtalmologiste, précisément parce qu’il est en train de perdre la vue. Le médecin, lui-même propriétaire de deux Tesla, lui aurait conseillé d’acquérir un modèle équipé du système FSD pour continuer à se déplacer malgré sa déficience visuelle progressive. Le problème ? Tesla classe officiellement son FSD comme un système d’assistance de niveau 2 SAE, qui exige une surveillance constante du conducteur et une capacité d’intervention immédiate. Deux exigences totalement incompatibles avec une perte de vision.
Le compte Tesla Amérique du Nord a republié une vidéo réalisée par un créateur de contenu connu sous le nom de Captain Eli, qui se présente comme un investisseur Tesla soutenant Elon Musk. Dans cet extrait, un acheteur de Cybertruck nommé Ricky raconte comment sa détérioration oculaire l’a conduit vers la marque américaine. Lors d’une consultation avec son ophtalmologiste, ce dernier lui aurait indiqué qu’il avait besoin d’une voiture équipée du logiciel FSD de Tesla. Le médecin serait même allé jusqu’à organiser un essai routier et à le rencontrer un samedi pour lui expliquer le fonctionnement du système.
Durant cet essai, Ricky affirme que la voiture s’est conduite toute seule pendant une heure et demie sur trois itinéraires différents, sans qu’il n’ait jamais touché le volant. Cette expérience l’a convaincu d’acheter le Cybertruck, spécifiquement pour bénéficier du logiciel FSD. Lorsque l’interviewer lui demande de confirmer qu’il a acheté le véhicule pour cette fonctionnalité, Ricky répond : “Vous achetez un logiciel qui coûte beaucoup d’argent, et il vient avec la voiture.” La décision de Tesla d’amplifier ce témoignage particulier transforme une situation préoccupante en véritable imprudence.
Freedom https://t.co/uG1Yr7XoRf
— Tesla North America (@tesla_na) March 29, 2026
La page d’assistance officielle de Tesla concernant le “Full Self-Driving (Supervised)” indique clairement que le système correspond à une automatisation partielle de niveau 2 SAE. Cette classification signifie que le conducteur doit rester pleinement attentif et engagé dans la tâche de conduite à tout moment. Le conducteur reste responsable du véhicule, que le FSD soit activé ou non. Le système “ne rend pas le véhicule autonome”, selon la propre documentation de Tesla. Cette définition n’a rien d’ambigu : le niveau 2 désigne l’humain comme conducteur, le logiciel n’étant qu’un assistant.
Si une personne ne peut pas conduire en toute sécurité, par exemple parce qu’elle perd la vue, un système de niveau 2 ne résout absolument pas ce problème. Au contraire, il l’aggrave en créant l’illusion que la voiture assume des responsabilités de conduite qui restent légalement et techniquement celles de l’humain. Les recherches montrent qu’un conducteur a besoin de 5 à 8 secondes pour se réengager mentalement après qu’un système automatisé lui rende le contrôle, mais les situations d’urgence se produisent plus rapidement que ce délai ne le permet.
L’histoire de Raffi Krikorian illustre parfaitement ce danger. Cet ancien directeur de la division véhicules autonomes d’Uber et actuel directeur technique de Mozilla, un homme qui a littéralement conçu des voitures autonomes et formé des conducteurs de sécurité, a eu un accident avec son Tesla Model X en utilisant le FSD. La raison ? Les performances quasi parfaites du système l’ont bercé dans un faux sentiment de sécurité. Si un ancien responsable de la conduite autonome ne parvient pas à maintenir une surveillance appropriée, qu’arrive-t-il lorsqu’une personne avec une vision défaillante est au volant en se fiant au FSD pour être ses yeux ?
Cette promotion intervient alors que la NHTSA a intensifié son enquête sur le FSD pour couvrir 3,2 millions de véhicules, une étape qui précède généralement un rappel. L’agence mène aussi une enquête distincte sur plus de 80 infractions routières impliquant le FSD, et Tesla a eu des difficultés à fournir les données d’accident demandées. Un propriétaire de Cybertruck a déjà déposé une plainte alléguant qu’un accident était dû au FSD. Le PDG de Tesla a même affirmé que les conducteurs utilisant le FSD devraient pouvoir envoyer des messages en conduisant, tout en maintenant la classification de niveau 2 pour éviter toute responsabilité légale.
Le schéma est clair : Tesla commercialise le FSD comme s’il était autonome, indique aux clients qu’ils peuvent se détendre, puis pointe la classification de niveau 2 comme bouclier juridique lorsque quelque chose tourne mal. Cette vidéo que Tesla a choisi de promouvoir finira probablement comme pièce à conviction dans un procès concernant un accident avec le FSD. Un avocat de plaignant pourra argumenter : “Le compte officiel de Tesla a promu le témoignage d’un acheteur malvoyant qui a acheté le véhicule précisément parce qu’il croyait que le FSD pouvait conduire à sa place, et Tesla a amplifié ce message auprès de millions de personnes.”
Considérez la chaîne d’événements que Tesla vient d’avaliser : un ophtalmologiste recommande apparemment le FSD de Tesla à un patient qui perd la vue, ce patient suit la recommandation et achète un Cybertruck spécifiquement pour le logiciel, déclare fièrement devant la caméra que le FSD a conduit pendant une heure et demie sans qu’il ne touche le volant, et le compte officiel de Tesla promeut cela comme une belle histoire client. Le tout pendant que la propre documentation de Tesla stipule que le FSD est un système d’assistance de niveau 2 nécessitant un conducteur pleinement attentif et “responsable du véhicule à tout moment”.
Si Tesla croit vraiment que le FSD est suffisamment sûr pour qu’une personne avec une vue défaillante puisse s’y fier, l’entreprise devrait alors le classer comme niveau 3 ou supérieur et accepter la responsabilité qui l’accompagne. Mais Tesla ne le fera pas, car le niveau 2 lui permet de conserver les avantages marketing tout en transférant tous les risques sur le conducteur. Promouvoir cette vidéo tout en maintenant cette position juridique relève de la folie.
Il est vrai que le FSD peut maintenant conduire pendant quelques heures, quelques centaines de kilomètres, voire quelques milliers de kilomètres sans intervention critique. Néanmoins, cela reste très loin de ce qui serait nécessaire pour une autonomie de niveau 4 fiable. Que se passe-t-il lorsque cette intervention critique devient nécessaire après quelques milliers de kilomètres et que le conducteur n’est pas capable de reprendre le contrôle ? Le danger actuel réside dans l’idée répandue au sein de la communauté Tesla que le FSD est plus qu’un simple système d’assistance à la conduite.
L’ophtalmologiste en question connaît peut-être parfaitement les yeux et possède des Tesla, mais cela ne signifie pas qu’il maîtrise les capacités réelles du FSD. Tesla, en promouvant l’utilisation de son système pour des personnes perdant la vue, n’aide absolument pas à clarifier la situation. Cette communication crée une confusion dangereuse entre assistance à la conduite et conduite autonome, une distinction pourtant fondamentale pour la sécurité routière.
Le constructeur californien joue sur les deux tableaux : il bénéficie d’une image innovante grâce à un marketing agressif suggérant l’autonomie complète, tout en se protégeant juridiquement derrière la classification de niveau 2. Cette stratégie expose les conducteurs et les autres usagers de la route à des risques évitables. Tant que Tesla maintiendra cette ambiguïté entre ce que son système peut réellement faire et ce qu’elle laisse entendre dans ses communications, les situations comme celle de Ricky continueront de se multiplier, avec les conséquences potentiellement dramatiques que l’on peut imaginer pour la sécurité routière.
Réagissez à l'article