Une nouvelle façon de fabriquer les voitures pourrait faire baisser leur prix de 15 à 20 %
La course à la réduction des coûts de production bat son plein dans l’industrie automobile. Tandis que Tesla mise tout […]
Sommaire
Un conducteur chinois a provoqué un accident frontal lors d’une diffusion en direct sur Douyin (TikTok chinois) alors qu’il démontrait les capacités du système Full Self-Driving de Tesla. L’incident soulève des questions importantes sur l’utilisation et la promotion de ces technologies d’assistance à la conduite.
L’accident s’est produit la semaine dernière lorsqu’un utilisateur Douyin, identifié sous le pseudonyme 切安好, diffusait en direct sa conduite avec le système FSD activé sur sa Model 3. Le véhicule a soudainement changé de voie vers la gauche, s’engageant dans le sens inverse de la circulation, provoquant une collision frontale avec un autre véhicule.
Initialement, certains observateurs ont remis en question l’activation réelle du FSD durant l’incident. Le conducteur avait d’abord refusé de publier les images de l’accident, espérant obtenir une compensation directe de Tesla. L’entreprise américaine maintient sa position habituelle : elle n’assume aucune responsabilité pour les incidents impliquant ses systèmes Autopilot ou FSD.
Le conducteur a finalement diffusé les images de l’accident, qui montrent clairement que le FSD était actif au moment de la collision et qu’il a initié le changement de voie dans la mauvaise direction. Ces preuves vidéo dissipent les doutes sur l’implication du système d’assistance dans cet accident.
Fort heureusement, aucun des occupants des véhicules impliqués n’a subi de blessures graves. L’incident aurait pu avoir des conséquences bien plus dramatiques, compte tenu de la nature frontale de la collision.
En Chine, de nombreux propriétaires de Tesla se sont lancés dans des démonstrations en direct de leurs véhicules équipés du FSD sur les plateformes de réseaux sociaux. Ces contenus visent à :
Cette tendance révèle un excès de confiance problématique envers les technologies d’assistance à la conduite. Les utilisateurs semblent oublier que ces systèmes de niveau 2 requièrent une surveillance constante du conducteur, malgré leur nom parfois trompeur.
Tesla a lancé son système FSD en Chine en début d’année 2025, avec les mêmes limitations qu’aux États-Unis. Malgré son appellation “Full Self-Driving”, le système nécessite une supervision permanente du conducteur. Les autorités chinoises ont d’ailleurs rapidement contraint Tesla à modifier le nom du système, le jugeant non représentatif de ses capacités réelles.
La communication de Tesla n’aide pas à clarifier la situation. L’entreprise promeut son FSD comme un système qui “vous redonne du temps”, suggérant implicitement que la surveillance constante n’est pas nécessaire. Cette approche marketing crée une confusion dangereuse chez les utilisateurs.
Cet accident chinois n’est malheureusement pas isolé. Aux États-Unis, des propriétaires Tesla signalent régulièrement des dysfonctionnements du FSD. Un témoignage récent rapporte un véhicule qui s’est arrêté sur des voies de tramway à San Diego, exposant le conducteur à un risque mortel.
Dans ce cas particulier, le FSD avait engagé la voiture sur les rails avant que la voie ne soit dégagée, forçant le conducteur à reprendre le contrôle manuellement pour éviter un potentiel accident avec un tramway. Ces incidents illustrent les limites actuelles des systèmes d’assistance, même les plus avancés.
La multiplication de ces témoignages souligne l’importance cruciale de maintenir une vigilance constante lors de l’utilisation de ces technologies. L’accident chinois diffusé en direct serve de rappel brutal : les systèmes d’assistance à la conduite restent des outils imparfaits qui ne peuvent en aucun cas remplacer l’attention et la responsabilité du conducteur.
Réagissez à l'article