Dans ce pays, les dernières voitures thermiques disparaissent déjà des ventes
La Norvège vient de franchir un cap historique en novembre 2025 avec 97,6% d’immatriculations électriques, laissant les motorisations thermiques dans […]
Sommaire
Un ingénieur et YouTuber connu, Mark Rober, ancien de la NASA, vient de mettre en évidence une faille potentiellement dangereuse dans l’approche de Tesla en matière d’automatisation des véhicules. Son expérience, inspirée des dessins animés Looney Tunes, soulève des questions importantes sur la sécurité des systèmes autonomes et leurs différentes philosophies techniques.
Tesla a fait un choix technologique radical pour ses systèmes Autopilot et Full Self-Driving (FSD) : s’appuyer uniquement sur des caméras et l’intelligence artificielle, sans utiliser de capteurs supplémentaires comme le radar ou le lidar. Elon Musk défend cette approche en expliquant qu’elle imite la façon dont les humains conduisent – avec leurs yeux.
Mark Rober a décidé de tester cette philosophie en créant une expérience digne de Bip Bip et Coyote. L’idée? Fabriquer un faux mur peint pour ressembler à la continuation de la route et voir si les systèmes autonomes s’y laissent prendre. Pour comparer différentes technologies, Rober a mis en concurrence un véhicule Tesla utilisant l’Autopilot et un SUV Lexus équipé du système lidar de la société Luminar.
Les résultats sont édifiants :
“Je peux affirmer de manière définitive que, pour la première fois dans l’histoire, le système optique de Tesla foncerait absolument à travers un faux mur sans même effleurer les freins”, a déclaré Rober dans sa vidéo.

Cette démonstration illustre la différence fondamentale entre deux approches techniques. D’un côté, Tesla mise tout sur un système de vision par caméras couplé à une intelligence artificielle avancée. De l’autre, la majorité des concurrents comme Waymo, Cruise ou les constructeurs traditionnels optent pour une fusion de capteurs incluant lidar, radar et caméras.
Pourquoi cette différence? Tesla affirme que sa solution est plus économique, plus évolutive et plus proche de la façon dont les humains perçoivent leur environnement. Les défenseurs du lidar, quant à eux, soutiennent qu’il offre une couche supplémentaire de sécurité critique en fournissant une perception 3D précise de l’environnement, indépendante des conditions d’éclairage ou des illusions d’optique.
Le tableau suivant compare les deux approches :
| Caractéristique | Approche Tesla (caméras uniquement) | Approche multi-capteurs (lidar, radar, caméras) |
|---|---|---|
| Coût | Plus abordable | Plus coûteux |
| Perception 3D | Estimation par IA | Mesure directe et précise |
| Performance par mauvais temps | Limitée | Meilleure redondance |
| Vulnérabilité aux illusions optiques | Élevée | Faible |
Il faut reconnaître que les systèmes d’assistance à la conduite de Tesla se sont considérablement améliorés au fil des années. L’Autopilot et le FSD offrent aujourd’hui des fonctionnalités impressionnantes qui séduisent de nombreux conducteurs. La marque californienne continue d’affiner ses algorithmes grâce aux millions de kilomètres parcourus par sa flotte.
Néanmoins, ces systèmes restent impliqués dans plusieurs dizaines d’accidents, dont certains mortels, qui ont déclenché des enquêtes au niveau fédéral et dans plusieurs États américains. Les experts en conduite autonome sont nombreux à douter qu’une approche basée uniquement sur des caméras puisse un jour surpasser les performances humaines en termes de sécurité.
Cette problématique devient particulièrement préoccupante lorsqu’on sait qu’Elon Musk ambitionne de produire des véhicules sans volant ni pédales, entièrement autonomes. Si un simple mur peint peut tromper le système actuel, quels autres dangers potentiels pourraient être mal interprétés?
Cette expérience soulève des questions fondamentales sur la stratégie de Tesla. Alors que le constructeur américain se concentre davantage sur l’autonomie que sur la course à l’électrification face à des concurrents comme BYD, cette démonstration pourrait remettre en question la viabilité de son approche technologique.
Les autorités de régulation observent avec attention l’évolution de ces technologies. La NHTSA (National Highway Traffic Safety Administration) aux États-Unis a déjà ouvert plusieurs enquêtes concernant l’Autopilot. En Europe, les règles sont encore plus strictes, avec l’obligation pour les constructeurs de prouver la sécurité de leurs systèmes avant toute homologation.
Pour vous, futurs acheteurs de voitures électriques, ces questions sont essentielles. Le niveau d’autonomie annoncé correspond-il à la réalité? Quelles sont les limites des systèmes proposés? Comprendre ces enjeux vous permettra de faire un choix éclairé et d’utiliser ces technologies en toute sécurité.
Si vous possédez ou envisagez d’acheter un véhicule équipé de fonctionnalités d’aide à la conduite avancées, voici quelques points à garder à l’esprit:
Le test réalisé par Mark Rober ne signifie pas que vous risquez de rencontrer des murs peints sur votre route quotidienne, mais il illustre parfaitement certaines limites conceptuelles des systèmes de vision artificielle actuels. Ces systèmes peuvent être trompés par des situations que le cerveau humain, avec sa compréhension contextuelle du monde, saurait généralement interpréter correctement.
Pour l’industrie automobile dans son ensemble, ce test rappelle que la course à l’autonomie doit s’accompagner d’une réflexion approfondie sur la sécurité et la fiabilité. Les constructeurs doivent-ils privilégier la redondance des capteurs? Comment tester efficacement ces systèmes face à des situations imprévues? Les questions sont nombreuses et les réponses façonneront l’avenir de nos déplacements.
Alors que les voitures électriques transforment déjà notre rapport à la mobilité, la conduite autonome représente la prochaine révolution. Cette expérience nous rappelle simplement que le chemin vers une autonomie complète et sécurisée est encore long, quelles que soient les promesses des constructeurs.
Réagissez à l'article