Volkswagen ID.3 Neo : tout savoir sur la nouvelle version et les changements
Vous vous souvenez de cette époque où chaque constructeur voulait absolument nous imposer des écrans tactiles partout dans l’habitacle ? […]
Sommaire
Les assistants vocaux embarqués dans nos véhicules sont censés simplifier la vie à bord. Vous demandez à votre voiture d’ajuster la climatisation, de changer de station radio ou d’éteindre les lumières intérieures, et elle s’exécute. Sauf que parfois, elle interprète mal votre demande. C’est exactement ce qui est arrivé à un conducteur chinois au volant d’un Lynk & Co Z20, avec des conséquences bien plus graves qu’un simple désagrément : un accident en pleine circulation nocturne.
L’incident, capturé par la dashcam du véhicule, illustre une faille inattendue dans la conception des systèmes de commande vocale. Le conducteur a simplement demandé à son assistant d’éteindre les lampes de lecture intérieures. La voiture a compris qu’il fallait couper l’ensemble de l’éclairage, y compris les phares avant. Plongé dans l’obscurité, le conducteur n’a pas vu le terre-plein central et a percuté la barrière. Quand il a tenté de rallumer les feux par commande vocale, le système lui a répondu que l’opération ne pouvait pas être effectuée. Une situation absurde qui pose de sérieuses questions sur la sécurité des commandes vocales dans l’automobile moderne.
Ce type d’incident révèle les limites actuelles de l’intelligence artificielle embarquée. Vous vous attendriez à ce que les constructeurs intègrent des garde-fous techniques empêchant la désactivation de systèmes critiques en roulant. Les phares ne devraient tout simplement pas pouvoir s’éteindre lorsque le véhicule est en mouvement et que la luminosité extérieure l’exige. La programmation automobile reste un exercice complexe où les scénarios d’utilisation réels dépassent parfois l’imagination des ingénieurs.
Le Lynk & Co Z20, commercialisé en Europe sous l’appellation Lynk & Co 02, embarque un système de reconnaissance vocale en langage naturel. Cette technologie permet théoriquement d’interagir avec la voiture de manière plus intuitive, sans avoir à mémoriser des commandes précises. Le revers de cette flexibilité, c’est justement l’ambiguïté : quand vous dites “éteins les lumières”, le système doit deviner si vous parlez des plafonniers, des feux de position ou des phares. Dans ce cas précis, il a fait le mauvais choix.

Lynk & Co n’a pas traîné pour réagir. Mu Jun, directeur général adjoint des ventes de la marque, a publié un message sur Weibo, le réseau social chinois, dès le jeudi suivant l’accident. L’entreprise a déployé une mise à jour OTA d’urgence (over-the-air, à distance) pour corriger la logique du système. Désormais, les commandes vocales ne peuvent plus désactiver les phares dans des conditions inappropriées. Cette capacité à patcher un véhicule à distance montre l’un des avantages des architectures logicielles modernes, même si elle souligne aussi leur vulnérabilité.
La rapidité de cette intervention contraste avec les rappels traditionnels qui nécessitent de faire passer les véhicules en concession. Ici, quelques jours ont suffi pour déployer le correctif sur l’ensemble de la flotte concernée. Reste à savoir si les modèles vendus hors de Chine, notamment sur le marché européen, étaient affectés par le même problème. Aucune communication officielle n’a précisé ce point pour l’instant.
L’affaire aurait pu s’arrêter là si des propriétaires curieux d’autres marques n’avaient pas décidé de tester leurs propres véhicules. Selon CNEVPost, des conducteurs de Zeekr et Deepal ont reproduit l’expérience avec des commandes larges comme “éteins toutes les lumières”. Résultat : leurs assistants vocaux ont également contourné les systèmes de sécurité intégrés pour désactiver l’éclairage extérieur.
Cette découverte élargit considérablement la portée du problème. On ne parle plus d’un bug isolé chez un seul constructeur, mais d’une vulnérabilité potentiellement généralisée dans la conception des assistants vocaux automobiles chinois. Les marques concernées devront certainement suivre l’exemple de Lynk & Co et vérifier la robustesse de leurs propres systèmes. Pour l’instant, aucune information ne permet de savoir si des véhicules vendus aux États-Unis ou en Europe occidentale présentent des failles similaires.
Dans la conception automobile traditionnelle, les systèmes critiques comme l’éclairage bénéficient de multiples verrouillages entre les différentes commandes. Vous ne voulez pas qu’une simple entrée ambiguë, mal interprétée par une IA, puisse outrepasser les contrôles techniques destinés à protéger ces fonctions essentielles. Les boutons physiques traditionnels ne laissent aucune place à l’interprétation : vous appuyez sur l’interrupteur des phares, ils s’allument ou s’éteignent. Point final.
Les voitures intelligentes héritent des avantages des appareils connectés, mais aussi de leurs problèmes. Les bugs logiciels, les failles de sécurité et les comportements inattendus font partie du quotidien de votre smartphone ou de votre ordinateur. Quand ces mêmes technologies migrent vers un véhicule de 1,5 tonne lancé à 110 km/h sur autoroute, les enjeux changent radicalement de nature. Une application qui plante sur votre téléphone vous agace. Un système qui coupe vos phares en pleine nuit peut vous tuer.
Cet incident rappelle aux constructeurs qu’ils doivent redoubler de vigilance dans la validation de leurs systèmes vocaux. Les tests doivent couvrir non seulement les commandes prévues, mais aussi toutes les variantes linguistiques que les utilisateurs pourraient formuler. Les systèmes de reconnaissance en langage naturel sont par définition moins prévisibles que les commandes fixes, ce qui exige une approche de test beaucoup plus exhaustive.
Les protocoles de sécurité devraient aussi intégrer des règles intangibles : certaines fonctions ne doivent jamais pouvoir être désactivées en mouvement, quelle que soit la source de la commande. Les phares, le freinage, la direction assistée font partie de ces systèmes qui nécessitent une protection absolue contre toute désactivation accidentelle. L’architecture logicielle doit refléter cette hiérarchie de criticité.
Heureusement, cette affaire n’a pas tourné à la catastrophe généralisée et le constructeur a réagi vite. Elle sert néanmoins d’avertissement salutaire : quand votre voiture devient intelligente, elle hérite aussi des travers des objets connectés. La différence, c’est qu’au volant, un simple bug peut avoir des conséquences autrement plus graves que sur votre tablette. Les constructeurs devront intégrer cette réalité dans leurs processus de développement s’ils veulent que vous leur fassiez confiance pour confier votre sécurité à leurs algorithmes.
Réagissez à l'article