Publié le 19 février 2026. Tesla est à nouveau sous le feu des critiques après la diffusion d’une vidéo montrant son système de conduite autonome Full Self Driving (FSD) tentant de diriger un véhicule vers un lac, soulevant de nouvelles questions sur la sécurité de cette technologie.
- Un propriétaire de Tesla a partagé une vidéo sur la plateforme X montrant son véhicule tentant de le conduire dans un lac.
- L’incident s’inscrit dans une série de problèmes signalés concernant le système Full Self Driving de Tesla.
- Les autorités américaines enquêtent déjà sur des centaines d’incidents impliquant les systèmes d’assistance à la conduite de Tesla.
La vidéo, rapidement devenue virale, a été publiée par Daniel Milligan sur X, où il a directement interpellé le constructeur automobile et Ashok Elluswamy, responsable du développement de l’intelligence artificielle du pilote automatique. Milligan a écrit :
« Ma Tesla a essayé de me conduire dans un lac aujourd’hui ! »
Daniel Milligan
Le véhicule utilisait la version logicielle FSD 14.2.2.4, une des dernières mises à jour proposées aux clients par Tesla début 2026. La publication a dépassé les 1,2 million de vues et a suscité de vives réactions.
Cet incident n’est pas isolé. Le système Full Self Driving de Tesla est régulièrement pointé du doigt pour des dysfonctionnements potentiellement dangereux. En mai 2025, une Tesla a quitté la route alors qu’elle était en mode FSD, renversant un autre véhicule. Le conducteur a affirmé n’avoir pas pu éviter la collision. En décembre de la même année, un automobiliste en Chine s’est accidenté en direct lors d’un flux vidéo, le système ayant initié un changement de voie dangereux dans la circulation venant en sens inverse.
Une tentative médiatique de traverser les États-Unis uniquement avec le FSD, soutenue par Elon Musk, PDG de Tesla, s’est également soldée par un échec. Deux influenceurs n’ont pas pu quitter la Californie, leur véhicule heurtant des débris sur la route.
La version 14.2.2.4 du logiciel, impliquée dans le récent incident, avait été déployée fin janvier 2026. Tesla l’avait présentée comme une version améliorée et optimisée par rapport à la 14.2.2.3, intégrant notamment un encodeur visuel neuronal plus performant et une meilleure détection des véhicules d’urgence. Malgré ces améliorations, le système semble encore incapable de gérer de manière fiable les situations critiques.
Cette affaire survient alors que Tesla fait l’objet d’une surveillance accrue de la part des autorités américaines. La National Highway Traffic Safety Administration (NHTSA), l’agence américaine de sécurité routière, a lancé en octobre 2025 une enquête de grande envergure portant sur 2,88 millions de véhicules Tesla. L’agence a relié au moins 58 incidents au FSD, dont 14 accidents ayant causé 23 blessures. L’enquête porte principalement sur le comportement du système aux intersections et lors des changements de voie.
Parallèlement, la NHTSA vérifie si Tesla a correctement signalé les accidents liés aux systèmes Autopilot et FSD. Les collisions impliquant ces technologies d’assistance auraient déjà fait plus de 50 morts. Alors que Tesla poursuit le développement de son programme de robotaxis à Austin, au Texas, cet incident rappelle que le chemin vers une autonomie totale est plus complexe que ne le laissent entendre les démonstrations marketing. La vidéo de la tentative de direction vers le lac est un nouvel avertissement : même les réseaux neuronaux les plus avancés peuvent connaître des défaillances dans des conditions réelles, mettant en danger les occupants et l’environnement.
Pour en savoir plus, consultez la catégorie Mobilité électrique