L’étau se resserre autour de l’Autopilot de Tesla aux États-Unis, en marge de l’enquête de la NHTSA. Un rappel massif plus important qu’une simple mise à jour pourrait avoir lieu.
L’agence fédérale de sécurité routière américaine (NHTSA, pour National Highway Traffic Safety Administration) met la pression sur Tesla. La semaine dernière, elle a changé le statut de l’enquête sur l’Autopilot en « analyse technique ».
Quelques jours plus tôt, la NHTSA avait posé une échéance à Tesla pour obtenir des réponses sur ses freinages fantômes. Mais c’est aussi au sujet de suraccidents que l’agence a tenu à enquêter. Plusieurs Tesla ont ainsi percuté des véhicules intervenant sur des accidents de la route.
À lire aussi Tesla : les autorités américaines s’acharnent sur l’AutopilotLa NHTSA avait expliqué vouloir « explorer le degré auquel l’Autopilot et les systèmes associés de Tesla pourraient exacerber le facteur humain ou les risques de sécurité comportementale en réduisant l’efficacité de la supervision du conducteur ». Plus concrètement, l’agence a cherché à comprendre si le système pose un risque supplémentaire en cas de danger.
Et les premiers enseignements semblent aller vers cette hypothèse, puisque la NHTSA a trouvé un schéma précis. Dans les 16 accidents qu’elle a étudiés, l’agence fédérale confirme avoir découvert que l’Autopilot « annulait son contrôle du véhicule moins d’une seconde avant le premier impact ».
Une fonctionnalité pour dédouaner Tesla (Autopilot) lors des accidents ?
Cela veut dire que factuellement, les conducteurs étaient responsables de l’accident au moment du choc. Mais cette désactivation se faisait bien trop tard pour que les personnes au volant puissent vraiment agir.
Il faudrait en effet une désactivation au moins trois ou quatre secondes avant l’impact pour que ce soit le cas. Cela laisserait le temps d’un réflexe humain, une seconde étant un délai trop court pour réagir.
Cela va en revanche dans le sens des rapports officiels de Tesla après les accidents. Après étude des données des boîtes noires, la firme assure toujours que l’Autopilot n’était pas actif lors du choc.
À lire aussi Le Tesla Model Y décroche la note maximale au crash-test américainMais la version des automobilistes est très souvent différente, assurant que la voiture fonctionnait avec l’Autopilot. Ces incidents arrivent au moment où la firme rencontre des plaintes pour d’autres incidents. C’était le cas d’un chauffeur de taxi parisien, dont la Tesla aurait arrêté de répondre, ne voulant pas freiner au passage. Celui-ci a décidé de défier la marque d’Elon Musk et de porter plainte pour mise en danger de la vie d’autrui.
L’enquête de la NHTSA pourrait ainsi créer un rappel massif pour l’Autopilot de Tesla, plus complexe que ses rappels habituels. En effet, si c’est l’agence qui mandate le rappel, celui-ci doit se faire sous la supervision de ses employés. De là, il est impossible de le faire par une mise à jour à distance.
D’habitude vous faites un très bon boulot d’analyse et vous vous renseignez plutôt bien avant de pondre un article. Celui-ci semble fait un peu trop à la va-vite. Il contient beaucoup d’erreurs ou de points inexacts :
L’autopilot Tesla, en Europe n’est activable QUE sur autoroute. Un média comme Automobiles Propres est supposé le savoir. Mêler le Taxi Parisien à cette histoire est du pur Tesla Bashing. Et oui, l’autopilot est une option à plus de 7000€ que notre Taxi ne possédait certainement pas. En série il n’y a qu’un simple régulateur adaptatif et un niveau 2.
Le législateur a imposé que les dispositifs d’assistance se coupent s’ils « estiment » ne pas pouvoir éviter l’accident. Ce n’est donc pas une surprise, et c’est bien pour ça que l’utilisateur a l’obligation de pouvoir reprendre la main immédiatement. Qui plus est tourner le volant avec plus de force que quelques centaines de grammes ou encore freiner, ou encore utiliser la commande de désactivation va désactiver l’autopilot. Donc le fait que l’autopilot soit actif même très peu de temps avant l’accident n’empêche pas le conducteur de reprendre la main. C’est juste une preuve que le conducteur ne surveillait pas la route, contrairement à ses obligations.
Est-ce seulement le défaut dans le processus de certification de Tesla qui ne va pas au bout de ses tests pour économiser un peu d’argent, ou plus grave, une programmation délibérée pour ne pas être rendu responsable d’un accident?
Sans les deux cas, cela démontre le coté sournois de cette entreprise et de son PDG.
J’espère que la NHTSA ira au bout de ses investigations et que Tesla et surtout Elon Musk seront sanctionnés sévèrement.
Je pense qu’il faut se méfier de l’échantillonnage. 16 accidents. C’est tout? Ou bien ont-ils choisi les 16 accidents qui font mal pour faire du buzz. Je n’imagine pas une seule seconde qu’il n’y a eu que 16 accidents mortels avec des Tesla aux USA. Sinon, en bientôt 10 ans, ce serait une performance inouïe!!!
Faudrait rappellé que l’autopilot est une option et qu’elle n’est pas valable en Europe
Si le freinage d’urgence s’enclenche, il est normal que l’Autopilot se déconnecte.
Ne pas confondre l’auto pilote avec le dispositif de freinage d’urgence.
Enfin du travail sérieux d’analyse, il était temps.
En effet, si c’est l’agence qui mandate le rappel, celui-ci doit se faire sous la supervision de ses employés. De là, il est impossible de le faire par une mise à jour à distance.
Ca semble etre une interpretation, je vois pas bien en quoi la NHTSA ne peut pas surveiller que tout se passe bien a distance (leur site indique qu’ils appellent les proprietaires etc).
Il est bon de savoir qu’il y a un organisme d’état capable de fouiller vraiment jusqu’au fond pour aider à la sécurité de tous.
Le NTSB est capable d’interdire de vol le dernier Boeing, la sécurité est à ce prix.
En voiture il faut impérativement que l’humain sache en permanence qui est aux commandes… et dans le cas d’automatismes à multiples degrés, quels sont ceux qui sont activés… de manière très visible, très compréhensible, on est pas des pilotes.
Si Musk veut vraiment avancer sur l’autopilote c’est par la technique que ça passe, pas par le baratin qui incite à laisser la machine conduire alors qu’elle ne sait pas le faire complètement.
Ceux qu’on veut savoir : Est-ce que la voiture a continué le freinage ?
Et si désactivation de l’Autopilot = arrêt du freinage c’est très grave parce que la décélération en 1s est énorme. Ce n’est pas pareil de taper un véhicule ou un piéton à 70 km/h au lieu de 20 km/h !
La technologie, Tesla ou autre, ça marche parfaitement 99% du temps. (+ ou – en fonction de la voiture)
Reste les 1% , décrit dans la notice (ou pas) mais qu’on ne lit pas de toutes les façons, correspondant à quelques situations très particulières où la voiture ne contrôle plus rien, ou ne comprend pas ce qui se passe.
Une voiture ça reste binaire : elle comprend et s’adapte à son environnement, ou ne comprend pas ce qui passe…
Et quand elle ne comprend pas…
Elle rend alors les commandes au conducteur… logique… sans s’arrêter…
Et quand on n’a pas les pieds sur les pedales, 2 doigts sur le volant et le regard ailleurs, on finit dans le mur 🚑!
J’ai du mal à comprendre comment l’Autopilot peut être mis en cause pour ces accidents. C’est un problème humain plutôt que de logiciel.
Cet autopilote n’affranchit en rien le conducteur de porter son attention en permanence sur la route, donc l’autopilote qui se désactive seulement 1 seconde avant l’impact ne devrait pas poser de problème pour un humain qui regarde en permanence la route et qui aurait compris bien plus tôt qu’une situation dangereuse se produit.
Encore une fois, c’est un procès envers l’autopilote alors que ce sont les conducteurs totalement irresponsable qui ne prêtent plus attention à la route qui sont le vrai soucis.
Pas forcément fait exprès pour dédouaner Tesla, mais même si c’est un comportement « normal » du système (« je sais plus quoi faire, je te rends les commandes, dém… toi »), c’est que le système est une vraie bouse.
Ouach, si ça se confirme, c’est abusé ! Attendons quand même la fin de l’enquête..