La suite de votre contenu après cette annonce

L’organisme en charge de la sécurité des transports vient de rendre ses conclusions et formule des recommandations à la suite de l’accident mortel survenu avec un Model X P100D en 2018 à Mountain View, en Californie.
Coincée entre Palo Alto, Sunnyvale et Los Altos, Mountain View est traversée par l’autoroute US-101. C’est sur cette voie, à un endroit où une file se divise en 2 pour former une sortie avec la nationale 85, que l’engin est venu frapper le muret de séparation en béton.
Il avait déjà été établi que l’Autopilot était actif au moment de l’impact, et que le conducteur n’avait pas tenté d’intervenir sur la conduite du véhicule. Déjà très endommagé et en proie à un début d’incendie, le SUV électrique a ensuite été percuté par 2 autres engins. Le conducteur âgé de 38 ans, employé chez Apple, avait pu être extrait grièvement blessé du véhicule. Mais il avait perdu la vie quelques heures plus tard à l’hôpital.
Tesla avait rapidement pointé un défaut dans la barrière installée à cet endroit pour amortir le choc d’un tel accident survenu à plus de 110 km/h. Le constructeur avait mis également en cause le conducteur qui n’avait jamais réagi aux injonctions de reposer ses mains sur le volant.

Le NTSB donne partiellement raison à Tesla dans un communiqué daté du 25 février 2020. Selon l’organisme américain, le conducteur était sous « une dépendance excessive à l’égard de l’Autopilot » et distrait probablement par « une application de jeu sur son téléphone portable ». Ces 2 points sont la cause de l’accident du 23 mars 2018.
En facteur aggravant, le NTSB pointe « la surveillance inefficace du véhicule Tesla sur l’engagement de l’automobiliste » à la conduite de son Model X, et condamne la police californienne pour n’avoir pas signalé un précédent accident qui a rendu inefficace la barrière d’amortissement et n’a ainsi pas été remplacée. Cette dernière inaction a été perçue comme ayant « contribué à la gravité des blessures du conducteur ».
« Cet accident tragique démontre clairement les limites des systèmes avancés d’aide à la conduite offerts aux automobilistes aujourd’hui», a commenté Robert Sumwalt, président du NTSB. « Il n’y a pas actuellement de véhicule à la disposition des automobilistes américains qui soit autonome », a-t-il insisté.
En clair, le conducteur d’une Tesla doit toujours « être activement engagé dans la conduite » de son véhicule, même « lorsque les systèmes avancés d’aide à la conduite sont activés ». Et de conclure sur ce sujet : « Si vous conduisez une voiture avec un système avancé d’aide à la conduite, vous ne possédez pas de voiture autonome ».
Pour illustration, les conclusions du NTSB indiquent qu’au moment de l’impact le Model X était pleine accélération, le système Autopilot venait d’initier un changement de voie vers la gauche, n’a pas émis d’avertissement sur un risque de collision, n’a pas déclenché de freinage d’urgence ni retouché la trajectoire. Des propriétaires de Tesla avaient d’ailleurs réussi à reproduire le dysfonctionnement à l’époque.
Le NTSB a recensé au cours de son enquête sur cet accident 7 problèmes de sécurité
Afin de résoudre ces différents problèmes, le NTSB a formulé plusieurs recommandations de sécurité :
Le meilleur d'Automobile Propre, dans votre boite mail !
Découvrez nos thématiques voiture électrique, voiture hybride, équipements & services et bien d’autres
S'inscrire gratuitement
J ai du mal à comprendre certains commentaires de personnes ayant Pas de tesla et/ou pas de conduite autonome. « Pourquoi tesla averti pas si on lache le volant ? » « pourquoi le système ne se désactive pas ? » « pourquoi on peut conduire sans tenir le volant ? » « le plaisir de conduire » (sur autoroute c est sur que c est un plaisir de tenir le volant à 130 le pied rongé par les crampes. Et on peut accélérer ou freiner sans utiliser la pédale et désactiver le système, juste en tournant la molette et ça envoi du paté). bref... En gros et pour faire court la conduite autonome nécessite d avoir les mains sur le volant toutes les 15 sec sinon on est averti et plutôt bruyamment, et si on continue à ne pas toucher le volant le système se désactive et on ne peut pas le réactiver sans s arrêter et se mettre au pont mort. Puni ! Ce système est tout juste génial pour conduire sur autoroute ou voie rapide, on est moins fatigué et il fait très bien le job, ça dépasse tout seul (sur notre ordre). Et bien entendu on ne peut pas jouer ou surfer en conduisant avec ce système, tout est desactivé quand la voiture roule. Bien entendu celui qui veut jouer avec son smartphone le peut comme dans une autre voiture mais c est interdit et surtout jouer avec une main et l autre posée sur le volant... bref. Mais c est sur que ce n est pas un systeme pour conduire en ville en dormant mais que de bonheur dans les bouchons, on laisse faire le truc. Sur autoroute le pied. A noter qu en lisant l article y a 7 raisons suspectes pour expliquer l accident, 6 complètement indépendantes de la tesla et de son système, et 1 qui indique que le système était enclenché, mais que le gars tenait pas le volant. Tesla model 3 SR+ conduite autonome, qui fait des envieux et c est très bien comme ça. Faut pas avoir peur du progrès ça marche très bien mais c’est PAS UNE CONDUITE 100% AUTONOME, faut comprendre ça. La sortie auto est aussi super pratique mais c est un autre débat qui va faire pas mal rager les Zoeistes et autres leafers ou termiciens...
Quel cynisme… Sacrifier des vies humaines pour un gadget à la noix… C’est à Elon Musk de faire le bêta-testeur et le crash-testeur, pas à ses clients.
Enfin un peu de bon sens… Bravo Phi! Les Tesla sont des voitures formidables mais le soi-disant "Auto Pilot" est une cochonnerie infâme. S’il y avait moins de fanboys décérébrés (du même genre que les fanboys Apple d’ailleurs) et plus de critique constructive envers Tesla et ce dispositif en particulier certaines personnes seraient encore en vie. On parle juste d’une question de vie ou de mort…