L’organisme en charge de la sécurité des transports vient de rendre ses conclusions et formule des recommandations à la suite de l’accident mortel survenu avec un Model X P100D en 2018 à Mountain View, en Californie.
En sandwich
Coincée entre Palo Alto, Sunnyvale et Los Altos, Mountain View est traversée par l’autoroute US-101. C’est sur cette voie, à un endroit où une file se divise en 2 pour former une sortie avec la nationale 85, que l’engin est venu frapper le muret de séparation en béton.
Il avait déjà été établi que l’Autopilot était actif au moment de l’impact, et que le conducteur n’avait pas tenté d’intervenir sur la conduite du véhicule. Déjà très endommagé et en proie à un début d’incendie, le SUV électrique a ensuite été percuté par 2 autres engins. Le conducteur âgé de 38 ans, employé chez Apple, avait pu être extrait grièvement blessé du véhicule. Mais il avait perdu la vie quelques heures plus tard à l’hôpital.
Tesla avait rapidement pointé un défaut dans la barrière installée à cet endroit pour amortir le choc d’un tel accident survenu à plus de 110 km/h. Le constructeur avait mis également en cause le conducteur qui n’avait jamais réagi aux injonctions de reposer ses mains sur le volant.
Distrait par un jeu vidéo ?
Le NTSB donne partiellement raison à Tesla dans un communiqué daté du 25 février 2020. Selon l’organisme américain, le conducteur était sous « une dépendance excessive à l’égard de l’Autopilot » et distrait probablement par « une application de jeu sur son téléphone portable ». Ces 2 points sont la cause de l’accident du 23 mars 2018.
En facteur aggravant, le NTSB pointe « la surveillance inefficace du véhicule Tesla sur l’engagement de l’automobiliste » à la conduite de son Model X, et condamne la police californienne pour n’avoir pas signalé un précédent accident qui a rendu inefficace la barrière d’amortissement et n’a ainsi pas été remplacée. Cette dernière inaction a été perçue comme ayant « contribué à la gravité des blessures du conducteur ».
La conduite autonome, cette inconnue
« Cet accident tragique démontre clairement les limites des systèmes avancés d’aide à la conduite offerts aux automobilistes aujourd’hui», a commenté Robert Sumwalt, président du NTSB. « Il n’y a pas actuellement de véhicule à la disposition des automobilistes américains qui soit autonome », a-t-il insisté.
En clair, le conducteur d’une Tesla doit toujours « être activement engagé dans la conduite » de son véhicule, même « lorsque les systèmes avancés d’aide à la conduite sont activés ». Et de conclure sur ce sujet : « Si vous conduisez une voiture avec un système avancé d’aide à la conduite, vous ne possédez pas de voiture autonome ».
Pour illustration, les conclusions du NTSB indiquent qu’au moment de l’impact le Model X était pleine accélération, le système Autopilot venait d’initier un changement de voie vers la gauche, n’a pas émis d’avertissement sur un risque de collision, n’a pas déclenché de freinage d’urgence ni retouché la trajectoire. Des propriétaires de Tesla avaient d’ailleurs réussi à reproduire le dysfonctionnement à l’époque.
7 problèmes de sécurité identifiés
Le NTSB a recensé au cours de son enquête sur cet accident 7 problèmes de sécurité
- distraction du conducteur,
- atténuation de la surveillance de l’engagement de l’automobiliste à la conduite du véhicule,
- mauvaise évaluation des risques par le système Autopilot,
- limites des dispositifs anticollision,
- surveillance fédérale insuffisante sur les systèmes d’assistance à la conduite,
- besoin d’enregistrement des décisions prises par ces dispositifs,
- problèmes d’infrastructure routière.
Recommandations du NTSB
Afin de résoudre ces différents problèmes, le NTSB a formulé plusieurs recommandations de sécurité :
- Extension des tests du programme d’évaluation des voitures neuves de la NHTSA (agence fédérale américaine chargée de la sécurité routière) sur les performances des systèmes d’évitement des collisions avant
- Evaluation des véhicules équipés du pilote automatique Tesla pour déterminer si les limites de fonctionnement du système, la prévisibilité d’une mauvaise utilisation et la capacité d’entraîner les véhicules ainsi équipés dans toute situation posent un risque déraisonnable pour la sécurité.
- Développement collaboratif de normes pour les systèmes de surveillance afin de réduire le risque de désengagement du conducteur, d’éviter la complaisance de l’automatisation et de tenir compte d’une mauvaise utilisation prévisible du dispositif.
- Examen et révision des initiatives qui visent à obtenir des employeurs une politique stricte d’interdiction d’utiliser des appareils électroniques portables pendant la conduite.
- Modification des stratégies d’application de la loi pour les employeurs qui n’abordent pas avec leurs collaborateurs les dangers de la distraction au volant.
- Développement d’un mécanisme de verrouillage de la distraction au volant, ou d’une application qui désactiverait automatiquement sur les appareils électroniques portables toutes les fonctions susceptibles de distraire un conducteur lorsque son véhicule est en mouvement.
- Elaboration d’une politique interdisant à tous les employés et sous-traitants l’utilisation non urgente des appareils électroniques portables pendant la conduite de véhicules de l’entreprise, que ce soit pour des raisons personnelles ou professionnelles.
J ai du mal à comprendre certains commentaires de personnes ayant Pas de tesla et/ou pas de conduite autonome. « Pourquoi tesla averti pas si on lache le volant ? » « pourquoi le système ne se désactive pas ? » « pourquoi on peut conduire sans tenir le volant ? » « le plaisir de conduire » (sur autoroute c est sur que c est un plaisir de tenir le volant à 130 le pied rongé par les crampes. Et on peut accélérer ou freiner sans utiliser la pédale et désactiver le système, juste en tournant la molette et ça envoi du paté). bref… En gros et pour faire court la conduite autonome nécessite d avoir les mains sur le volant toutes les 15 sec sinon on est averti et plutôt bruyamment, et si on continue à ne pas toucher le volant le système se désactive et on ne peut pas le réactiver sans s arrêter et se mettre au pont mort. Puni ! Ce système est tout juste génial pour conduire sur autoroute ou voie rapide, on est moins fatigué et il fait très bien le job, ça dépasse tout seul (sur notre ordre). Et bien entendu on ne peut pas jouer ou surfer en conduisant avec ce système, tout est desactivé quand la voiture roule. Bien entendu celui qui veut jouer avec son smartphone le peut comme dans une autre voiture mais c est interdit et surtout jouer avec une main et l autre posée sur le volant… bref. Mais c est sur que ce n est pas un systeme pour conduire en ville en dormant mais que de bonheur dans les bouchons, on laisse faire le truc. Sur autoroute le pied. A noter qu en lisant l article y a 7 raisons suspectes pour expliquer l accident, 6 complètement indépendantes de la tesla et de son système, et 1 qui indique que le système était enclenché, mais que le gars tenait pas le volant. Tesla model 3 SR+ conduite autonome, qui fait des envieux et c est très bien comme ça. Faut pas avoir peur du progrès ça marche très bien mais c’est PAS UNE CONDUITE 100% AUTONOME, faut comprendre ça. La sortie auto est aussi super pratique mais c est un autre débat qui va faire pas mal rager les Zoeistes et autres leafers ou termiciens…
La route de l’autopilot se poursuit, il y aura inévitablement des incidents et accidents. Mais l’objectif est claire et atteignable moins d’accidents plus de sécurité et plus de confort pour les conducteurs. Je suis heureux voir le chemin parcouru depuis cet accident de 2018. Nous somme déjà en 2020. Alors dans plusieurs mois où années la solution sera sans aucun doute plus performante et sécurisante.
Vol Rio Paris pilote automatique on… Vous connaissez la suite.
Cet utilisateur de tesla ne conduisait pas, il jouait……
Dans l’airbus il faisait noir à l’extérieur et les instruments étaient trompeur car défaut de sonde et logiciel….
À la sabena beaucoup de pilotes fixaient un Garmin etrex Vista avec une ventouse sur le pare brise, histoire de palier aux bugs sur les airbus…. Surtout au début….
Dans ma modèle S, je quitte pas la route des yeux, et toujours une main sur le volant…
Des amis qui ont des M3 me confirment Que mon AP1 est plus sur que le système de leurs voiture, ils préfèrent rouler à l’ancienne sans AP engagé…
Bref c’est encore moi qui conduit.
A quoi sert donc ce gadget en dehors de grever le budget de 10 % et enrichir Tesla ?
Et le plaisir de conduire dans tout cela ?
Les aides électroniques constituent un réel progrès de sécurité (ABS ASR ESP, contrôle de vent latéral, des angles morts, etc ) à condition de rester une surveillance en tâche de fond
Si j’ai besoin de dormir ou me reposer pendant un trajet, je passe le volant au passager ou je stoppe sur le bas coté
Ou alors je prends le train ou l’avion
en mode LKA, ma Ioniq me rappellle toutes les 14s je crois que je dois serrer le volant.
Alors a Tesla, qui se veut super avance avec l’autopilot, une suggestion de la part d’1 esprit humain pas tres evolue: 1 bip, pas de reaction, 2 bips, pas de reaction, 3 bips, tjs pas de reaction: freinage progressif, direction le bord de la route, feux de detresse, arret d’office et appel aux services de secours / police avec une voix synthetique et un message standard comprenant un appel a l’aide, le num de la voiture, et les coordonnees GPS ou l’adresse de la voiture immobilisee. La conduite totalement autonome, c’est pas encore ca.
L’IA c’est tres bien, mais le bon sens chez les developpeurs c’est pas mal aussi ……
Soyons honnêtes et arrêtons la langue de bois. L’auto pilot est un gadget. Je ne l’utilise plus du tout. On est obligé de le surveiller pendant que lui, surveille la route…quand à l’anticollision, il se déclenche de temps en temps et pas toujours à bon escient. Je pense qu’il est trop tôt pour cette technologie. Si je reprends une Tesla, je ne prendrai pas l’AP.
En terme de sécurité accrue, l’on sait, tel que sur un avion, qu’il faut des systèmes redondants passant par des moyens complètement différents (pas le cas pour le stabilisateur chez Boeing MAX !).
Hors, comme je me le suis prouvé jeune deux fois :
– par jeu d’abord (notre GPS intérieur… fonctionne quand on se dit arriver quelques part sans connaître un quartier de banlieue de grande ville comme Paris) ;
– en situation à risque, de se répéter « être en sécurité maximale (comme ce fût le cas pour moi, en montant dans les Alpes sur une route étroite en vallée encaissée sans visibilité dans aucun tournant, ayant senti devoir me ranger avant un tournant juste avant que n’en déboule un camion fou prenant toute la route en descente…, sueur froide à l’appui !).
Une société où tant de jeunes se déresponsabilisent sur la gestion de soi…, c’est grave en l’occurrence, puisque impliquant la vie des autres…
Au delà de la faute inexcusable du conducteur (jouer en conduisant ? sérieusement ?! ) distraction + inattention totale à son environnement, je pense que Tesla à sa part de responsabilité. Il se défendent avec un « Le constructeur avait mis également en cause le conducteur qui n’avait jamais réagi aux injonctions de reposer ses mains sur le volant. »
J’ai un Niro avec LKA. Quand je lâche le volant et qu’il le détecte, l’ODB couine 5s puis désactive le LKA. Pourquoi Tesla ne désactive pas la fonction après avertissement(s) ?
Concernant l’environnement, et le marquage partiellement ou totalement effacé, là encore c’est au conducteur d’être attentif. Si « autopilot » est un nom très mal choisi, il reste dépendant de capteur optiques qui peuvent, comme l’oeil humain, être trompé. A plusieurs reprise lors de mes trajets, sur autoroute ou non, des raccordes de bitume dans le sens de la marche ont perturbé le LKA et ce dernier a commencé à tirer sur la gauche ou droite. Sans réaction de ma part, je partais sur l’autre voie ou sur la BAU.
Bref, si les fonction de conduite semi autonome sont un vrai plus pour la sécurité au global, ils ne peuvent pas connaître tous les cas de dégradation de la chaussée. Le conducteur restera indispensable pendant encore longtemps.
Jouer sur son portable au volant, nan mais sérieux quoi … -_-
A l’endroit de l’accident, il y a également un sacré défaut de marquage au sol. (bien visible sur la vidéo lors d’un premier visionnage.)
Un humain peut également se faire avoir un jour de pluie ou de brouillard.
d’ailleurs, l’enquête parle d’une détérioration du dispositif d’amortissement de choc dû à un précédent accident.
Mon message sur le fil précédent concernant l’AP de Tesla prend tout son sens : https://www.automobile-propre.com/tesla-aurait-6-ans-davance-sur-toyota-et-volkswagen/#comment-278589
« Où est-il possible pour un particulier de pouvoir utiliser une voiture autonome sans aucune intervention de sa part ?
Dans ce domaine, c’est bien le maillon faible qui va décider du moment où ce système sera autorisé. Autant dire que cela n’a pas beaucoup d’intérêt d’avoir de l’avance dans ce domaine.
Et comme certains constructeurs ont décidé qu’ils n’iront pas au-delà du niveau 3, autant dire que cela ne sert strictement à rien.
Pour que cela se développe, il faudra une volonté et une décision des politiques, à mon avis c’est pas pour demain notamment avec les assureurs qui freinent. »
Reste à définir qui était le maillon faible là : le système lui-même ou l’infrastructure ?
Une petite caméra qui vérifie constamment l’attention et c’est plié.
Bizarre cette propension à laisser penser que l’Autopilot de Tesla n’est pas la cause directe de l’accident , pourtant ca semble clair le systeme à carrément fait n’importe quoi et mis la voiture dans le mur .
EN quoi le conducteur est en cause ? il n’avait pas les mains sur le volant , et si il avait eu les mains sur le volant ca aurait changé quoi ? le systeme n’aurait pas mis la voiture dans le mur ? c’est ridicule
Ce qu’on comprend c’est que ce systeme a des failles et que ça peut coûter la vie
Je pensais ce systeme fiable et que Tesla avait une maitrise totale , hors vu cet événement j’en suis plus du tout convaincu . Si demain j’achete une Tesla , qui reste aujourd’hui à mes yeux les meilleures VE pour voyager (pour l’urbain y a mieux ailleurs) ,sans hesitation c’est sans cette option
y’a un sacré décalage entre le titre qui accable de facto le conducteur et le résultat de l’enquête qui pointe :
– la mauvaise évaluation des risques par le système Autopilot,
– les limites des dispositifs anticollision,
– la surveillance fédérale insuffisante sur les systèmes d’assistance à la conduite
Pour un cas où l’autopilot n’a pas réagit chilien de cas où il a sauvé la mise ? Les stats sont formelles, 40% d’accidents en moins sous autopilot.
Le rapport bénéfice sur risque est archi favorable, perdez pas de temps la dessus
Le conducteur n’a pas gardé les mains sur le volant, il n’était pas attentif – paix à son âme – la belle excuse de ✝esla !
Il va falloir avouer un jour que ce n’est pas du tout au point.
Surtout que tous les moniteurs d’auto-écoles vous confirmeront que ça demande plus d’efforts de surveiller un conducteur novice que de conduire soit-même.
Alors à quoi sert la conduite autonome si on doit la surveiller comme le lait sur le feu ?
Hallucinante la vidéo, pourquoi n’y a t’il pas de ligne au sol sur autoroute ?!
« au moment de l’impact le Model X était pleine accélération, le système Autopilot venait d’initier un changement de voie vers la gauche, n’a pas émis d’avertissement sur un risque de collision, n’a pas déclenché de freinage d’urgence ni retouché la trajectoire. »: personnellement j’appelle ça une voiture meurtrière. Pas demain la veille que le niveau 4 sera autorisé et heureusement! Le simple fait que ça existe en niveau 3 est déjà scandaleux