Le conducteur d’une Tesla avec système Autopilot enclenché va être traduit en justice suite à un accident qui a tué deux personnes dans la banlieue de Los Angeles.
Selon un juge du comté de Los Angeles, il y a assez de preuves pour qu’ait lieu le procès de Kevin Riad, 27 ans, pour deux cas d’homicide involontaire par véhicule, suite à un accident en 2019 au volant d’une Tesla Model S qui a coûté la vie de deux personnes à Gardena, ce qui en ferait la première poursuite pour crime aux États-Unis contre un conducteur utilisant un système de conduite semi-autonome.
La police dit que la Tesla, après avoir quitté l’autoroute, a brûlé un feu et roulait à 119 km/h au moment de percuter une Honda Civic à une intersection le 29 décembre 2019. Les occupants de la Civic, Gilberto Lopez, 40 ans, et Maria Nieves Lopez, 39 ans, ont été tués sur le coup tandis que Riad et une femme qui l’accompagnait ont été hospitalisés pour de légères blessures.
L’Autopilot et le Full Self Driving ne sont pas des systèmes de conduite autonomes
Les enquêteurs ont révélé que l’Autosteer (assistance au maintien de cap) et le Traffic Aware Cruise Control (régulateur de vitesse adaptatif) de la Tesla étaient enclenchés, un ingénieur de la marque témoignant que les capteurs indiquent que Riad avait bien une main sur le volant, mais que la pédale de frein n’a pas été touchée pendant les six minutes qui ont précédé l’accident. Tesla a rappelé que l’Autopilot et le plus sophistiqué Full Self Driving ne sont pas des systèmes de conduite totalement autonomes et que les conducteurs les utilisant doivent rester attentifs et être prêts à réagir à tout instant.
À lire aussi Poursuivi par la justice pour son hybride rechargeable mal branché, il nous dit tout !Ce n’est cependant pas la première fois qu’un tel accident a eu lieu puisqu’une autre affaire du même genre est en attente qu’un procès soit ordonné pour homicide par négligence en Arizona suite à la mort d’un piéton en 2020 fauché par un Volvo XC90 en plein test commandité par Uber pour le développement de son système de conduite autonome. Une seconde enquête est en cours par la NHTSA suite à un accident le 12 mai dernier impliquant une autre Tesla à Newport Beach et qui a tué trois personnes.
120 km/h sur un carrefour avec des feus tricolores… mais ouais… Sérieux Kevin (désolé pour les autres Kevin), t’as finis de faire ton Kevin ?
Depuis quand tu laisse un véhicule prendre des décisions (ou des non décisions), le matien de cap n’as JAMAIS été prévu pour s’arrêter aux feux…
Sans compter 120km/h ? T’es sérieux.
Dans un autre véhicule, on n’aurais le bénéfice du doute, mais là avec Tesla… ils ont eu raison de dire que aucune appuis sur la pedale de Frein n’as été enregistré pendant les 6 minutes avant l’accident.
Clairement c’est de la faute de ce Kevin (selon ce qui est écris dans l’article), et j’espère bien que le compte rendu de ce procès sera bien public pour calmer les gens qui croient que l’autopilot (plutôt mal nommé en effet), ne remplace pas le conducteur même en NoA.
Déjà l’autopilot n’est pas la conduite autonome. Ce que je comprends de l’article c’est que c’est bien l’autopilot (régulateur adaptatif + aide au maintien dans la voie) et non le FSD qui était activé. Sur n’importe quelle voiture si vous calez le régulateur a 120 en ville et que vous n’appuyez pas sur le frein, ou ne désactivez pas le système, les résultats ne seront pas beaux à voir. Encore une fois le problème ce situe entre le siège et le volant.
Si il y a bien un truc marketing qui fait plus de mal que de bien à Tesla, c’est d’avoir appelé « autopilot » tous les niveaux d’aides à la conduite.
C’est certain, «Traffic Aware Cruise Control» ou «régulateur de vitesse adaptatif» cela fait moins S3XY!
Car beaucoup comprend que autopilote = plus besoin de pilote.
Et forcement ils se doivent de le redire en permanence après.
Bref, donc ici il n’y avais pas de FDS (le truc le plus « autopilot » même si pas complètement autonome) si je lis bien l’article?!
Dans ce cas la vitesse excessive et l’absence de freinage pendant 6mn est bien conséquente à une volonté du conducteur, vu que les deux modes cités ne prennent pas en compte les panneaux d’arrêts et les lumières.
Cela va être dur pour lui de dire que la voiture est responsable…
La question sera: s’en est-il rendu compte?
Vous connaissez des routes où l’on peut franchir légalement un croisement avec feu tricolore à près de 120 km/h ? Moi pas, et aux États-Unis j’en doute encore plus.
Il y a sans doute plusieurs facteurs en jeu dans l’affaire. Mauvaise lecture d’un panneau de limitation de vitesse et un gros souci du côté du conducteur qui n’a visiblement même pas appuyé au dernier moment sur le frein ?
Ce qui est bien c’est qu’au fil de l’évolution des technos, on va découvrir des lieux où l’accident peut devenir automatique selon certaines circonstances. On nous avait bien dit que l’IA finirait par nous éliminer de l’équation :)
Ce serait aussi intéressant de savoir combien d’accidents ont été évités lorsque le système autosteer est enclenché pour savoir où en est la balance bénéfice risque.