
Aux Etats-Unis, une enquête préliminaire vient d’être ouverte suite à un accident mortel survenu avec une Tesla Model S munie de la fonction Autopilot.
L’enquête préliminaire a été confiée au NHTSA, l’autorité américaine en charge de la sécurité routière, qui devra déterminer la responsabilité du système de pilotage automatique de Tesla dans le décès d’un conducteur le 7 mai dernier à Williston, en Floride.
Selon Tesla, l’accident a eu lieu sur une voie rapide où un semi-remorque est arrivé par une route perpendiculaire, coupant la route à la Model S et coûtant la vie à Joshua Brown, un conducteur d’une quarantaine d’années. Celui-ci avait pourtant vanté les mérites de l’Autopilot Tesla quelques semaines plus tôt en publiant une vidéo où il montrait comment le système lui avait sauvé la vie lorsqu’un camion lui coupa la route (vidéo ci-dessous).
Pour le NHTSA, l’incident appelle à « un examen de la conception et des performances de tous les dispositifs d’aide à la conduite en cours d’utilisation au moment de l’accident ». Si elles démontrent un dysfonctionnement du système, les conclusions de l’enquête pourraient amener à un rappel, voire une désactivation, des quelques 25000 Model S équipées de la fonction Autopilot outre Atlantique.
De son côté, Tesla a réagi à l’annonce en publiant un long billet sur son blog dans lequel il rappelle que l’enquête menée par le NHTSA n’est aujourd’hui que « préliminaire » et ne remet pas officiellement en cause le fonctionnement de l’Autopilot.
Surtout, le constructeur ressort ses statistiques, indiquant qu’il s’agit du premier incident mortel sur les quelques 200 millions de kilomètres parcourus par les utilisateurs Tesla avec Autopilot activé. A titre de comparaison, il y a en moyenne un incident mortel tous les 150 millions de kilomètres aux Etats-Unis et un tous les 96 millions à l’échelle mondiale.
Le constructeur rappelle également que l’Autopilot reste une fonction d’assistance, le système imposant au conducteur de garder constamment les mains sur le volant pour pouvoir reprendre le contrôle de la voiture à tout moment.
Ce que je ne comprends pas par rapport au communiqué de Tesla, c’est que la model S est équipée d’une caméra et d’un radar : https://www.teslamotors.com/fr_FR/blog/your-autopilot-has-arrived.
Ce dernier agissant sur une gamme de longueur d’onde loin du visible, aurait du détecter le tracteur (a priori non furtif !) malgré la luminosité. L’algorithme de Tesla nécessiterait-il une confirmation de présence des deux capteurs pour activer le freinage d’urgence ?
S’il s’agit bien d’une défaillance du radar ou d’un problème de soft, il est possible que cet accident ne conduise à une interdiction temporaire du pilote automatique aux Etats-Unis, et par truchement en Europe.
Il se pourrait également que les ACC ne reposant que sur une caméra (exemple : BMW i3) en subissent les conséquences.
Bonjour
Ayant précommande une Tesla modèle 3, je n’ai jamais conduit une Tesla en mode autonome.
Suite à l’accident survenu en Floride, je me pose une question :
Quand on roule en mode autonome en Tesla, si l’on pousse sur la pédale de frein, sans avoir eu le temps de revenir en mode conducteur « normal », la voiture freine-t–elle immédiatement ? Ou faut-il prendre le temps de désactiver l’auto pilot avant de freiner ? Une seconde trop tard…
Merci pour la réponse !
Jean
Il faut arrêter de parler de « tout auto » ou de mode « autonome » comme je l’ai entendu à la radio aujourd’hui. On est en niveau 2 sur 4 c’est à dire que l’attention du conducteur est requise de façon permanente. https://fr.wikipedia.org/wiki/Voiture_autonome
L’autopilot Tesla n’est qu’une aide, très précieuse, mais ça reste qu’une aide. Le piège (compréhensible vu le très bon comportement de la voiture sous ce mode de conduite aidée) est justement de considérer que l’on peut se désintéresser de l’attention que l’on doit porter à la conduite et aux éléments extérieurs.
Il faut arrêter de parler de « tout auto » ou de mode « autonome » comme je l’ai entendu à la radio aujourd’hui. On est en niveau 2 sur 4 c’est à dire que l’attention du conducteur est requise de façon permanente. https://fr.wikipedia.org/wiki/Voiture_autonome
L’autopilot Tesla n’est qu’une aide, très précieuse, mais ça reste qu’une aide. Le piège (compréhensible vu le très bon comportement de la voiture sous ce mode de conduite aidée) est justement de considérer que l’on peut se désintéresser de l’attention que l’on doit porter à la conduite et aux éléments extérieurs.
La prochaine génération (autolilot V2) devrait intégrer plusieurs caméras en plus du radar et des capteurs ultrasons alors q’aujourd’hui il n’y a qu’une caméra doublée d’un radar hyperfréquence et 12 ultrasons. Actuellement l’autopilot tourne avec une puce EYEQ3. La prochaine génération devrait (au conditionnel) utiliser la puce EYEQ5 qui gère jusqu’à 8 caméras: http://electrek.co/2015/11/02/supplier- … n-as-2016/
Même avec ce futur éventuel équipement, je pense que la voiture sera en niveau 3 maximum c’est à dire non autonome.
Eh oui, il fallait que cela arrive. C’était prévisible …
L’autopilotage (celui à 100%) n’est pas encore « assez fiable » pour le mettre aussi vite sur nos routes. Trop de cas différents peuvent se présenter à un système n’ayant pas la faculté d’adaptation humaine, même si ces derniers font des erreurs. Tant qu’une très grosse majorité de véhicules ne sera pas interconnectée, il sera illusoire de croire que ces systèmes fassent baisser les morts sur nos routes. Les fautes de conduite seront fatalement remplacées par les fautes d’algorithme et d’électronique !
Là, ce n’était qu’une défaillance (je reste vague tant que l’on n’aura pas trouvé la source du PB) du système analysant l’environnement du véhicule (au sens large du terme). Mais targuer qu’il y a eu qu’un mort sur 200Mkm, alors qu’il n’y a 100K à peine de TMS avec ce système, me parait déjà ENORME, car dît autrement, cela ferait un risque de mourir dans sa TMS faisant 2000 km ! Drôle façon de présenter les choses, non ? A côté et vu comme cela, les autres accidents « thermiques » sont maintenant bien plus faibles. Que cela va-t-il donner, quand il y aura des millions de TMS en VA, avec en plus, leur défaillance hardware ? J’ai estimé la probabilité du risque à 1/438000 par jour, d‘avoir un accident grave et ceci, simplement due aux pannes intrinsèques du système. Et les bugs logiciels ne sont pas comptés !
Donc, une simple « aide » dans les bouchons à 30km/h, OUI, mais sur routes et autoroutes NON, ce n’est pas encore assez sûr pour demain. Peut-être pour après demain …
§
L’autopilotage sera la norme d’ici à 20 ans environ. Pas partout et pas dans toutes les circonstances mais 90% des kilomètres parcourus le seront certainement sous assistance. L’équation: vies sauvées / vies perdues grâce ou à cause de l’autopilotage ne se pose déjà plus:les bénéfices surpassent largement les pertes. La seule chose qui à tendance à rebuter les gens, c’est l’acceptance d’une décision prise par une machine – par des équations – et non par un raisonnement humain, c’est à dire en y mêlant des sentiments. Lorsque l’homme sera capable de faire passer la logique avant l’émotionnel, on vivra certainement dans un monde meilleur. (attention, je ne dis pas qu’il faut éradiquer les sentiments. Je parle dans ce contexte automobile)
Pour moi l’auto pilote doit pouvoir corriger les défaillances du conducteur. Pourquoi ne pas s’inspirer de l’avion? Il faut bien entendu quelqu’un aux commandes mais le fait pour un véhicule de couper la route à l’autre ou de lui rentrer dedans sciemment me semble difficile à éviter. Comment faire pour que le véhicule préserve l’intégrité du conducteur tout en évitant à coup sur un choc? Pas évident…
Autant la première photo avec l’indication des directions des véhicules semble correspondre à cela : https://www.google.fr/maps/place/Lil+Food+Ranch/@29.4106623,-82.5399847,471m/data=!3m1!1e3!4m5!3m4!1s0x88e892962706f72f:0x4a8a992974c39472!8m2!3d29.4102031!4d-82.5400505
Autant je ne vois pas où la seconde a été prise.
Si c’est bien là, quand je fais un vue depuis la google car, la visibilité est parfaite. Dans ce genre de situation, il faudrait vraiment que le camion débouche très vite pour que je n’ai pas le temps de l’éviter. Et en tout état de cause, je ne m’encastrerai pas dessous.
Le conducteur a-t-il utilisé l’autopilot dans les conditions prévues déjà ? Le mode autonome des Tesla pour l’instant est prévu pour les voies rapides, pas pour les voies avec intersections, si je ne dis pas de bétises. Ici, il semble que l’usage est fait sur route normale et l’accident sur une intersection… L’erreur semble surtout humaine (« semble », sans prédire des conclusions de l’enquête, donc)
le systeme ne lui avait pas sauve la vie mais eviter un accrochage comme il s’en produit tres souvent…
La question n’est pas de savoir si le système est dangereux, tout vehicule lancé à plus de 100km/h comporte un risque mortel pour ses occupants et un simple mouvement suffit à tuer une personne extérieure. La vraie question: l’activation du système permet il de reduire significativement les risques d’accident ? Au delà même de la responsabilité du conducteur car si l’auto-pilote incite les conducteurs à détourner leur attention il sera mis en cause. A l’inverse s’il réduit la fatigue et permet de rester mieux concentré, c’est qu’il est bénéfique. C’est aussi simple que ça et seules les statistiques prouveront sont efficacité. Dans le cas présent, la première question est de savoir si le conducteur aurait pu voir et éviter à temps le camion en conduite manuelle…
C’est dramatique, mais ça devait arriver. Je trouve déjà remarquable que cela se soit passé après 200M de Km. D’un côté, on n’active que l’autopilote dans les cas de conduite « facile », mais de l’autre côté, c’est encore une fonction beta qui va aller en s’améliorant. Combien d’accidents ont été évités grâce à l’autopilote?
Bref, j’espère que les autorités ne feront pas bloquer une fonctionalité qui deviendra normale dans quelques années.
le conducteur doit être maître de son véhicule, l’autopilote est une grosse bêtise selon moi.