L’autorité américaine des transports a lancé une enquête fédérale au sujet de l’Autopilot de Tesla. La NHTSA s’étonne que le système semi-autonome n’ait pas permis d’éviter une série d’accidents.
Les collisions et autres problèmes impliquant l’Autopilot de Tesla occupent souvent une place de choix sur le plan médiatique. Ceux-ci sont néanmoins peu nombreux et restent le plus souvent limités dans leurs conséquences.
La NHTSA (National Highway Traffic Safety Administration) avait d’ailleurs vanté la sécurité des véhicules de la marque. C’est pourtant cette même autorité qui ouvre une enquête sur l’Autopilot, après une série d’accidents.
Pourquoi ? Tout simplement parce qu’ils ont la particularité d’impliquer des Tesla à l’Autopilot actif, mais aussi, et surtout des véhicules d’urgence.
C’est au total 11 événements, où des ambulances et des engins de police ou des pompiers ont subi des chocs avec des Tesla, sur lesquels la NHTSA veut investiguer aujourd’hui. Le plus ancien remonte à 2018. Si l’enquête ne débute finalement qu’en 2021, c’est parce que quatre nouveaux incidents de ce type ont eu lieu au cours de la présente année.
Ainsi le 27 février au Texas, une Tesla avec l’Autopilot en service est entrée en collision avec un véhicule d’urgence. Un scénario qui s’est répété le 17 mars à Lansing (Michigan), le 19 mai à Miami, et le 10 juillet à San Diego.
Des circonstances similaires dans chacun des accidents
Cette régularité inquiète l’autorité des transports, qui voit un risque pour les « first responders », c’est-à-dire les secouristes en tout genre. La NHTSA a noté des similitudes entre les 11 accidents, notamment dans leur déroulé.
« La plupart des incidents ont eu lieu après la tombée de la nuit, et les scènes d’accidents que nous avons découvertes incluaient des mesures de contrôle des lieux, avec des lumières, des balises lumineuses, des panneaux avec des flèches clignotantes et des cônes de balisage », a expliqué l’agence fédérale. « Les véhicules impliqués avaient tous l’Autopilot ou le régulateur adaptatif enclenché à l’approche des accidents. »
L’enquête se penche sur l’ensemble des modèles de la gamme Tesla recevant l’Autopilot. La NHTSA va donc étudier les Model S, Model X, Model 3 et Model Y produits entre 2014 et 2021.
Il est cependant peu probable que l’action débouche sur une sanction contre la firme d’Elon Musk. L’objectif de la démarche est surtout de comprendre pourquoi l’Autopilot semble présenter cette faille, afin de la corriger.
Une fonction qui n’est pas fiable à 100% ne sert à rien.
C’est comme donner le volant à un jeune conducteur, il vaut mieux l’accompagner et rester vigilant.
Si c’est autant de stress avec l’autopilot, je ne vois pas l’intérêt.
Par contre, le freinage d’urgence anti-colision, ça c’est utile.
Il semblerait que ce système ne soit pas terrible chez Tesla !
La nuit avec ces lumieres de signalisation ou d’éclairage inahabituels, ca peut etre tres perturbant et difficile a interpreter pour un humain, alors pour une machine….
Il faut comprendre ce qui se passe, c’est bien que des enquêtes soit menées, ça servira à tout le monde .
Cependant je ne comprends pas pourquoi, les conducteurs ne reprennent pas la mains dans des circonstances exceptionnelles . Il y a tout de même un manque de raison, un excès de confiance et surtout un gros manque d’attention je trouve.
On le sait, plus c’est perturbé, plus les conducteurs font n’importe quoi.(trop vite, trop prêt , changement de fil et j’en passe) En gros, ralentir, reprendre la main, et être cool. Mais ça c’est déjà trop pour une grande majorité des gens…
Model 3 de juin 2020 avec dernière maj.
Trajet de 630 km cette semaine : 3 tentatives d’autopilot à différents stades du parcours sur autoroute… 3 demandes express de mon épouse d’arrêter le massacre suite à 3 freinages intempestifs. Il s’agit dans 2 cas des ombres et lumières (pont et tunnel) et un cas de dépassement d’un véhicule un peu trop sur sa gauche… Bref, je ne l’utilise pas souvent car trop souvent je me suis fait peur avec ces freinages violents à la c…
Par contre, j’utilise constamment le régulateur adaptatif, qui est très performant et un régal dans les bouchons.
En aviation, accidents graves ou bénins sont soumis au BEA de la DGAC dans un but constructif, éviter que ça se reproduise en comprenant ce qui a amené à la situation de l’accident, voire générer des recommandations ou aménagements de réglementation.
La démarche me semble saine en dehors de certains médias qui en font des caisses comme dab…
Personnellement je préfère ne pas utiliser l’autopilot sur ma model 3. Il suffit de voir le nombre de freinages fantome que l’on subit avec ce système pour comprendre que ce n’est pas fiable.
Situations avec de multiples souces lumineuses, véhicules d’urgence, signalisations temporaires moins faciles à interpréter… bien sûr cela peut induire en erreur, aussi bien un autopilote qu’un conducteur humain.
Le principal souci vient du fait de se retrouver dans ce genre de situation sous autopilote. Soit c’est intentionnel et stupide, soit c’est parce que l’évènement survient trop vite, soit c’est parce que le degré d’inattention est excessif.
Un avertissement clair devrait être donné par la voiture quand les paramètres deviennent difficiles et que la marge de sécurité se réduit.
La coexistence de conducteurs physiques et d’automatismes va forcément générer des problèmes. L’une des clés est la formation… pour comprendre les limites et les possibles incohérences. Vu le nombre de crétins qui collent, expliquer ce qu’est un freinage fantôme peut servir…
A ce que j’en lis ce sont principalement des (sur)accidents qui arrivent sur une zone déjà balisée (pour une autre intervention en cours)… un peu comme les camionnettes d’interventions sur la bande d’arrêt d’urgence des autoroutes en France qui se font enfler car le chauffeur d’un camion dors au volant en se calant sur le bruit de la bande rugueuse ou regarde la télé… L’autopilot le plus basique c’est bien sur une autoroute déserte, avec une bonne visibilité pour les capteurs et aucun évènement particulier (traversée d’animaux ou autres)… ce qui représente 98% des km que l’on parcours ainsi… bien sûr on développe des fonctions pour prendre en charge plus de cas particuliers mais il y en aura toujours des non prévus pour une IA… (automate plutot)… ce que je ne comprends pas c’est (même si le chauffeur doit rester attentif et reprendre la main) pourquoi le véhicule en cas de doute ne s’arrête simplement pas !
Sur les 4 crashs listés pour 2021 : 2 conducteurs en état d’ébriété, 1 qui roule sans permis (sans autopilote) et un qui roule à >200km/h sans autopilote.
Il y a peut-être un bug qui a causé ces accidents, et/ou un manque d’attention du conducteur.
En tout état de cause, il semble qu’en comparant le nombre d’accidents rapportés aux nombre de kilomètres parcourus en autopilot, il y ait beaucoup moins d’accident que sur les autres véhicules. même s’il arrive des accidents qui semblent anormaux, s’il y en a 10 fois moins que pour les voitures 100% conduites par des humains, c’est que globalement l’autopilot est plus sûr que les humains. Le risque 0 n’existera JAMAIS