Mis en cause il y a deux ans suite à un accident qui avait coûté la vie à un conducteur, l’Autopilot Tesla est la cible d’une nouvelle enquête aux Etats-Unis.
Cette fois-ci, pas de blessés mais de sérieux dégâts matériels puisque l’incident concerne une Model S venue s’encastrer à plus de 100 km/h dans un véhicule d’intervention des pompiers à priori stationné sur une autoroute. Selon le conducteur, l’Autopilot était activé au moment de l’accident. Il n’en aura pas fallu davantage pour inciter, la NTSB – l’autorité fédérale en charge de la sécurité routière – à ouvrir une enquête. Dans un tweet publié cette semaine, l’organisme précise que deux enquêteurs sont mobilisés sur le terrain.
Two NTSB investigators from HQ to conduct field investigation of Jan. 22, crash involving a Tesla and fire truck, near Culver City, CA. Focus of field investigation is driver and vehicle factors.
— NTSB_Newsroom (@NTSB_Newsroom) 23 janvier 2018
Lors de l’accident mortel de 2016, la NSTB avait conclu que l’Autopilot avait fonctionné normalement mais qu’il avait joué un rôle dans l’accident, les caméras n’ayant pu détecter un camion traversant la route. Pour rappel, l’Autopilot Tesla n’est pas un système 100 % autonome et requiert une attention humaine de tous les instants.
Si elle devrait en toute logique tenir le conducteur pour responsable, cette nouvelle enquête pourrait toutefois pointer une nouvelle fois du doigt certaines faiblesses des systèmes de surveillance censés contrôler la vigilance du conducteur, notamment via la présence des mains sur le volant. Il y a quelques semaines, nous avions pu prendre le volant du Model X En testant l’Autopilot et en gardant les mains « hors du volant », nous nous étions aperçus qu’il fallait plus de 40 secondes avant que le système ne se coupe totalement et ce après différents niveaux d’alerte. Une action qui, si elle est répétée, sanctionne le conducteur en coupant la fonction Autopilot jusqu’au prochain arrêt.
Reste maintenant à connaitre les conclusions de l’enquête du NSTB sur ce nouveau dossier. Une attente qui risque d’être longue… Suite à l’incident de 2016, il avait fallu un an à l’organisme pour boucler son enquête.
Source : Electrek
autopilot ou pas, ce crétin n’a qu’à conduire sa voiture convenablement. On ne s’encastre pas comme ça par hasard, mais plutôt par insouciance coupable… Il aurait pu tuer quelqu’un ! Je suis plutôt content même qu’il ait bousillé sa voiture, qu’il aille s’acheter un vélo électrique en autopilot maintenant :-)
Si ‘étais une bonne roman-scie-ere, je monterais une bell hisse-toit-rare de voitures quasiment à 100% autonome qui par mauvaise analyse de ses ‘loge-gîte-ciels’ conduit progressivement toute la population mondiale à des accidents insoupçonnables jusqu’à réduire… la surpopulation mondiale !
Mais, là où le roman de science friction ne tournerait plus rond, c’est que ces accidents surviendraient d’abord aux riches allant à toute allure, sûrs de leurs droits « dits-vains », qui après de trop bons repas et des joints que « l’on a droit de se permettre » car « au dessus des lois », en oublieraient de garder les mains sur le volant gardé escamoté trop souvent…
Sur un tel terrain glissant genre patinoire à glace dont on n’a pas cru bon de tenir compte par temps plus aussi en accord avec l’harmonie planétaire pour cause de pensées plus trop prudentes, donc normales, que deviendraient les cours de bourse…, changés à la nano-seconde par une intelligence artificielle qui ne tiendrait plus que de son envie débridée de s’améliorer elle seule…? (suite à jam-mets)
Déjà deux morts (dont un officiel) pour 40000 pseudo VA, et depuis plusieurs accrochages ‘wordwide’, cela commence à être significatif. Les statistiques seraient elles en voie de confirmation ?
Eh oui, maintenant même en ligne droite, une « faute d’inattention de la puce » …
Nous ne sommes toujours pas convaincus que cet « Autopilot » soit mature !
§
Autopilote ce n’est pas la bonne description mais assistance de conduite perfectionnée. C’est interdit par la loi d’utiliser un autopilote sur le route, sauf autorisation des autorités
pour avoir fais plus de 55000km en un an avec une grosse majorité avec l’autopilot enclenché ( je dirais 80 à 85% avec autopilot) il reste bien plus sur qu’une conduite sans , il m’a déjà éviter au moins 4 accidents graves ( à chaque fois sur des micro perte d’attention , ou le conducteur de devant freine pour rien ( ou pour un piéton qui traverse en courant une grande route , avec un départ caché derrière un camion …) la voiture sonne une alerte et cela permet de reprendre le contrôle ce qui est très sécurisant , de plus , sur autoroute , l’autopilot me permet d’être bien plus attentif , car je n’ai pas la vitesse à gérer , je peux donc voir les véhicules circuler autour de la voiture , vérifier les rétros plus souvent et je me fait donc beaucoup moins surprendre par les autres utilisateurs de la route
elle gère aussi très bien les bouchons dès le départ ( la formation d’un bouchon , la voiture ralentis toute seul ( d’ou l’étonnement de la photo du camion de pompier ) elle régule la vitesse à un bonne distance et je n’ai jamais eu besoin de reprendre le contrôle , seule chose sur route relativement étroite ( type périf parisien) , il faut anticiper l’arrivée des motards en inter-file mais une fois de plus , on à juste ça à faire , je reprend le contrôle le temps que la moto passe ( pour me déporter suffisamment pour qu’il puisse passer sans problème)
pour revenir a l’accident , la cause la plus probable , c’est que la tesla suivait un autre véhicule, qui a déboîté au dernier moment sans ralentir , l’autopilote n’ayant pas le droit de changer de file ( interdis légalement pour le moment) , il a juste freiné , mais clairement le conducteur aurait du faire ce changement de file ….
vu les dégats, il n’était pas à 100km/h mais plutôt aux alentours de 50 voire en deçà : d’ailleurs il a pris le camion par le dessous ce qui montrerais que la voiture piquait du nez…
En tous cas, il est quand même rentré à 100kms/H dans un mur (le camion est tellement lourd que c’est quasiment un mur), je suppose sans freiner à moins que la voiture n’ait fini par le « voir » sur le tard, et le type s’en sort vivant! Pas sûr que ce soit le cas avec n’importe quelle autre voiture.
Repasser à l’état sous contrôle après distraction, découvrir le problème et le traduire, c’est 8 secondes. Ne rigolez pas, dans le métier sur simulateur c’est le constat, aucun constructeur ne peut nier cela.
Error 42. Orange fell of the steering wheel. Navigate to closest grocery store.
Je suis contre ces systèmes de conduite car les gens ne regardent même plus la route !
Bien qu’admirateur de Tesla, je continue à penser que « autopilote » est le pire nom qu’on pouvait donner à ce système. Qu’attend Tesla pour renommer ce logiciel en « assistance à la conduite sur autoroute » ? Ça n’enlève rien à la responsabilité du conducteur, mais ça reste néanmoins indigne d’un constructeur responsable. Et l’excuse de la version beta a bon dos, on ne confie pas la vie des gens à un logiciel encore en développement…
Contrairement à l’accident de 2016 le conducteur est vivant. Les enquêteurs pourront donc lui poser des questions et j’imagine que cela accélèrera les choses. N’empêche, même si la voiture était sous Autopilot, comment le conducteur a-t-il fait pour ne pas voir un énorme camion de pompiers à l’arrêt en plein jour droit devant lui???
Donc en gros, on ne sait rien de ce qui s’est passé et RDV dans un an ou plus pour le résultat de l’enquête.
Quid des accidents impliquant des véhicules (non électriques) d’autres marques dotés de plus en plus souvent de systèmes autonomes (Toyota, Volvo etc…)? Ils n’en ont pas (des accidents) ou alors cela n’intéresse pas les médias et le NSTB?
Il n’y avait pas une pomme dans l’habitacle par hasard ?