
Une Tesla avec l’Autopilot activé a percuté ce samedi une voiture de police à l’arrêt sur une autoroute bordant la ville californienne d’Orlando. Une mauvaise nouvelle pour la marque, déjà dans le collimateur des autorités américaines.
C’est un incident qui arrive avec un très mauvais timing pour Tesla aux États-Unis. Une Model 3 a eu un accident en Floride avec une voiture de police. L’accident s’est produit alors que la NHTSA, l’autorité américaine en charge des transports, a ouvert une enquête sur l’Autopilot suite à plusieurs incidents similaires.
Le point commun de tous ces accidents est l’implication d’un véhicule d’urgence en stationnement en bord de route. Et c’est encore le cas d’un nouvel incident, qui s’est produit samedi près d’Orlando, en Floride.
Tesla on autopilot smacked into Florida Highway Patrol cruiser that stopped to help disabled vehicle https://t.co/PhADX4AU4x pic.twitter.com/dfmi6ZLVIY
— Vinu Mahanthesh G (@iam_mahanthesh) August 30, 2021
Selon Associated Press, « une Tesla utilisant le système de conduite semi-autonome a percuté un véhicule de patrouille autoroutière samedi sur une autoroute ». Le drame a été évité de peu, puisque la Tesla est passée à côté du policier, qui était sorti pour porter assistance à un autre véhicule. Les deux occupants de la Tesla n’ont heureusement été que légèrement blessés dans l’accident.
La NHTSA pourrait décider d’ajouter ce nouvel incident à la liste de ceux actuellement sous enquête. Depuis 2018, les autorités américaines ont dénombré 11 accidents de Tesla impliquant des véhicules de secours équipés de signalétiques lumineuses.
Chaque nouvelle technologie apporte son lot de débat, d’incompréhension et d’accusation…
L’humain reste pour moi le seul responsable… C’est mon humble avis tant que la voiture ne sera pas
venduedéfinie comme 100% autonomeSouvenez-vous avec Renault :
https://www.leparisien.fr/faits-divers/l-auteur-de-l-accident-mortel-met-en-cause-le-regulateur-de-vitesse-17-07-2006-2007171429.php
https://www.leparisien.fr/faits-divers/encore-un-regulateur-de-vitesse-bloque-sur-une-renault-18-03-2005-2005790417.php
https://leblogautomobile.blogs.com/weblog/2005/03/_ustrongdysfonc.html
Il y a pourtant eu pas mal de démentis et d’expertises concluant à une défaillance humaine…
L’autopilot tue, mais comme il tue moins que les conducteurs humains, c’est acceptable… Sic !
Pour ceux que le terme « autopilot » choque si la voiture ne conduit pas toute seule, est-ce qu’ils ont déjà pris un avion ayant un pilote automatique, et pas de commandant de bord ?
Il y a un point qui diffère entre le FSD européen et celui aux US; le nôtre ne fait pas de changement de voie automatiquement alors que là-bas il est sensé le faire.
Le conducteur US pense peut-être que la voiture a bien vu l’obstacle et va déboiter; mais elle ne le fait pas et laisse alors très peu de temps pour réagir.
Reste à savoir pourquoi elle ne voit pas l’obstacle lorsque c’est un véhicule de secours (trop de lumières, de réflexion, sorte d’angle mort…)
Pour nous, on sait qu’elle ne va de toute façon pas le faire toute seule; on est donc plus vigilent.
comme souvent, le titre a resolu l’affaire en cours :)
attendons l’analyse de l’enquête…
le 100% déplacement routier sans risque n’existe pas, même a l’arrêt.
Il me semble effectivement que tous ceux qui ont « conduit » une Tesla sous Autopilot savent que le système n’est pas infaillible. Il a juste atteint un niveau suffisant pour laisser penser à certains qu’ils peuvent faire autre chose pendant la conduite. C’est déjà un niveau où il est 4x meilleur en moyenne que les conducteurs eux-même, ce qui n’est pas négligeable.
Ça me fait bien rigoler tous ceux qui critiquent le fait que le système n’est pas parfait, et qu’en conséquence, il ne devrait pas être autorisé sur route ouverte : tous ceux qui ont un peu travaillé sur de gros projets qui interagissent avec l’humain savent qu’il est impossible de concevoir un système 100% sûr du premier coup, et encore moins à l’homologuer. C’est au contact de la réalité qu’on détecte les trous dans le cahier des charges, les erreurs de compréhension, les erreurs de réalisation, les sous-dimensionnement, les effets de bord etc… Et c’est précisément ce que fait Tesla en analysant systématiquement toutes les situations dans lesquelles le conducteur a dû reprendre le contrôle.
Mais le cas précis des véhicules d’urgence m’interroge pour 2 raisons :
Le défaut serait alors que l’Autopilot surestime ses capacités et ne rend pas la main assez rapidement ? C’est une vraie difficulté technique et intellectuelle : si on considère que l’IA réagit plus vite que l’humain et qu’elle obtient plus d’informations par ses capteurs que l’humain par ses yeux, elle devrait garder le contrôle le plus longtemps possible, mais si on considère le problème par l’aspect légal, l’IA devrait au plus vite se défausser sur le conducteur… Comment placer le curseur entre les 2 ? Je pense que c’est là que réside la divergence entre les personnes de ce forum. Certains pensent que tout système mis sur le marché doit être 100% idiotproof quand d’autres sont content d’utiliser des systèmes qui n’en sont qu’à 99% parce qu’ils apportent un vrai plus à la conduite.
En résumé, l’Autopilot n’est pas très différent d’un jeune conducteur : on le laisse sur la route en espérant que l’expérience lui permettra de s’améliorer, mais en attendant, on sait qu’il a des limites que l’expérience repoussera petit à petit. La seule différence, c’est que l’Autopilot est déjà meilleur que la moyenne des conducteurs, et qu’en plus, chaque situation à risque analysée bénéficie à des milliers de voitures, ce qui le fait progresser beaucoup plus vite qu’un jeune conducteur.
En France c’est 1 à 2 véhicule de secours autoroutier pulvérisé chaque semaine sur les autoroutes. Est que çe fait les titres de la presse chaque semaine ? Est ce que ça déclenche une enquête des organismes de certifications des véhicules thermiques ?
Donc en résumé, l’autopilot n’est qu’une aide à la conduite, qui réclame l’aide du pilote dans les situations les plus critiques, c’est-à-dire précisément celles où la capacité et la vitesse d’analyse de l’IA devraient nous sauver la mise…
Quand des vies sont en jeu, la fiabilité attendue c’est 100%. Tesla n’est pas à la hauteur sur ce point, et Elon Musk le reconnaît lui-même à demi-mots.
Combien de fois faudra-t’il répéter qu’il s’agit uniquement d’une aide à la conduite – certes sophistiquée – et que le conducteur doit être à chaque instant en mesure de gérer par lui-même la trajectoire de son vehicule. Le nom commercial ‘Autopilot’ est selon moi non seulement trompeur, mais surtout potentiellement dangereux car il peut inciter des conducteurs peu avertis à accorder trop de confiance à cette aide à la conduite, et à surestimer grossièrement ses capacités réelles.
Tous les commentaires ci-dessous sont valables, certes, mais si les gyrophares immobiles attirent les Tesla comme des mouches, c’est quand même qu’il y a un problème technique. C’est pas comme si un sanglier était sorti de nulle part (du maïs en bord de route) pour se mettre juste devant la voiture.
Désolé mais le pb se situe entre le volant et le dossier. L’argument du nom » autopilot » qui abuserait le conducteur est hors sol. Le système s’appelerait « aide à la conduite » se sera pareil. Déresponsabiliser le conducteur est un peu facile je trouve. Quand in voit des gyros on désactive le système et on reprend la main.
Mettre des systèmes automatisés dans des mains de gens ou il n’y a pas d’égalité devant la compétence de conduite et la compréhension de l’environnement pose à terme des pb. En aviation légère on a aussi des pilotes automatiques qui n’excluent pas la vigilance (une forte turbulence peut le desactiver par ex) mais on est formé pour l’utiliser.
Donc mettre aux mains de gens des systèmes dont ils ne perçoivent pas les limites est à proscrire. Une formation doit être obligatoire à minima et c’est vrai pour tous les constructeurs. Déjà on a vu de simples régulateurs de vitesse accusés alors que le conducteur était fautif presqu’a chaque fois, alors un niveau 2 ou 3 d’aide à la conduite…
Je ne comprends pas cette polémique, ce sont les régulateurs eux même qui imposent que les systèmes d aides a la conduite comme l autopilot ne remplace pas l homme et pour être sûr que cela soit appliqué ils ont imposés des limites complètement débiles , comme la règles qui oblige les constructeurs a désactiver les aides lors d’un freinage d’urgence si le véhicule roulait a plus de 60km/h et lorsque celui-ci est a moins de 60km/h.
Donc le véhicule détecte un obstacle , freine jusqu a 60km/h et là vous devez reprendre les commandes . Génial , vous êtes choqué par l action brutale du véhicule et en une fraction de seconde vous devez appuyer sur la pédale de frein !
Pourquoi ne pas laisser le véhicule freiner jusqu a l arrêt totale du véhicule ???
Encore une histoire de bureaucratie….
Le point commun de tous ces accidents : le conducteur, qui supporte encore entièrement la responsabilité de la conduite, n’a pas été capable d’éviter un accident.
Pourquoi donc les médias s’entêtent à en parler comme d’une anormalité. L’incapacité de l’autopilot a conduire de manière autonome est pourtant 100% assumée, prévue, communiquée, avertie. RTFM.
Mais elle n’a brulé ni les feux ni tout court, ce qui est en soit un immense progrès, de plus, quitte à avoir un accident, autant que la police soit sur les lieux…
Bon incidemment, la sur-saturation des détecteurs est un phénomène compliqué à gérer.
« Depuis 2018, les autorités américaines ont dénombré 11 accidents de Tesla impliquant des véhicules de secours équipés de signalétiques lumineuses »
Et combien avec d’autres véhicules sans autopilot ?
Et dans tous ces cas, que faisait le conducteur ? S’il était attentif comme le requiert le système,la plupart de ces accidents ne seraient pas arrivés,probablement