La suite de votre contenu après cette annonce

Raffi Krikorian, ancien dirigeant de la division des voitures autonomes chez Uber, a récemment détruit son Model X alors qu’il utilisait le FSD (Full Self-Driving) de Tesla. Dans un témoignage plein d’enseignements, il raconte comment la techno de Tesla, dite « presque parfaite », peut pousser à une mauvaise utilisation.
« Ma Tesla roulait toute seule à la perfection… jusqu’à ce qu’elle percute un mur ». C’est comme cela que débute le témoignage de Raffi Krikorian, l’ancien dirigeant des véhicules autonomes chez Uber. Un document publié chez The Atlantic. Force est de reconnaître que cet incident a quelque chose de symbolique ! Au-delà du fait divers et de l’erreur commise par le système automatisé de Tesla, l’accident met en lumière un paradoxe du FSD (le logiciel de conduite autonome supervisée de la firme d’Austin) : plus le système fonctionne bien, plus il devient difficile d’éviter un éventuel accident. Et c’est précisément ce constat qui rend le retour d’expérience de M. Krikorian si précieux.
Raffi Krikorian connaît particulièrement bien les limites de ces technologies. Il a lui-même formé des conducteurs de sécurité à intervenir en cas de défaillance. Pourtant, dans son propre véhicule, il s’est retrouvé confronté à ce qu’il décrit comme un basculement brutal. En quelques secondes, une situation de routine s’est transformée en un accident. C’est justement là que se situe le cœur du problème. Contrairement aux idées reçues, le danger ne vient pas d’une défaillance permanente. Une machine imparfaite oblige à rester vigilant. Une machine parfaite n’a pas besoin de supervision. Mais une machine « presque parfaite » installe une confiance progressive, souvent inconsciente, qui érode la vigilance humaine.
À lire aussi
Comment Uber espère encore remporter la course de la conduite autonomeCe phénomène est bien documenté par la recherche en psychologie cognitive. Il est désigné sous le terme de « déclin de la vigilance ». Lorsqu’un conducteur est placé dans une posture de supervision passive (surveiller sans agir) son niveau d’attention chute rapidement. Les études montrent qu’il faut entre 5 et 8 secondes pour qu’un humain se reconcentre pleinement après une phase de relâchement. Un délai incompatible avec la plupart des situations d’urgence sur la route. Une technologie de conduite autonome supervisée comme celle proposée par Tesla apparaît donc comme une zone grise.
Sur le plan réglementaire, le système est classé au niveau 2 de l’automatisation. Concrètement, cela signifie que le conducteur reste responsable à tout moment. Dans les faits, leur fluidité et leur efficacité encouragent un comportement opposé, où l’utilisateur devient progressivement passif. Une contradiction que souligne Krikorian : « on demande à l’humain de rester alerte face à un système conçu pour rendre son intervention inutile ». D’autres accidents qui ont eu lieu dans le passé illustrent bien cela. En 2018, à Mountain View, un conducteur disposait de plusieurs secondes pour réagir avant un choc fatal, mais il n’est pas intervenu. La question n’est pas tant l’absence de réaction que le délai nécessaire pour comprendre ce qui se passe.
L’expérience de M. Krikorian s’inscrit dans cette logique. Il assure avoir respecté les consignes du constructeur : mains sur le volant, regard sur la route. Mais lorsque le système a commencé à dysfonctionner, tout s’est joué en un instant : « le volant a fait un écart d’un côté, puis de l’autre. J’ai tourné le volant pour reprendre le contrôle et nous avons fini par percuter un mur ». Malgré son expertise, il n’a pas pu compenser ce temps de latence cognitive. « On m’a demandé de passer du statut de passager à celui de pilote en une fraction de seconde », résume-t-il. Et ça, ce n’est pas possible !
Au-delà de l’accident, ce témoignage interroge aussi le cadre de responsabilité. Aujourd’hui, c’est systématiquement le conducteur qui est mis en cause. « C’est mon nom qui figurait sur le rapport d’assurance », précise-t-il. Avant d’ajouter que c’est une forme de « zone de déformation morale », où l’utilisateur absorbe les conséquences des défaillances du système. Cette asymétrie soulève une question plus large : « peut-on réellement parler de supervision lorsque les conditions mêmes de cette supervision sont difficilement tenables sur la durée ? », se demande Raffi Krikorian. En d’autres termes, la responsabilité individuelle est-elle adaptée à des systèmes tels que le FSD, qui modifient en profondeur le comportement humain ?
À lire aussi
Conduite autonome : les économies sur l’assurance peuvent-elles compenser le prix du FSD ?Certaines marques commencent à explorer d’autres approches. BYD a notamment annoncé prendre en charge les dommages liés à certaines fonctions automatisées, comme dans le cadre du stationnement autonome. Une initiative qui suggère que le partage de responsabilité n’est pas uniquement une contrainte technique, mais aussi un choix industriel et juridique. En attendant, la plupart des technologies disponibles en 2026 reposent sur ce modèle hybride d’automatisation avancée, mais incomplète, qui transfère la charge mentale sur l’utilisateur. Une situation que le CTO de Mozilla élargit à d’autres technologies : « les erreurs ne disparaissent pas, mais votre vigilance, oui ».
Ce témoignage invite ainsi à déplacer le regard. Le véritable enjeu n’est peut-être pas de savoir si la conduite autonome fonctionne, mais de comprendre comment elle transforme notre manière de conduire. Et surtout, notre capacité à reprendre le contrôle lorsque cela devient nécessaire. Le chemin est encore long…
Le meilleur d'Automobile Propre, dans votre boite mail !
Découvrez nos thématiques voiture électrique, voiture hybride, équipements & services et bien d’autres
S'inscrire gratuitement