La suite de votre contenu après cette annonce

Marques du groupe Volkswagen, Audi et Porsche vont travailler ensemble au développement d’une toute nouvelle plateforme destinée à répondre à trois éléments jugés incontournables par les deux constructeurs : l’électrification, la digitalisation et les systèmes autonomes.
« Ensemble, nous ferons des progrès plus rapidement dans la course pour la mobilité du futur. Nous allons utiliser le savoir-faire des deux marques et tirer profit des synergies » a déclaré Oliver Blume, président du conseil d’administration de Porsche. « Nous allons coopérer là où cela aura du sens. Mais nous ferons également très attention à maintenir la différenciation entre les deux marques. Une Porsche sera toujours une Porsche, et cela restera ainsi à l’avenir » a-t-il ajouté.
Si la collaboration entre les deux marques n’est pas une nouveauté dans le domaine de la voiture thermique, l’Audi Q5 et le Porsche Macan partageant déjà un certain nombre de composants, ce partage de connaissance dans le domaine du véhicule électrique et des systèmes autonome est inédit. Jusqu’ici, Porsche et Audi travaillaient chacun de leur côté, le premier sur le développement de sa Mission E et le second sur son futur SUV électrique, attendu pour 2018.
« Les meilleurs cerveaux des deux marques définiront le futur technologique » a promis Rupert Stadler, le PDG d’Audi. On a hâte de voir cela…
Le meilleur d'Automobile Propre, dans votre boite mail !
Découvrez nos thématiques voiture électrique, voiture hybride, équipements & services et bien d’autres
S'inscrire gratuitement
Les LIDAR sont au contraire perturbés par la pluie et le brouillard, au contraire d'un radar. Pour moi le LIDAR apporte justement cette facilité qui conduit naturellement les équipes à travailler avec des technos dépassées. Ce n'est même pas de l'IA, de simples algos d'optimisation supervisée de règles expertes avec le code de la route, reconnaissance des piétons, véhicules, lignes, panneaux, etc de manière indépendante ! Dsl, mais c'est totalement dépassé depuis 5 ans maintenant, le deep Learning est passé par là. Regarde les conf NVidia, les modèles ne sont pas déterminé, tu ne dis pas: ça c'est une voiture, ça c'est un enfant, ça c'est la route, etc. Tu branche les capteurs, tu roules, pendant des millions de km, millions de situations et tu donnes à bouffer au réseau qui apprend et se créé sont propre modèle. Nvidia a fait la demo d'un VA qui arrive devant des travaux avec obligation de monter sur le trottoir, ce qu'il fait sans sourciller. Le niveau 5 impose une conduite autonome totale, car ton véhicule pourra venir te chercher seul à l'aéroport, ou emmener tes enfants au foot pendant que tu cuve à la maison. Impossible de rendre la main sans arrêt. Ds le pire des cas demande d'assistance à un opérateur qui conduira à travers les cam mais de façon anecdotique. Pour moi l'utilisation de LIDAR est juste une preuve d'incapacité du système à gérer cette approche. On verra comment ça évolue, en tout cas, c'est passionnant !
Bon, ok ;-)
Mais ça marche en comptant le nombre de batteries, il suffit de trouver le bon critère !
Attention, j'ai jamais dit que Tesla fait aussi bien que les autres en se passant de LIDAR ;-). Le LIDAR apporte directement un modèle 3D de la scène, alors que Tesla doit construire ce modèle 3D à partir des radars (classiques) et des caméras, c'est moins précis et probablement bien plus dépendant des conditions (luminosité, pluie, brouillard, etc.). Ce que je dis c'est qu'en 2017 seule la solution de Tesla est commercialisable à moins que Nissan compte sortir une Leaf 60 kWh à 200 000 €. Alors que Tesla compte commercialiser en 2017 une voiture qui aura l'équipement nécessaire pour 40 000 euros ! Donc il est probable que l'autonomie sera de niveau 5 (encore une autonomie que ne se mesure pas en F ;-) ) mais que la voiture repassera souvent la main au conducteur, par exemple de nuit, par exemple si la scène est complexe, si la cartographie n'est pas assez précise, si le GPS est dans les choux, etc. Honnêtement ce n'est pas gênant...
Pour moi Tesla ne "zappe" pas le LIDAR, c'est le contraire, Musk introduit une étape pré-LIDAR et sortira une Tesla avec LIDAR le jour où le coût le permettra. Et si le coût ne baisse jamais et bien ça aura d'autant plus justifié l'approche de Tesla, et les LIDAR seront réservés à des véhicules pour lesquels 100 000 euros de LIDAR n'est pas un problème : bus, véhicules partagés qui tournes 24h24, etc.
"8 caméras à 10$ valent déjà largement nos capacités de vision"
Attention, Tesla c'est sauf erreur des caméras ET des radars, mais pas de LIDAR. Le problème n'est pas la précision des caméras ni des radars, le problème est que la machine, même la meilleure IA (c'est mon domaine) ne comprend pas grand chose à la scène, du moins au sens d'un humain, ie la machine n'a pas "conscience" de la scène. L'image en elle-même ne sert à rien quelque soit la résolution, ou alors pour lire la couleur du feu ou pour reconnaître un panneau ou un marquage au sol. Donc il faut construire un modèle 3D. Dans ce modèle 3D, notamment grâce aux caméras, les "objets" vont être identifiés comme des voitures, des piétons, des panneaux, etc. En suite il suffit de se déplacer dans ce modèle 3D en évitant les obstacles et en respectant le code (et des règles de prudence), ça n'a rien de difficile, j'aurais même des scrupules à appeler ça de l'IA, les personnages non joueurs des jeux vidéos le font depuis des années ;-).
"on utilise moins de 10% de sa capacité au total ?"
Tu peux oublier cette phrase, elle est... 100% fausse. On utilise 100% de notre cerveau. D'ailleurs la moindre lésion a des conséquences dramatiques.
Néanmoins ce qui est vrai c'est que *conduire* (ie se déplacer dans la scène) ne nécessite pas beaucoup d'intelligence, si suffit de voir tous les cons qui réussissent le permis pour s'en convaincre. Ce qu'on demande à un conducteur c'est de respecter le code.
Après évidemment il y a les situations impossibles, là où en respectant le code ça ne marche pas, mon avis est que c'est la faute de l'infrastructure et les voitures autonomes seront un moyen de déterminer automatiquement les mauvaises portions du réseau. En attendant je pense que le plus raisonnable est que dans cette situation la voiture repasse la main à l'humain, ou que le GPS évite ces zones si le conducteur veut être tranquille (et quelles ont déjà été repérées). A noter qu'on peut aussi adapter le code de la route, par exemple il est à présent autorisé de griller une ligne blanche pour doubler un vélo si on a la visibilité nécessaire, avant une voiture autonome aurait été bloqué derrière... En fait le fait même que des situations soient impossible implique que le code n'est pas complet !
Mais il y a pire que les situations impossibles qui nécessitent de passer la main à l'humain, il y a les situations où on n'a pas le temps. C'est là que ça va devenir compliqué, notamment pour des situations où il n'y a pas de "code" parce que l'homme n'était pas en mesure de l'appliquer notamment parce que tout allait trop vite. Par exemple comment décider entre deux actions toutes deux mauvaises, faut-il prendre le risque de blesser un piéton plutôt que le conducteur ? un usager (conducteur ou tiers personne) en faute plutôt qu'un usager qui est dans sont bon droit (conducteur ou tiers personne), faut-il prendre en compte l'âge dans le choix, le nombre de personnes. Et qui décide de tout ça ? Le constructeur ? Le prioritaire via des paramètres modifiables ? La loi ? Et qui sera responsable ? Le constructeur ? Le conducteur ? L'IA !?
C'est sans doute là que l'expérience aura son importance.
Pour la création des bases d'exemples je pense surtout que c'est important pour identification des "objets" (piétons, voitures, obstacles, etc.) lors de la construction de la scène. Mais peut-être aussi pour les situations, mais c'est moins claire, confier une décision potentiellement mortelle à un réseau de neurones artificiels est délicat car de part leur conception la "bonne" réponse n'est pas garantie (même si l'humain ne ferait pas mieux). Dès lors une base de règle est préférable. Pour dire ça autrement, un réseau de neurones artificiels serait incapable d'appliquer les lois de la robotique d'Asimov, au mieux on pourrait essayer de les lui apprendre via des réseaux de neurones mais sans garantie d'avoir la réponse qu'on attendait...