En privé, les responsables de Tesla ont admis qu’Elon Musk avait exagéré les capacités de l’Autopilot, le logiciel embarqué des véhicules de la firme. Grâce à la loi d’accès à l’information, obligeant les agences fédérales à transmettre leurs documents à quiconque en fait la demande, le groupe juridique PlainSite a mis la main sur une note. Cette dernière résume une conversation entre des régulateurs californiens et quatre employés Tesla. Un de ces derniers, CJ Moore, directeur du développement de l’Autopilot, reconnaît que son PDG est trop élogieux sur le système.

L’Autopilot serait au niveau 2 sur 5 de la conduite automatique

En janvier une voiture Tesla s’était conduite seule en Californie grâce au Full Self-Driving (FSD), la partie autonome de l’Autopilot. Désormais, Elon Musk voit plus loin. Depuis plusieurs mois, il annonce que Tesla serait capable, d’ici la fin du deuxième trimestre 2021, de proposer des voitures conduisant en totale autonomie. Or, le PDG de l’entreprise aurait quelque peu exagéré les capacités de son logiciel de pilotage autonome sur Twitter.


Dans ce tweet, Elon Musk reconnaît une conduite quasi autonome tant que le conducteur est assez vigilant. CJ Moore a admis au California DMV, l’agence californienne en charge de l’automobile et des transports, que les déclarations du PDG “ne correspondaient pas” à la réalité du système. Le directeur du développement de l’Autopilot va plus loin dans ses propos. “Le tweet d’Elon ne correspond pas à la réalité technique de la voiture”, admet-il, avant d’insister une nouvelle fois : “Tesla est à un niveau d’autonomie de niveau deux actuellement”.

Ces déclarations sont très importantes, car le niveau 2 signifie que le système de conduite est semi-automatisé, et qu’il nécessite, ainsi, toujours la supervision d’un conducteur humain. C’est bien loin des espérances d’Elon Musk et de ses véhicules totalement autonomes. D’après les représentants de l’entreprise, il est peu probable que les voitures Tesla atteignent une autonomie de niveau 5, sans besoin de supervision, d’ici la fin de l’année 2021.

L’Autopilot de Tesla facilement manipulé

Selon The Verge, ce ne serait pas la première fois qu’Elon Musk serait contredit en privé par des salariés de son entreprise auprès du California DMV. En décembre dernier, l’avocat adjoint de Tesla, Eric Williams, avait révélé à l’agence californienne que “ni le pilote automatique ni la capacité FSD n’étaient des systèmes autonomes, et qu’aucune fonctionnalité comprise, que ce soit individuellement ou collectivement, n’est autonome ou rend nos véhicules autonomes”. Aucun commentaire n’avait été fait par le PDG de Tesla.

Ce n’est pas la seule chose pour laquelle le constructeur automobile américain est pointé du doigt. Le mois dernier, un véhicule Tesla s’est écrasé contre un arbre près de Houston, au Texas. L’accident a fait deux morts et, selon la police, il n’y avait personne au volant. Le système de conduite semi-automatique de l’entreprise était alors au cœur de toutes les spéculations, bien qu’Elon Musk ait assuré que l’Autopilot n’était pas activé. Il a sous-entendu que l’accident résultait d’une erreur humaine, allant à l’encontre des propos de la police. Or, l’organisme Consumer Reports a démontré qu’il était facile d’utiliser l’Autopilot sans conducteur, et ce, grâce à une simple manipulation.

Si les affaires sont au beau fixe pour Tesla, ces éléments remettent en question la manière dont l’entreprise communique. En octobre dernier, l’entreprise lançait la dernière version bêta du FSD auprès de quelques utilisateurs. Une nouvelle fois, PlainSite avait révélé que la version du logiciel avait été déployée sur 824 véhicules, dont 753 étant à des employés Tesla.