Suite à une demande de la National Highway Traffic Safety Administration (NHTSA), agence fédérale américaine chargée de la sécurité routière, Tesla va désactiver une fonctionnalité du Full Self-Driving (FSD). Celle-ci permet aux véhicules de franchir lentement un panneau stop sans s’arrêter complètement.

La fonctionnalité permet aux véhicules de griller les stop

La fonctionnalité a été déployée dans le système Full Self-Driving au mois d’octobre dernier. Tesla permet aux conducteurs de choisir entre trois modes de conduite distincts : Chill, Average et Assertive. C’est dans ce dernier mode que la fonction est disponible, celui-ci permettant notamment « d’effectuer des changements de voie plus fréquents, ne pas quitter les voies de dépassement et effectuer des arrêts sur place ».

La NHTSA a pris la décision de demander le retrait de la fonctionnalité car « ne pas s’arrêter à un panneau stop peut augmenter le risque d’accident ». Comme l’explique The Verge, elle « permet aux voitures Tesla de « traverser les carrefours à sens unique à une vitesse pouvant atteindre 5,6 mph (ndlr : 9 km/h) avant de s’arrêter complètement » si certains critères sont remplis. Il faut notamment qu’il n’y ait pas de « voitures en mouvement » ni de « piétons ou de cyclistes » à proximité de l’intersection, que la visibilité soit « suffisante pour le véhicule » et que les routes situées à l’intersection soient limitées à 30 mph (ndlr : 48 km/h) ou moins ».

Or, le fait de ne pas s’arrêter à un panneau stop représente un violation de la loi dans tous les États du pays, ce qui a logiquement entraîné la NHTSA à agir. En incorporant cette fonctionnalité à son système de conduite, Tesla s’est attirée les foudres de plusieurs personnes. Philip Koopman, professeur de génie électrique et informatique à l’université Carnegie Mellon, a ainsi expliqué que les panneaux d’arrêt à quatre voies étaient couramment placés pour protéger les intersections pour les enfants lorsqu’il n’y a pas de brigadier, rapporte Associated Press.

Selon lui, le système de machine learning de Tesla peut identifier des objets par erreur. « Que se passe-t-il lorsque la FSD décide qu’un enfant qui traverse la rue n’est pas « pertinent » et ne s’arrête pas ? C’est un comportement dangereux qui n’aurait jamais dû être mis dans les véhicules », continue-t-il. Pour Jonathan Adkins, directeur exécutif de l’association des gouverneurs pour la sécurité, « [Tesla] ne cesse de repousser les limites de la sécurité pour voir ce qu’ils peuvent faire, et ils ont vraiment poussé très loin. À chaque fois, c’est un peu plus flagrant. Il est bon de voir que la NHTSA riposte ».

De son côté, le constructeur assure ne pas avoir connaissance de blessures ou d’accidents causés par la fonctionnalité concernée.

Le logo de Tesla.

Tesla a signé une année 2021 record. Photographie : Priscilla Du Preez / Unsplash

Le Full Self-Driving est loin de faire l’unanimité

Le mode Full Self-Driving, actuellement déployé en bêta à un prix de 12 000 dollars, n’en est pas à sa première controverse. Son nom, qui se traduit par « conduite autonome » est en effet trompeur car il ne s’agit pas d’un système de niveau 4 entièrement autonome, mais d’un dispositif de conduite assistée de niveau 2. D’ailleurs, l’entreprise Waymo, elle-même spécialisée dans la conduite autonome, a décidé de ne plus employer le terme Self-Driving à cause de son utilisation par la firme d’Elon Musk.

Les autorités californiennes ont récemment annoncé qu’elles se lançaient dans un nouveau protocole afin de déterminer si le FSD peut être considéré comme un système de conduite autonome et ainsi être soumis à la législation adéquate. Elles émettent en effet des inquiétudes quant à l’utilisation de ce mode par les conducteurs, qui peuvent être induits en erreur par son nom et par conséquent, être moins vigilants.

Actuellement, le FSD est testé par les conducteurs de près de 60 000 véhicules aux États-Unis, alors qu’ils n’étaient qu’environ 2 000 au troisième trimestre 2021.

Des désagréments pour Tesla, mais cela n’affecte pas ses performances

La suppression de la fonctionnalité concerne environ 54 000 véhicules. Ce n’est pas la première fois que Tesla connaît de tels démêlés : l’entreprise a été contrainte de rappeler près de 300 000 véhicules en Chine à cause d’une faille dans l’Autopilot, le système de conduite assistée des voitures Tesla. D’autres rappels ont dû être effectués dans d’autres pays à cause de défauts de caméra et de coffre, de la séparation des suspensions et d’autres problèmes encore.

En outre, la NHTSA est en train de réaliser une vaste enquête sur l’Autopilot car il a été impliqué dans différents accidents de la route. Malgré ces désagréments, Tesla affiche une santé de fer : la semaine dernière, le constructeur a révélé avoir enregistré 5,5 milliards de dollars de revenus en 2021, le montant le plus élevé de son histoire.