L’Agence de sécurité automobile élargit l’enquête sur Tesla

La principale agence de sécurité automobile du gouvernement fédéral élargit considérablement une enquête sur Tesla et son système d’assistance à la conduite Autopilot afin de déterminer si la technologie présente un risque pour la sécurité.

L’agence, la National Highway Traffic Safety Administration, a déclaré jeudi qu’elle mettait à niveau son évaluation préliminaire du pilote automatique vers une analyse technique, un niveau d’examen plus approfondi qui est requis avant qu’un rappel puisse être ordonné.

L’analyse examinera si le pilote automatique ne parvient pas à empêcher les conducteurs de détourner leur attention de la route et d’adopter d’autres comportements prévisibles et risqués lors de l’utilisation du système.

“Nous demandons depuis un certain temps un examen plus approfondi du pilote automatique”, a déclaré Jonathan Adkins, directeur exécutif de la Governors Highway Safety Association, qui coordonne les efforts de l’État pour promouvoir une conduite sûre.

La NHTSA a déclaré être au courant de 35 accidents survenus alors que le pilote automatique était activé, dont neuf qui ont entraîné la mort de 14 personnes. Mais il a déclaré jeudi qu’il n’avait pas déterminé si le pilote automatique présentait des défauts pouvant provoquer des accidents de voitures lorsqu’il est engagé.

L’enquête plus large couvre 830 000 véhicules vendus aux États-Unis. Ils comprennent les quatre voitures Tesla – les modèles S, X, 3 et Y – des années modèles de 2014 à 2021. L’agence examinera le pilote automatique et ses divers systèmes de composants qui gèrent la direction, le freinage et d’autres tâches de conduite, et un plus avancé système que Tesla appelle Full Self-Driving.

Tesla n’a pas répondu à une demande de commentaire sur la décision de l’agence.

L’évaluation préliminaire s’est concentrée sur 11 accidents dans lesquels des voitures Tesla fonctionnant sous le contrôle du pilote automatique ont heurté des véhicules d’urgence en stationnement dont les feux clignotent. Dans cet examen, la NHTSA a déclaré jeudi que l’agence avait pris connaissance de 191 accidents – non limités à ceux impliquant des véhicules d’urgence – qui justifiaient une enquête plus approfondie. Ils se sont produits alors que les voitures fonctionnaient sous pilote automatique, conduite autonome complète ou fonctionnalités associées, a indiqué l’agence.

Selon Tesla, le logiciel Full Self-Driving peut guider une voiture dans les rues de la ville mais ne la rend pas totalement autonome et oblige les conducteurs à rester attentifs. Il n’est également disponible que pour un nombre limité de clients dans ce que Tesla appelle une version “bêta” ou de test qui n’est pas complètement développée.

L’approfondissement de l’enquête indique que la NHTSA considère plus sérieusement les problèmes de sécurité découlant d’un manque de garanties pour empêcher les conducteurs d’utiliser le pilote automatique de manière dangereuse.

“Ce n’est pas votre cas de défaut typique”, a déclaré Michael Brooks, directeur exécutif par intérim du Center for Auto Safety, un groupe de défense des consommateurs à but non lucratif. “Ils recherchent activement un problème qui peut être résolu, et ils examinent le comportement du conducteur, et le problème peut ne pas être un composant du véhicule.”

Tesla et son directeur général, Elon Musk, ont été critiqués pour avoir surfait le pilote automatique et la conduite autonome complète d’une manière qui suggère qu’ils sont capables de piloter des voitures sans l’intervention des conducteurs.

“Au minimum, ils devraient être renommés”, a déclaré M. Adkins de la Governors Highway Safety Association. “Ces noms confondent les gens en leur faisant croire qu’ils peuvent faire plus qu’ils ne sont réellement capables.”

Les systèmes concurrents développés par General Motors et Ford Motor utilisent des caméras infrarouges qui suivent de près les yeux du conducteur et des carillons d’avertissement sonore si un conducteur regarde loin de la route pendant plus de deux ou trois secondes. Tesla n’a pas initialement inclus un tel système de surveillance du conducteur dans ses voitures, et n’a ensuite ajouté qu’une caméra standard beaucoup moins précise que les caméras infrarouges pour le suivi des yeux.

Tesla dit aux conducteurs d’utiliser le pilote automatique uniquement sur les autoroutes divisées, mais le système peut être activé dans toutes les rues qui ont des lignes au milieu. Les systèmes GM et Ford – connus sous le nom de Super Cruise et BlueCruise – ne peuvent être activés que sur les autoroutes.

Le pilote automatique a été proposé pour la première fois dans les modèles Tesla à la fin de 2015. Il utilise des caméras et d’autres capteurs pour diriger, accélérer et freiner avec peu d’intervention des conducteurs. Les manuels du propriétaire disent aux conducteurs de garder les mains sur le volant et les yeux sur la route, mais les premières versions du système permettaient aux conducteurs de garder les mains sur le volant pendant cinq minutes ou plus dans certaines conditions.

Contrairement aux technologues de presque toutes les autres entreprises travaillant sur des véhicules autonomes, M. Musk a insisté sur le fait que l’autonomie ne pouvait être obtenue qu’avec des caméras suivant leur environnement. Mais de nombreux ingénieurs de Tesla se sont demandé si s’appuyer sur des caméras sans autres dispositifs de détection était suffisamment sûr.

M. Musk a régulièrement fait la promotion des capacités du pilote automatique, affirmant que la conduite autonome est un “problème résolu” et prédisant que les conducteurs pourront bientôt dormir pendant que leur voiture les conduira au travail.

Des questions sur le système se sont posées en 2016 lorsqu’un homme de l’Ohio a été tué lorsque sa Model S s’est écrasée dans un semi-remorque sur une autoroute en Floride alors que le pilote automatique était activé. La NHTSA a enquêté sur cet accident et a déclaré en 2017 qu’elle n’avait trouvé aucun défaut de sécurité dans le pilote automatique.

Les problèmes avec le système de pilote automatique de Tesla

Carte 1 sur 5

Revendications de conduite plus sûre. Les voitures Tesla peuvent utiliser des ordinateurs pour gérer certains aspects de la conduite, comme le changement de voie. Mais on craint que ce système d’assistance au conducteur, appelé Autopilot, ne soit pas sûr. Voici un examen plus approfondi de la question.

Assistance à la conduite et accidents. Un accident en 2019 qui a tué un étudiant montre à quel point les lacunes dans les distractions du pilote automatique et du conducteur peuvent avoir des conséquences tragiques. Dans un autre accident, une Tesla a heurté un camion, entraînant la mort d’un garçon californien de 15 ans. Sa famille a poursuivi l’entreprise, affirmant que le système de pilote automatique était en partie responsable.

Des raccourcis avec sécurité ? D’anciens employés de Tesla ont déclaré que le constructeur automobile avait peut-être compromis la sécurité en concevant son système d’assistance à la conduite Autopilot pour s’adapter à la vision d’Elon Musk, son directeur général. M. Musk aurait insisté pour que le système repose uniquement sur des caméras pour suivre l’environnement d’une voiture, au lieu d’utiliser également des dispositifs de détection supplémentaires. Les systèmes d’autres entreprises pour les véhicules autonomes adoptent généralement cette approche.

Lacune informationnelle. Le manque de données fiables entrave également les évaluations de la sécurité du système. Les rapports publiés par Tesla tous les trois mois suggèrent que les accidents sont moins fréquents avec le pilote automatique que sans, mais les chiffres peuvent être trompeurs et ne tiennent pas compte du fait que le pilote automatique est principalement utilisé pour la conduite sur autoroute, qui est généralement deux fois plus sûre que la conduite en ville. des rues.

Mais l’agence a publié un bulletin en 2016 indiquant que les systèmes d’assistance à la conduite qui ne parviennent pas à maintenir les conducteurs engagés “peuvent également constituer un risque déraisonnable pour la sécurité”. Et dans une enquête distincte, le National Transportation Safety Board a conclu que le système de pilote automatique avait “joué un rôle majeur” dans l’accident de Floride car, bien qu’il ait fonctionné comme prévu, il manquait de garanties pour éviter les abus.

Tesla fait face à des poursuites judiciaires de la part de familles de victimes d’accidents mortels, et certains clients ont poursuivi l’entreprise pour ses réclamations pour le pilote automatique et la conduite autonome complète.

L’année dernière, M. Musk a reconnu que le développement de véhicules autonomes était plus difficile qu’il ne le pensait.

La NHTSA a ouvert son évaluation préliminaire du pilote automatique en août et s’est initialement concentrée sur 11 accidents dans lesquels Teslas fonctionnant avec le pilote automatique engagé a heurté des voitures de police, des camions de pompiers et d’autres véhicules d’urgence qui s’étaient arrêtés et avaient fait clignoter leurs feux. Ces accidents ont fait un mort et 17 blessés.

Lors de l’examen de ces accidents, il en a découvert six autres impliquant des véhicules d’urgence et a éliminé l’un des 11 originaux d’une étude plus approfondie.

Dans le même temps, l’agence a appris des dizaines d’autres accidents survenus alors que le pilote automatique était actif et qui n’impliquaient pas de véhicules d’urgence. Parmi ceux-ci, l’agence s’est d’abord concentrée sur 191 et a éliminé 85 d’un examen plus approfondi car elle n’a pas pu obtenir suffisamment d’informations pour obtenir une image claire si le pilote automatique était une cause majeure.

Dans environ la moitié des 106 autres, la NHTSA a trouvé des preuves suggérant que les conducteurs n’avaient pas toute leur attention sur la route. Environ un quart des 106 cas se sont produits sur des routes où le pilote automatique n’est pas censé être utilisé.

Dans une analyse technique, le Bureau d’enquête sur les défauts de la NHTSA acquiert parfois des véhicules qu’il examine et organise des tests pour essayer d’identifier les défauts et de reproduire les problèmes qu’ils peuvent causer. Dans le passé, il a démonté des composants pour trouver des défauts et a demandé aux fabricants des données détaillées sur le fonctionnement des composants, y compris souvent des informations exclusives.

Le processus peut prendre des mois, voire un an ou plus. La NHTSA vise à terminer l’analyse d’ici un an. S’il conclut qu’il existe un défaut de sécurité, il peut presser un fabricant d’initier un rappel et de corriger le problème.

En de rares occasions, les constructeurs automobiles ont contesté les conclusions de l’agence devant les tribunaux et ont prévalu en arrêtant les rappels.

commentaires

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

Le plus populaire