Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Une agence fédérale de sécurité blâme Tesla et les autorités de régulation pour utilisation abusive de sa technologie Autopilot,
Lors d'une audience sur l'accident impliquant un ingénieur d'Apple

Le , par Stan Adkens

29PARTAGES

12  0 
Tesla fait l’objet de poursuite en justice par la famille de Walter Huang, un ingénieur Apple, décédé dans le cadre d’un accident mortel qui s’est produit le 23 mars 2018 en Californie aux Etats-Unis. Mardi, le président du National Transportation Safety Board (NTSB) a reproché à Tesla de mettre en péril la sécurité routière en ne prenant pas de mesures pour empêcher « l'abus prévisible » de la fonction d'assistance à la conduite de sa technologie Autopilot, a rapporté Los Angeles Times.

Robert Sumwalt, président du NTSB, a dirigé mardi une réunion du Conseil consacrée à l'accident mortel de mars 2018 d'une voiture autonome Tesla Model X qui a tué le conducteur, Walter Huang. Huang avait engagé le pilote automatique et s'était écrasé contre une barrière de sécurité défectueuse sur l'autoroute 101 à Mountain View alors qu'il jouait à un jeu vidéo sur son smartphone Apple, a déclaré Sumwalt. L’agence fédérale a également reproché à la branche sécurité routière du ministère américain des Transports de ne pas avoir correctement réglementé la technologie des voitures autonomes, qui évolue rapidement.


« Les régulateurs gouvernementaux ont assuré une surveillance insuffisante » de l’ Autopilot de Tesla et des systèmes d'autopilotage d'autres constructeurs, a déclaré le président du NTSB, Robert Sumwalt, lors d'une réunion du conseil de sécurité à Washington, D.C. Le Conseil a adopté une longue liste de mesures destinées à réduire les accidents, à mesure que les technologies de « conduite partiellement automatisée » deviennent plus populaires dans les nouveaux véhicules.

Selon Latimes, en 2017, le NTSB a recommandé que les constructeurs automobiles conçoivent des systèmes d'assistance à la conduite pour empêcher l'inattention et la mauvaise utilisation par le conducteur humain. Les constructeurs automobiles, dont Volkswagen, Nissan et BMW, ont fait état de leurs tentatives pour se conformer à ces recommandations, mais Tesla n'est jamais revenu devant le NTSB, a rapporté Latimes. « Malheureusement, un fabricant nous a ignorés, et ce fabricant est Tesla », a déclaré M. Sumwalt mardi. « Nous n'avons rien entendu, nous attendons toujours », a-t-il ajouté.

L’Autopilot est une fonction d'aide à la conduite automatisée vendue dans le cadre de ce que Tesla appelle un ensemble de « capacité d'autopilotage complète » pour 7 000 dollars qui peut accélérer, freiner et changer de voie automatiquement, bien que le conducteur soit censé y prêter attention. Elon Musk, le PDG et co-fondateur de Tesla, vante très souvent cette technologie. Il a même annoncé en avril dernier qu’il y aurait 1 million de robo-taxis Tesla en circulation cette année. D'autres constructeurs automobiles fabriquent des systèmes similaires, mais aucun n'est aussi agressif sur le plan technologique que celui de Tesla. Et aucun ne fait référence à l' « autopilotage », qui, même chez Tesla, reste un terme ambitieux, d’après Latimes.

Selon le quotidien, personne ne vend à des clients individuels des voitures qui peuvent se conduire entièrement seules, aujourd'hui, et la plupart des experts du secteur disent que cela prendra des années avant que cela n'arrive ou même n'arrivera peut-être jamais. Tesla a déclaré que les 7 000 dollars initiaux permettent d'acheter les fonctionnalités actuelles ainsi que les fonctionnalités d'auto-conduite qui seront ajoutées au fil du temps. Le NTSB a également condamné la fonction "do not disturb while driving" d’Apple.

La fonction "ne pas déranger en conduisant" de l'iPhone est facultative, au lieu d’être un paramètre par défaut

Selon Latimes, l'employeur de Huang, Apple, a fait des critiques accablants. Et M. Sumwalt a reproché à la fonction "ne pas déranger en conduisant" de l'iPhone d'Apple d’être facultative, et non un paramètre par défaut. Il a déclaré que les entreprises, y compris Apple, doivent faire plus pour encourager leurs employés à ne pas utiliser de smartphones au volant.

M. Sumwalt a noté, en effet, que l'administration fédérale de la sécurité et de la santé au travail recommande que les entreprises interdisent à leurs employés d'utiliser des appareils personnels pour le travail ou le courrier électronique lorsqu'ils conduisent, que le voyage soit pour les affaires de l'entreprise ou non. Comme Apple, peu d'entreprises suivent cette recommandation, a-t-il déclaré. Bien que Huang ait joué à un jeu vidéo sur son téléphone, les enregistrements de données montrent qu'il a pu envoyer des SMS avant cela, a rapporté Latimes.

« Apple n'a pas encore reconnu sa propre responsabilité en tant qu'employeur », a déclaré M. Sumwalt. « Ils n'ont pas dit à leurs 135 000 employés que nous nous soucions de vous et que nous ne voulons pas que vous vous tuiez ou que d'autres personnes se suicident sur la route. Apple a échoué à cet égard », a-t-il ajouté.

Selon M. Sumwalt, l'accident de Mountain View n'était pas un incident isolé, mais qu'il illustrait les problèmes de sécurité en jeu, car les humains et les systèmes robotisés se partagent de plus en plus la conduite, non seulement de Tesla mais aussi des véhicules de tous les constructeurs. « Il est temps d'arrêter de permettre aux conducteurs de tout véhicule partiellement automatisé de prétendre qu'ils ont des voitures sans conducteur », a-t-il déclaré.


Selon les enquêteurs du NTSB, Huang conduisait sa Tesla Model X de 2018 avec l’Autopilot activée lorsqu'elle est passée de 62 à 71 km/h et a heurté une barrière de sécurité endommagée au bout d'un mur en béton. L’Autopilot était enclenché pendant près de 19 minutes avant l'accident et Huang n'avait plus les mains sur le volant dans les six dernières secondes, selon les enquêteurs.

Selon le NTSB, deux facteurs majeurs ont contribué à la gravité de l'accident. D'une part, avec l’Autopilot enclenché, la Model X a roulé en plein milieu sur la zone à rayures blanches où les voitures ne sont pas censées aller, s'écrasant de front contre un "coussin intelligent" en acier souple destiné à atténuer l'impact d'un accident. Deuxièmement, le coussin était déjà très endommagé. D’après l’enquête, après qu'une Toyota Prius l'ait percuté 11 jours plus tôt, la longueur de l'atténuateur a été réduite, offrant moins de protection contre le mur médian en béton d'un mètre de haut qui se trouve derrière. Le dispositif de sécurité n'a été réparé par Caltrans, le département des Transports de Californie, que trois jours après la mort de Huang.

Tesla n'a pas fourni un moyen suffisant pour surveiller le manque d'attention du conducteur

Dans ses conclusions, l’enquête du NTSB a retenu que le système de traitement de la vision de la voiture de Huang ne pouvait pas maintenir une ligne de conduite appropriée et a dirigé la voiture contre une barrière de sécurité en acier et un mur en béton. Le NTSB condamne le système d'évitement des collisions de la voiture pour n'avoir pas détecté la barrière de sécurité – « et il n'a même pas été conçu pour le faire ». L’enquête a conclu également que le système d'avertissement de collision avant de la voiture n'a pas donné d'alerte, et le système de freinage automatique ne s'est pas activé. Le NTSB reproche également à Tesla, dans ses conclusions, de n'avoir pas fourni un moyen suffisant pour surveiller le manque d'attention du conducteur.

Selon Latimes, le Conseil national de sécurité a adressé une grande partie de ses critiques au principal organisme de réglementation de la sécurité routière du pays, la National Highway Traffic Safety Administration (NHTSA), qui est une branche du ministère des Transports. La NHTSA - qui a le pouvoir de faire appliquer la loi et peut rappeler les voitures dont la technologie automobile est défectueuse - n'a pas mis en œuvre les recommandations de prévention des accidents émises par le NTSB et, au lieu de cela, « se contente d'attendre que les problèmes surviennent plutôt que de traiter les questions de sécurité de manière proactive », a déclaré le Conseil.

Le NTSB, qui est une agence fédérale indépendante qui n’a pas de pouvoir d'exécution, est très sélectif. Il choisit les accidents qui peuvent faire progresser la connaissance des questions de sécurité, d’après Latimes. Il y a des millions d'accidents de la route aux États-Unis chaque année, mais l’agence enquête actuellement sur seulement 17 accidents, dont trois impliquant la technologie Autopilot de Tesla. La NHTSA a déclaré qu'elle enquêtait également sur au moins 14 accidents liés à la technologie Autopilot.

Dans des résultats d’enquête du NTSB concernant un autre accident impliquant l’Autopilot, les enquêteurs de la sécurité des transports ont découvert que la conception du système d'aide à la conduite par Tesla était en partie responsable d'un accident dans lequel un conducteur inattentif a percuté un camion d'incendie stationné sur l'autoroute 405, à Culver City près de Los Angeles en janvier 2018, a rapporté Los Angeles Times en septembre dernier. Selon le NTSB, la mauvaise utilisation et la confiance excessive dans le système de pilotage automatique ainsi que la conception de l’Autopilot lui-même permettent au conducteur de se désengager de la tâche de conduite, d’après le NTSB. Personne n'a été blessé dans cet accident, sur lequel le NTSB continue d'enquêter.

Un commentateur n’est pas d’accord avec certains points dans l’enquête concernant l’accident de Mountain View. Selon lui, le pilote automatique lui permet de mieux conduire, et pour lui, c'est l'homme qui est en cause dans l’accident, pas la technologie. Et vous, qu’en pensez-vous ?

Source : Los Angeles Times

Et vous ?

Que pensez-vous des recommandations du NTSB ?
Selon vous, c’est l’Autopilot qui devait être condamné ?
Selon vous, le manque d’attention du conducteur est-il imputable à la technologie de Tesla ou au conducteur ?

Lire aussi

Tesla poursuivi en justice dans le cadre d'une poursuite pour mort injustifiée, qui allègue que le pilote automatique a causé l'accident
Un ingénieur d'Apple mort dans l'accident de son véhicule Tesla s'était déjà plaint du logiciel Autopilot, et de ses dysfonctionnements, après l'application d'une mise à jour
Un dirigeant de Volkswagen affirme que les voitures autonomes de niveau 5 (conduite entièrement autonome) n'arriveront peut-être jamais, toutefois, le niveau 4 lui semble réalisable
Le pilote automatique de Tesla est en partie responsable de l'accident de Culver City en 2018, la conception du véhicule ayant conduit le conducteur à se désengager de la conduite, selon le NTSB

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de MRSizok
Membre habitué https://www.developpez.com
Le 26/02/2020 à 15:59
Techniquement la Tesla X à visé un système d'arrête d'urgence. Pour qu'elle raison elle aurait décider ça? Le coussin intelligent fut déjà utilisé. Si le coussin était neuf. Serait-il mort?

Est-ce-que Mr Sumwalt sort de chez lui? Franchement, combien de personne tripotte leur smartphone au volant, téléphone, lis un livre, joue à candycrush etc... Il suffit d'un bouchon, un feu rouge avec un déclenchement vert avec une personne qui met 10 plomb à démarrer, etc... Et je penses aussi aux piétons qui ne regarde pas en traversant.

Bienvenue à Zombieland!
1  0