
un jury l'a déclaré partiellement responsable de l'accident
Un jury fédéral a récemment jugé Tesla partiellement responsable d'un accident mortel survenu en 2019. L'accident a coûté la vie à un piéton et gravement blessé une autre personne alors que la voiture était en mode Autopilot. Les transcriptions du procès révèlent que Tesla a tenté en vain de rejeter toute la responsabilité sur le conducteur, en dissimulant des preuves, en mentant et en induisant la police en erreur. Les preuves critiques cachées par Tesla suggèrent que le système d'aide à la conduite Autopilot n'est pas aussi sûr que l'entreprise le prétend. Il est confronté à de nombreuses défaillances techniques, adoptant parfois des comportements dangereux.
Ce verdict est un coup dur pour Tesla et son PDG Elon Musk, qui tentent de convaincre le public, les régulateurs gouvernementaux et les investisseurs que leur logiciel de conduite autonome est sûr. Le jury composé de huit personnes a déclaré que le constructeur américain est en partie responsable de l'accident survenu il y a six ans dans Les Keys de Floride, lorsque ni le conducteur de la berline Tesla ni le logiciel Autopilot n'ont freiné à temps à un carrefour.
Le jury a attribué un tiers de la responsabilité à Tesla et deux tiers au conducteur, qui cherchait son téléphone portable au moment de l'accident. Ce dernier a été poursuivi séparément. Le verdict fait suite à un procès de trois semaines à Miami qui a mis en lumière la manière dont Tesla et Elon Musk ont commercialisé leur logiciel d'aide à la conduite Autopilot, qui, malgré son nom, nécessite une surveillance constante par un humain au volant.
Les avocats des plaignants ont fait valoir que Tesla avait surestimé les capacités de l'Autopilot, ce qui a amené le conducteur d'une berline Model S à quitter la route des yeux alors qu'il approchait d'un carrefour en T dans Les Keys de Floride après le coucher du soleil. La Tesla n'a pas réussi à s'arrêter au carrefour et a percuté un SUV garé, tuant Naibel Benavides Leon, 20 ans, qui se tenait à côté du SUV, et blessant son petit ami, Dillon Angulo.
Selon les données citées lors du procès, la Tesla roulait à 100 km/h juste avant l'accident. Le carrefour était équipé d'un panneau stop et d'un feu rouge clignotant. Les familles de Benavides Leon et Dillon Angulo ont poursuivi le conducteur et Tesla, arguant que le logiciel Autopilot aurait dû avertir le conducteur et freiner avant que le véhicule ne percute le carrefour. Les jurés ont délibéré pendant sept heures le 31 juillet 2025 avant de rendre leur verdict.
Le formulaire de verdict demandait aux jurés si Tesla avait mis sur le marché « un véhicule présentant un défaut qui constituait une cause légale de préjudice » pour les plaignants. Les jurés ont répondu par l'affirmative. Tesla a été condamné à verser 243 millions de dollars de dommages-intérêts après que le jury a estimé que l'Autopilot avait contribué à cet accident mortel. Tesla a dénoncé le verdict et a maintenu que le conducteur était seul responsable.
Tesla a dissimulé l'instantané de la collision pendant des années
Tesla a dissimulé les données de l'instantané de la collision que son propre serveur a reçu dans les minutes qui ont suivi l'accident. Dans les trois minutes qui ont suivi l'accident, la Model S a téléchargé un « instantané de la collision » - vidéo, flux CAN-bus, données EDR, etc. - sur les serveurs de Tesla, « Mothership », et a reçu un accusé de réception. Le véhicule a ensuite supprimé sa copie locale, de sorte que Tesla était la seule entité à y avoir accès.
Il s'en est suivi des années de bataille avant que Tesla reconnaisse que cet instantané de collision existe et qu'il est pertinent pour l'affaire. La police a tenté à plusieurs reprises d'obtenir les données de l'instantané de collision, mais Tesla a entraîné les autorités et les plaignants dans un long processus de tromperie et de mauvaise orientation qui s'est étalé sur plusieurs années. Les transcriptions du procès ont révélé les méthodes employées par Tesla.
Tesla tentait de protéger la réputation de son logiciel Autopilot, mais a été surpris par les résultats d'une expertise médico-légale. Les plaignants ont engagé Alan Moore, un ingénieur spécialisé dans la reconstitution d'accidents, pour récupérer les données de l'ECU (ordinateur) de l'Autopilot. Sur la base de ces données, Alan Moore a pu confirmer que Tesla disposait depuis le début de cet « instantané de collision », mais qu'il l'avait « dissocié » du véhicule.
Tesla a refusé de fournir les données télémétriques de la berline
Le caporal Riso, enquêteur d'homicide de la Florida Highway Patrol (FHP), a demandé l'aide de Tesla pour récupérer les données télémétriques afin d'aider à reconstituer l'accident. Il a été mis en contact avec l'avocat de Tesla, Ryan McCarthy, qui lui a demandé s'il devait citer Tesla à comparaître pour obtenir les données de l'accident. Ryan McCarthy aurait déclaré à l'enquêteur que cela n'était pas nécessaire et qu'il l'aiderait dans le cadre de l'enquête.
Riso a déclaré à propos de l'avocat au cours du procès : « il a dit que ce n'était pas nécessaire. Écrivez-moi une lettre et je vous dirai quoi mettre dans la lettre ». À l'époque, il ne considérait pas Tesla comme un adversaire et pensait que l'avocat faciliterait la récupération des données sans avoir à passer par une procédure formelle. Toutefois, l'avocat a rédigé la lettre de manière à éviter d'envoyer à la police l'intégralité des données relatives à l'accident.
Riso a suivi les instructions mot pour mot. Il a déclaré au cours du procès : « j'ai spécifiquement écrit ce que l'avocat de Tesla m'a dit d'écrire dans la lettre ». Mais l'avocat a spécifiquement rédigé la lettre pour omettre de partager l'instantané de la collision, qui comprend des données vidéo, EDR, CAN bus et Autopilot.
Au lieu de cela, Tesla a fourni à la police des données d'infodivertissement avec des journaux d'appels, une copie du manuel du propriétaire, mais pas la télémétrie réelle de l'accident provenant de l'ECU de l'Autopilot. Tesla n'a jamais dit qu'elle disposait déjà de ces données depuis la première demande de la police.
Tesla a essayé de corrompre les preuves tout le long de l'enquête
Tesla est devenu encore plus trompeur lorsque la police a spécifiquement essayé de collecter les données directement à partir de l'ECU de l'Autopilot. Le 19 juin 2019, Riso a physiquement retiré le MCU et l'ECU de l'Autopilot de la Tesla. Encore une fois, l'enquêteur pensait que Tesla se montrait coopératif avec l'enquête à l'époque, il a donc demandé à l'entreprise comment extraire les données de l'ordinateur. Il a déclaré lors du procès :
« J'ai contacté McCarthy et lui ai demandé comment je pouvais retirer ces données des composants de l'ordinateur. Il m'a répondu qu'il coordonnerait ma rencontre avec un technicien de leur centre de service, le centre de service Tesla à Coral Gables ». Il a organisé la rencontre entre Riso et Michael Calafell, un technicien Tesla, au centre de service local de Coral Gables, avec l'ECU de l'Autopilot et le MCU de la Model S, les deux principaux ordinateurs de bord.
Pour être clair, Tesla avait déjà toutes ces données dans ses serveurs et aurait pu simplement les envoyer à Riso, mais au lieu de cela, ils l'ont attiré dans son centre de service avec la pièce à conviction sous sa garde. Ce qui s'ensuivit fut du pur cinéma. Michael Calafell a connecté les deux ordinateurs à une Model S dans l'atelier pour pouvoir y accéder, mais il a ensuite prétendu que les données étaient « corrompues » et qu'il était impossible d'y accéder.
Pendant des années de communication avec la police, les plaignants et le tribunal dans le cadre de l'enquête et, plus tard, de la procédure de communication des pièces du procès, Tesla n'a jamais mentionné qu'elle disposait de toutes les données expliquant comment Autopilot avait vu l'accident, que tout le monde recherchait, et qui se trouvaient sur ses serveurs depuis des années. Les faits sont les suivants :
- Tesla avait les données sur ses serveurs dans les minutes qui ont suivi l'accident ;
- lorsque la police a demandé les données, Tesla les a redirigées vers d'autres données ;
- lorsque la police a demandé l'aide de Tesla pour les extraire de l'ordinateur, Tesla a faussement prétendu qu'elles étaient « corrompues » ;
- Tesla a inventé une fonction de « suppression automatique » qui n'existait pas pour tenter d'expliquer pourquoi elle ne pouvait pas trouver les données dans l'ordinateur ;
- lorsque les plaignants ont demandé les données, Tesla a dit qu'elles n'existaient pas ;
- Tesla n'a admis l'existence des données que lorsqu'on lui a présenté des preuves médico-légales montrant qu'elles avaient été créées et transférées sur ses serveurs.
Alan Moore, l'ingénieur légiste, a été étonné par toutes les données trouvées grâce au clonage de l'ECU de l'Autopilot : « pour un ingénieur comme moi, les données issues de ces ordinateurs étaient un trésor qui expliquait comment l'accident s'était produit ». Les données fournies par Tesla n'étaient pas complètes, les vidéos étaient granuleuses et il manquait des alertes clés et des horodatages concernant l'Autopilot et sa prise de décision avant l'accident.
Armés de ces métadonnées, les plaignants ont été en mesure d'assigner les journaux AWS de Tesla. Tesla a continué à les combattre, mais face à une audience de sanctions, Tesla a finalement produit le fichier TAR intact ainsi que des journaux d'accès montrant qu'il était stocké depuis 18:16 PDT le 25 avril 2019 - le même horodatage de trois minutes que l'ingénieur légiste avait mis en évidence. Tesla a dû admettre qu'il possédait les données depuis le début.
Tesla a maintenu une communication trompeuse sur Autopilot
Le jury a été confronté à des preuves évidentes que Tesla a tenté de dissimuler des données relatives à l'accident, puis il a été informé de ce que ces données révélaient. Elles révèlent aussi les comportements dangereux de certains conducteurs. L'un des arguments était que Tesla avait dangereusement laissé les propriétaires utiliser l'Autopilot sur des routes où il n'était pas conçu pour fonctionner, puisqu'il avait été spécifiquement formé pour les autoroutes.
Le National Transportation Safety Board (NTSB) des États-Unis avait même averti Tesla à ce sujet et le constructeur n'avait pas géofencé le système : « incorporer des mesures de protection du système qui limitent l'utilisation des systèmes de contrôle automatisé des véhicules aux conditions pour lesquelles ils ont été conçus (le domaine de conception opérationnelle du véhicule) ». Toutefois, il semble que Tesla n'a pas suivi la recommandation du NSTB.
Le conducteur était responsable de l'accident et il l'a admis. Il a admis ne pas avoir utilisé le logiciel Autopilot de Tesla correctement et ne pas avoir fait attention pendant l'accident. Cependant, l'objectif principal des plaignants, dans ce cas, était d'attribuer une partie de la responsabilité de l'accident à Tesla pour ne pas avoir empêché une telle utilisation abusive du système malgré le risque évident. Les plaignants ont finalement atteint leur objectif.
La logique est que si Tesla avait mis en œuvre le geofencing et une meilleure surveillance du conducteur, le conducteur ici n'aurait jamais été en mesure d'utiliser l'Autopilot dans ce cas, ce qui aurait pu potentiellement éviter de se mettre dans la situation qui a conduit à l'accident. En outre, le système Autopilot de Tesla n'a pas réussi à faire ce que l'entreprise a toujours affirmé qu'il pouvait faire : empêcher ce type d'accident de se produire.
Conclusion
Le système Autopilot est présenté comme sûr et quasi autonome, mais en interne, Tesla savait que ses capacités étaient limitées. Cela a contribué à donner au conducteur un faux sentiment de sécurité. Les conducteurs comprennent parfois (à tort) qu’ils peuvent relâcher leur attention en toute sécurité pendant que le véhicule gérait la conduite. C'est le cas ici lorsque le conducteur a relâché son attention pour rechercher son téléphone portable.
Cette année, les Tesla Files ont révélé un fossé préoccupant entre l’omerta interne, la minimisation publique et les cas récurrents de graves défaillances. Tesla est au courant des problèmes relatifs à la conception de ses véhicules et des défaillances de ses logiciels, mais a choisi de les dissimuler et continue de nier. Ce faisant, et en rejetant la faute sur les conducteurs, Tesla met en danger ses clients tout en contournant les mécanismes de responsabilité.
Si Tesla explique que les accidents sont causés par les erreurs des conducteurs, les preuves accumulées soulèvent des questions sérieuses sur la sécurité réelle des véhicules Tesla. L'entreprise est également accusée d'expérimenter un logiciel bêta sur les routes publiques sans surveillance adéquate.
Source : la plainte de la famille des victimes (PDF)
Et vous ?


Voir aussi



Vous avez lu gratuitement 1 633 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.