IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Tesla doit faire face à un procès intenté par des propriétaires de véhicules, accusant Elon Musk de les avoir induit en erreur sur les capacités de conduite autonome de leurs véhicules

Le , par Jade Emy

7PARTAGES

8  0 
Tesla doit faire face à un procès intenté par des propriétaires de véhicules sur la question de la conduite autonome. Ils accusent Elon Musk de les avoir induits en erreur en leur faisant croire que leurs véhicules pourraient bientôt être dotés de capacités de conduite autonome.

Tesla Autopilot est un système avancé d'aide à la conduite développé par Tesla qui équivaut à une automatisation partielle du véhicule (automatisation de niveau 2, selon la définition de SAE International). Tesla fournit un "Autopilot de base" sur tous les véhicules, qui comprend le centrage sur la voie et le régulateur de vitesse en fonction du trafic.

Les propriétaires peuvent acheter une mise à niveau vers l'"Enhanced Autopilot" (EA), qui ajoute la navigation semi-autonome sur les routes à accès limité, le stationnement automatique et la possibilité d'appeler la voiture depuis un garage ou une place de parking. Full Self-Driving (FSD) est le nom donné par Tesla à son programme d'essais bêta visant à atteindre la conduite entièrement autonome (SAE Level 5). L'appellation est controversée, car les véhicules fonctionnant sous FSD restent au niveau 2 d'automatisation et ne sont donc pas "entièrement autonomes" et nécessitent une supervision active de la part du conducteur.

L'intention déclarée de l'entreprise est d'offrir une conduite entièrement autonome à l'avenir, tout en reconnaissant que des obstacles techniques et réglementaires doivent être surmontés pour atteindre cet objectif. Depuis 2013, le PDG de Tesla, Elon Musk, a fait à plusieurs reprises des prédictions inexactes selon lesquelles Tesla atteindrait l'autonomie de niveau 5 dans un délai d'un à trois ans.

Un juge américain a rejeté récement la demande de Tesla de rejeter une plainte accusant le constructeur de voitures électriques d'Elon Musk d'avoir fait croire aux propriétaires que leurs véhicules pourraient bientôt être dotés de capacités de conduite autonome. Le recours collectif proposé à l'échelle nationale accuse Tesla et Musk d'avoir, depuis 2016, faussement annoncé qu'Autopilot et d'autres technologies de conduite autonome étaient fonctionnelles ou "juste au coin de la rue", incitant les conducteurs à payer plus cher pour leurs véhicules.


La juge du district de San Francisco, Rita Lin, a déclaré que les propriétaires pouvaient engager des poursuites pour négligence et fraude, dans la mesure où ils s'étaient fiés aux déclarations de Tesla concernant le matériel des véhicules et leur capacité à conduire d'une côte à l'autre des États-Unis. Sans se prononcer sur le fond, M. Lin a déclaré que "si Tesla voulait faire croire que son matériel était suffisant pour atteindre un niveau d'automatisation élevé ou complet, l'allégation est manifestement suffisamment fausse".

L'affaire a été menée par Thomas LoSavio, un avocat californien à la retraite qui a déclaré avoir payé une prime de 8 000 $ en 2017 pour les capacités de conduite autonome complète (FSD) sur une Tesla Model S, pensant que cela rendrait la conduite plus sûre si ses réflexes se détérioraient à mesure qu'il vieillissait. LoSavio a déclaré qu'il attendait toujours la technologie six ans plus tard, Tesla restant incapable "même de loin" de produire une voiture à conduite entièrement autonome.

L'action en justice vise à obtenir des dommages et intérêts non spécifiés pour les personnes qui, depuis 2016, ont acheté ou loué des véhicules Tesla dotés des fonctions Autopilot, Enhanced Autopilot et Full Self-Driving. Depuis de nombreuses années, Tesla fait l'objet d'enquêtes fédérales visant à déterminer si sa technologie de conduite autonome a pu contribuer à des accidents mortels.

Les procureurs fédéraux examinent séparément si Tesla a commis une fraude en matière de valeurs mobilières ou une fraude électronique en trompant les investisseurs sur les capacités de conduite autonome de ses véhicules, selon trois personnes familières avec l'affaire.

Tesla a déclaré que l'Autopilot permettait aux véhicules de se diriger, d'accélérer et de freiner dans leur voie, et que le Full Self-Driving permettait aux véhicules d'obéir aux feux de signalisation et de changer de voie. Mais elle a reconnu qu'aucune de ces technologies ne rendait les véhicules autonomes, ni ne dispensait les conducteurs de prêter attention à la route.

Source : La juge du district de San Francisco, Rita Lin

Et vous ?

Pensez-vous que cette plainte est crédible ou pertinente ?
Quel est votre avis sur le sujet ?

Voir aussi :

L'Autopilot de Tesla fait l'objet d'une nouvelle enquête visant à vérifier l'efficacité d'une mise à jour publiée après le rappel de plus de 2 millions de véhicules. La NHTSA exprime des doutes

Un juge trouve des preuves que Tesla et Musk étaient au courant du défaut de l'Autopilot. Les déclarations de Musk auraient eu un effet significatif sur la croyance concernant les capacités du produit

Les avocats de Tesla affirment que les déclarations passées d'Elon Musk sur la sécurité de l'Autopilot pourraient n'être que des deepfakes, un juge a déclaré que cet argument est "troublant"

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de AoCannaille
Expert confirmé https://www.developpez.com
Le 28/05/2024 à 10:36
Il y a quand même en sacré paquet de loupé dans cet accident inadminissble même pour du FSD en béta test :
- Le dépassement de la vitesse limite autorisée en étant à 60 mph (96 kmh!) au lieu de 55
- Aller à 100kmh en plein brouillard! surtout sur une route a double sens, pas si large que ça et avec un passage à niveau en approche...
- ne pas identifier le train avec le brouillard, ok, pourquoi pas, par contre les signaux lumineux standardisés dans le pays?

Le plus choquant pour moi est que par simple corrélation avec la carte, la tesla devrait déjà savoir qu'elle va croiser une voie ferrée, c'est une raison suffisante pour ralentir, d'autant plus avec des conditions météos pourries...

Si le FSD passait son permit en France, le Moniteur aurait pilé longtemps avant l'accident.
4  0 
Avatar de calvaire
Expert confirmé https://www.developpez.com
Le 28/05/2024 à 11:20
c'est de toute façon les limites des réseaux de neurones, le résultat n'est pas garantie.
Une liste de 50 conditions if c'est moche/dur à lire mais c'est du code solide écrit en dur et reproductible.

Un réseau de neurone, le comportement est non prédictible, même bien entrainer sur un cas "simple", le taux d'erreur et de 1% au mieux par exemple.
la reconnaissance d'image et les classifier de ce que j'ai utilisé en python avec la lib Scikit-learn, j'ai toujours pour les projets d'entreprises eux des taux positif au mieux de 90% pour de la reconnaissance d'image et c'est des cas bien plus simple que la conduite autonome qui doit reconnaitre des milliers d’objets sur la route dont le train.

pour peu qu'on utilise les llm avec chatgpt par exemple on voit vite les problèmes, il m'invente des API qui n'existe pas, parfois même m'invente une syntaxe qui n'existe pas...

Et le gros problème c'est que ces algos ne peuvent pas savoir qu'ils ne savent pas pour laisser la main a l'humain, c'est tres difficile de programmer ces algos pour qu'en cas de doute de laisser l'humain reprendre le contrôle. Un simple pixel sur un panneaux peut faire comprendre l'inverse du panneau.
1  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 29/05/2024 à 15:51
Citation Envoyé par calvaire Voir le message
Et le gros problème c'est que ces algos ne peuvent pas savoir qu'ils ne savent pas pour laisser la main a l'humain
Je suis d'accord mais on parle d'un train, donc un ensemble de pixels qui prennent 1/3 du capteur et qui se déplacent tous dans la même direction et à la même vitesse ce qui devrait au moins suggérer qu'il y a quelque chose devant.
Quand tout l'écran bouge c'est soit que tu bouges très fort soit qu'il y a un gros truc devant, dans les deux cas, tu dois déclencher les mesures d'urgences (Mais lesquelles? C'est une autre question)
1  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 30/05/2024 à 8:14
Citation Envoyé par calvaire Voir le message
un simple petit autocollant sur un stop peut fausser les algos de reconnaissance d'image, le fsd serait bien incapable de voir un elephant dans un couloirs si cette elephant n'est pas similaire a ceux de son dataset
Je suis bien d'accord mais le FSD peut il être pertinent s'il ignore ce qu'il ne reconnait pas?
Je ne croit pas, si le vaisseau des Mondo-Shawan (les gros être métallique qui voyagent dans des chrysalides géantes dans le cinquième élément) atterrissait devant ma voiture je m'arrêterais ou j'essayerais d'éviter l'obstacle. Ca tombe sous le sens.
Pourtant le FSD semble ignorer tout obstacle physique qu'il ne reconnait pas, ce qui me semble effarant et très dangereux (cette fois pour le chauffeur mais potentiellement pour d'autres, je penses aux tallbikes, monocycles et autres véhicules atypiques.
Si quelqu'un qui n'a jamais vu d'éléphant en voit un dans un couloir, il va devenir plus prudent face à l'inconnu imposant. Le FSD, lui, l'ignore va s'en rapprocher rapidement. Ca donne peu de durée de vie dans la théorie Darwiniste.
1  0 
Avatar de calvaire
Expert confirmé https://www.developpez.com
Le 29/05/2024 à 16:01
Citation Envoyé par totozor Voir le message
Je suis d'accord mais on parle d'un train, donc un ensemble de pixels qui prennent 1/3 du capteur et qui se déplacent tous dans la même direction et à la même vitesse ce qui devrait au moins suggérer qu'il y a quelque chose devant.
Quand tout l'écran bouge c'est soit que tu bouges très fort soit qu'il y a un gros truc devant, dans les deux cas, tu dois déclencher les mesures d'urgences (Mais lesquelles? C'est une autre question)
un simple petit autocollant sur un stop peut fausser les algos de reconnaissance d'image, le fsd serait bien incapable de voir un elephant dans un couloirs si cette elephant n'est pas similaire a ceux de son dataset
0  0 
Avatar de calvaire
Expert confirmé https://www.developpez.com
Le 30/05/2024 à 8:51
Citation Envoyé par totozor Voir le message
Je suis bien d'accord mais le FSD peut il être pertinent s'il ignore ce qu'il ne reconnait pas?
Je ne croit pas, si le vaisseau des Mondo-Shawan (les gros être métallique qui voyagent dans des chrysalides géantes dans le cinquième élément) atterrissait devant ma voiture je m'arrêterais ou j'essayerais d'éviter l'obstacle. Ca tombe sous le sens.
Pourtant le FSD semble ignorer tout obstacle physique qu'il ne reconnait pas, ce qui me semble effarant et très dangereux (cette fois pour le chauffeur mais potentiellement pour d'autres, je penses aux tallbikes, monocycles et autres véhicules atypiques.
Si quelqu'un qui n'a jamais vu d'éléphant en voit un dans un couloir, il va devenir plus prudent face à l'inconnu imposant. Le FSD, lui, l'ignore va s'en rapprocher rapidement. Ca donne peu de durée de vie dans la théorie Darwiniste.
si tu es novice, je t'invite a tester des algos de scikit learn, tu verras que parfois ca ne fonctionne pas, sans comprendre pourquoi.
par exemple le randomforest classifier

même avec un cas simple, si tu l'entraine bien avec un dataset propre il n'a pas un taux de réussite de 100%.
et c'est bien plus basique et "debeugable" qu'un énorme réseau neurone comme doit avoir le fsd.

un exemple ici

Accuracy: 0.885
88% des prédictions du modèle sont correctes.

Precision: 0.578
précision mesure le nombre de vrais positifs (57%)

Recall: 0.0873
c'est le nombre de vrais positifs par rapport au nombre total de cas positifs réels
8% ca veut dire que le modèle manque beaucoup de cas positifs. le modèle ne parvient à identifier correctement que 8.73% des cas.

cette exemple soulève un probleme: pour faire des prédictions justes (88%), ton modèle zap pas mal de cas positif (il en détecte que 8%)...
si tu veux détecter plus de cas positifs, ton modèle risque de perdre en Accuracy

Cette exemple montre toute la complexité et que l'ia c'est pas magique et ce le sera jamais.
Les hallucination de chatgpt sont inévitable par exemple, la seul solution de le réduire c'est de réduire ces options de réponses mais dans ce cas on va perdre en qualité du modèle.
Pour le FSD j'imagine un dilemme similaire, le train il a du bien l’identifier ou la identifier avec autre chose.

Les voitures autonomes au jours d'aujourd'hui je pense devrait etre utilisé uniquement sur autoroute (peut être faut t'il faire des certifications d'autoroute d'ailleurs, certifié "ia firendly") et dans les bouchons ou il suffit juste de suivre la voiture en face.
Une autoroute/national/bout de national certifié aurait des normes a respecter: panneaux a une certaine hauteur et à un certain angle pour éviter qu'ils ne soit pas vu par l'ia, comprendrais uniquement des voix d’acceleration/décelleration comme carrefour (donc feu/stop interdit), n'aurait aucun passage a niveau...etc.

la signalisation devrait peut être même être normalisé au niveau mondial (même couleurs, même forme des panneaux et même police d'écriture), quand je vais en allemagne c'est pas la même police d'écriture, les voitures des secours et polices ne sont pas pareil (couleur différente, bruit sonore différent...) ca n'aide pas l'entrainement des ia tous ca, en suisse les autoroute sont des panneaux vert et les autoroute en bleu...etc.
0  0