IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Apple fait l'objet d'une action en justice de 1,2 milliard de dollars après l'abandon de l'outil controversé de détection de CSAM, pour ne pas avoir bloqué les contenus d'abus sexuels sur enfant dans iCloud

Le , par Anthony

16PARTAGES

9  0 
Apple fait l'objet d'une action en justice pour ne pas avoir limité les contenus pédopornographiques sur sa plateforme iCloud. Selon le New York Times, les plaignants, qui sont des victimes présumées d'abus, réclament plus de 1,2 milliard de dollars de dommages et intérêts, affirmant qu'Apple a abandonné un système de détection datant de 2021 destiné à identifier les contenus préjudiciables.

En effet, cette affaire découle de la décision d'Apple, prise en 2022, d'abandonner son projet controversé visant à analyser les sauvegardes sur iCloud Photos à la recherche d'images d'abus sexuels sur enfant. Introduit en 2021, le système a utilisé le hachage sur l'appareil pour identifier ces types de contenu.

Cependant, Apple a abandonné l'initiative en raison des nombreuses critiques virulentes de la part d'experts en sécurité. Les critiques avaient notamment mis en garde Apple concernant les implications sur la vie privée et le risque d'abus, expliquant que certains États pouvaient exiger que la fonction soit détournée à d'autres fins, notamment de surveillance de masse. En septembre 2022, la société avait clarifié son raisonnement, citant le risque de conséquences involontaires.


Déposée le samedi 7 décembre 2024, l'action en justice a été intentée par une jeune femme de 27 ans qui affirme que l'inaction d'Apple a permis la diffusion à grande échelle d'images de son agression. Selon le New York Times, la plaignante affirme que son agresseur a téléchargé les images sur le service iCloud d'Apple. Elle a également déclaré que sa mère et elle-même recevaient fréquemment des notifications des forces de l'ordre lorsque des personnes étaient accusées de détenir ces images illicites.

Elle a déclaré : « Il était difficile de croire qu'il y en avait autant. Ils ne s'arrêtaient pas ».

Les victimes demandent plus de 1,2 milliard de dollars de dommages et intérêts à Apple à propos d'iCloud

L'action en justice vise à tenir Apple responsable de sa décision et à obtenir des dommages-intérêts au nom de 2 680 victimes. En vertu de la législation américaine, les victimes d'abus sexuels sur des enfants ont droit à un minimum de 150 000 dollars chacune, ce qui pourrait porter la responsabilité totale d'Apple à plus de 1,2 milliard de dollars si l'entreprise est jugée responsable.

Cette action en justice jette également un nouveau regard sur la réputation de longue date d'Apple en matière de protection de la vie privée. Elle intervient après une autre action en justice récente impliquant une victime de neuf ans en Caroline du Nord, qui affirme qu'Apple a permis à des inconnus de distribuer du CSAM par l'intermédiaire d'iCloud.

Depuis des décennies, l'article 230 de la loi Communications Decency Act protège les entreprises de toute responsabilité pour les contenus générés par les utilisateurs. Toutefois, des décisions récentes de la Cour d'appel des États-Unis pour le neuvième circuit précisent que ces protections ne s'étendent qu'aux décisions de modération du contenu et ne sont pas absolues.

Dans l'affaire de la Caroline du Nord, Apple a demandé un non-lieu, arguant que la section 230 la protège de toute responsabilité pour le matériel téléchargé sur iCloud par des tiers. La société affirme également qu'iCloud ne peut être considéré comme un produit, à l'instar d'un pneu défectueux, et qu'il ne peut donc faire l'objet de réclamations au titre de la responsabilité du fait des produits.


Cité par le Times, le porte-parole d'Apple, Fred Sainz, a déclaré : « Les contenus pédopornographiques sont odieux et nous nous engageons à lutter contre les moyens utilisés par les prédateurs pour mettre les enfants en danger. Nous innovons activement et de toute urgence pour lutter contre ces crimes sans compromettre la sécurité et la vie privée de tous nos utilisateurs ».

La responsabilité des grandes entreprises technologiques sous les feux de la rampe

Apple n'est pas la seule grande entreprise technologique à faire l'objet d'un examen minutieux sur la manière dont ses plateformes affectent les enfants. En début d'année, les PDG de Meta, TikTok, Snap, Discord et X ont comparu devant le Sénat américain lors d'une audition consacrée à la lutte contre l'exploitation des enfants en ligne.

En juillet, le Sénat a adopté la loi SHIELD (Stopping Harmful Image Exploitation and Limiting Distribution), qui criminalise la distribution d'images privées, sexuellement explicites ou nues. Michael Salter, professeur de criminologie à l'université de Nouvelle-Galles du Sud, en Australie, a écrit sur X : « En l'absence de réforme législative dans les grandes juridictions comme les États-Unis ou l'UE, les poursuites civiles sont l'un des rares moyens d'obliger les entreprises technologiques à rendre des comptes ».

Source : The New York Times

Et vous ?

Quel est votre avis sur le sujet ?
Trouvez-vous que cette action en justice visant Apple est justifiée et pertinente ?

Voir aussi :

Apple fait l'objet d'une plainte de 3,6 milliards d'euros concernant les pratiques de tarification d'iCloud, la plainte accuse Apple d'avoir verrouillé les clients dans iCloud et surfacturé le service

Apple a illégalement menacé des employés pour leurs discussions sur la rémunération et le travail à distance, et a illégalement « interféré avec, restreint et contraint des employés » exerçant leurs droits

Une erreur dans cette actualité ? Signalez-nous-la !