IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Un homme condamné à 18 ans de prison pour avoir utilisé l'IA pour créer des images d'abus sexuels sur enfant,
Un précédent de la manière dont les deepfakes créés par l'IA pourraient être poursuivis à l'avenir

Le , par Mathis Lucas

8PARTAGES

12  0 
La justice britannique envoie un signal fort aux personnes qui seraient tentées d'utiliser l'IA pour générer des deepfakes préjudiciables aux victimes et notamment aux enfants. Elle a condamné à 18 ans de prison un homme qui a utilisé l'IA pour créer des images d'abus sexuels sur enfant (CSAM). Sur une période de 18 mois, il a partagé et vendu en ligne à d'autres pédophiles les images qu'il a créées, ce qui lui a rapporté 5 000 livres sterling. Sa condamnation constitue « un exemple de la manière dont les contenus générés par l'IA et les deepfakes indécents et explicites pourraient être poursuivis à l'avenir ». La lutte contre les deepfakes reste un défi de taille.

Quand l'IA est utilisée pour créer et vendre du matériel d'abus sexuel sur enfant

Hugh Nelson, 27 ans, originaire de Bolton, en Angleterre, a plaidé coupable d'un total de 16 délits d'abus sexuels sur des enfants, notamment d'avoir transformé des photographies quotidiennes de vrais enfants en CSAM à l'aide des systèmes d'IA du fournisseur américain de logiciels Daz 3D. Il a également reconnu avoir encouragé d'autres personnes à commettre des délits sexuels sur des enfants. Une forme d'utilisation de l'IA qui suscite de profondes préoccupations.


Grâce aux progrès de l'IA, les images truquées (ou deepfakes) sont devenues plus réalistes et plus faciles à créer, ce qui a incité les experts à mettre en garde contre l'augmentation des images indécentes d'enfants générées par ordinateur. L'avènement de l'IA a également fortement amélioré le caractère réaliste des deepfakes, comme en témoignent les photos pornos de la chanteuse américaine Taylor Swift générées par une IA de Microsoft au début de cette année.

À l'époque, le PDG de Microsoft, Satya Nadella, avait appelé l'industrie technologique à prendre rapidement des mesures contre ce fléau. Jeanette Smith, procureure de l'unité chargée des abus sexuels sur les enfants au sein du Crown Prosecution Service, a déclaré que « l'affaire Nelson créait un nouveau précédent en ce qui concerne la manière dont les images générées par des outils d'IA générative et les deepfakes indécents et explicites pouvaient être poursuivis ».

« Cette affaire est l'une des premières du genre, mais nous nous attendons à en voir d'autres au fur et à mesure que la technologie évolue », a déclaré Jeanette Smith. Bien que Satya Nadella et d'autres dirigeants du secteur technologique appellent à agir contre les deepfakes, il n'y a aucune initiative sérieuse sur la question. Les entreprises d'IA proposent d'intégrer des filigranes à leurs produits respectifs, mais les experts sont sceptiques à l'égard de cette solution.

Hugh Nelson utilisait un générateur de caractères en 3D pour transformer des photos d'enfants ordinaires et non explicites en CSAM, avant de les vendre sur un forum Internet utilisé par des artistes. Les personnes qui connaissaient les enfants dans le monde réel envoyaient à l'homme de 27 ans des images de ces enfants. Hugh Nelson facturait ensuite à son réseau de pédophiles 80 livres sterling pour un nouveau « personnage » (un CSMA basé sur une photo d'enfant).

Daz 3D, la société qui a créé le logiciel utilisé par Hugh Nelson, a déclaré dans un communiqué que « son contrat de licence utilisateur interdit l'utilisation de son logiciel pour la création d'images qui violent les lois sur la pornographie enfantine ou l'exploitation sexuelle des enfants, ou qui sont autrement préjudiciables aux mineurs et qu'elle s'engage à améliorer continuellement sa capacité à empêcher l'utilisation de son logiciel à de telles fins ».

Une vente de matériels d'abus sexuel sur enfant générés à l'aide des outils d'IA

Jeanette Smith a déclaré : « il s'agit de l'une des premières affaires de ce type qui démontre un lien entre des personnes comme Nelson, qui créent des images générées par ordinateur à l'aide de la technologie, et la délinquance réelle qui se cache derrière ces images ». Cependant, les médias britanniques soulignent qu'un certain nombre de pédophiles ont été envoyés en prison ces derniers mois pour avoir utilisé l'IA afin de créer des images d'abus sexuel sur enfant.

La police du Grand Manchester a trouvé des images réelles d'enfants et des images générées par ordinateur d'abus sexuels sur des enfants sur les appareils de Nelson, qui ont été saisis en juin 2024. Sur une période de 18 mois, Hugh Nelson admet avoir gagné environ 5 000 livres sterling (soit environ 6 000 euros) en vendant les images qu'il avait générées. Dans certains cas, Hugh Nelson encourageait ensuite ses clients à violer et à agresser sexuellement les enfants.

Selon la décision de justice, les images générées par ordinateur ne ressemblaient pas exactement à de vraies photographies, mais pouvaient être classées dans la catégorie des « photographies indécentes » plutôt que dans celle des « images interdites », qui est généralement assortie d'une peine moins lourde. Selon Jeanette Smith, cela a été possible parce que les enquêteurs ont pu démontrer qu'elles étaient dérivées d'images d'enfants réels envoyées à Hugh Nelson.

En août 2024, Hugh Nelson a admis avoir créé et vendu des images d'abus sexuels d'enfants sur mesure, adaptées aux demandes spécifiques de ses clients. La police a également indiqué qu'il avait diffusé les images qu'il avait générées en ligne, à la fois gratuitement et contre rémunération. Les enfants dont Hugh Nelson recevait les photos étaient tous basés à l'étranger, notamment en France, en Italie et aux États-Unis. Les forces de l'ordre de ces pays ont été alertées.

L'agent-détective Carly Baines, de la police du Grand Manchester, a déclaré que « cette affaire était profondément horrible ». Carly Baines a ajouté : « il nous est apparu clairement, après des recherches approfondies sur ses nombreux appareils par des experts en criminalistique numérique, que son comportement allait bien au-delà de ce qu'il considérait manifestement comme une "opportunité commerciale" ».

CSAM générés à l'aide de l'IA : un phénomène critique qui prend de l'ampleur

Cette affaire survient alors que le secteur technologique et les autorités de régulation sont aux prises avec les répercussions sociales considérables de l'IA générative. Des entreprises telles que Google, Meta et X (ex-Twitter) s'efforcent de lutter contre les deepfakes sur leurs plateformes. Bien que ce soit la première fois qu'une personne soit poursuivie pour avoir créé ce type d'images d'abus sexuels sur enfant, les autorités se préparent à de nombreuses autres arrestations.

L'équipe de la police du Grand Manchester spécialisée dans les enquêtes sur les abus pédosexuels en ligne affirme que les images générées par l'IA sont devenues un élément courant de leurs enquêtes. De son côté, Graeme Biggar, directeur général de l'Agence nationale britannique de lutte contre la criminalité, a averti l'année dernière qu'il avait commencé à voir des images et des vidéos hyperréalistes d'abus sexuels sur des enfants qui ont été générées par l'IA.

Graeme Biggar a ajouté que « la visualisation de ce type de matériel, qu'il soit réel ou généré par ordinateur, augmente matériellement le risque que les délinquants passent à l'abus sexuel sur les enfants eux-mêmes ». Au sein de l'Internet Watch Foundation à Cambridge, des dizaines d'analystes parcourent Internet chaque jour, à la recherche d'images d'abus sexuels sur enfants et pour les retirer d'Internet. L'organisation a constaté une augmentation préoccupante.

Au cours des six derniers mois, l'association a vu plus d'images d'abus d'enfants créées à l'aide de l'IA qu'en 2023. Dan Sexton, directeur technique de l'organisation caritative, affirme : « notre travail a toujours été difficile. Mais nous n'avons jamais été confrontés à la possibilité que quelqu'un télécharge un logiciel sur son ordinateur et crée une quantité infinie de nouvelles images. Ils en utilisent autant qu'ils le peuvent jusqu'à ce que les disques durs se remplissent ».

« C'est un nouveau type de préjudice auquel nous n'avons pas été préparés », a ajouté Dan Sexton. L'un des analystes de l'organisation, connu uniquement sous le nom de Jeff lorsqu'il est au travail pour protéger son identité, s'est dit inquiet de voir à quel point la génération d'image à l'aide de l'IA devient convaincante. « Nous en sommes au point où même un analyste expérimenté aurait du mal à déterminer si elle est réelle ou non », a déclaré le dénommé Jeff.

Les cadres juridiques existants ne sont pas adaptés à la lutte contre le CSAM

Lorsque Hugh Nelson a plaidé coupable, l'agent-détective Carly Baines a déclaré : « cette affaire a été un véritable test pour la législation, car l'utilisation de programmes informatiques de cette manière est très nouvelle pour ce type de délit et n'est pas spécifiquement mentionnée dans la législation britannique actuelle ». La loi britannique sur la sécurité en ligne, adoptée en octobre 2023, rend illégale la diffusion de deepfakes pornographiques non consensuels.

Cependant, Hugh Nelson a été poursuivi en vertu de la loi sur la maltraitance des enfants. Hugh Nelson a été arrêté à son domicile en juin 2023 et ses appareils ont été saisis et examinés. Il a déclaré aux officiers que son comportement était devenu incontrôlable après avoir rencontré d'autres pédophiles en ligne. L'avocat de Hugh Nelson a déclaré : « il était solitaire et socialement isolé. Il avait plongé dans ce genre de vie fantaisiste et s'y était complètement absorbé ».

Dans une démarche visant à lutter contre la violence faite aux femmes, le ministère de la Justice du Royaume-Uni a annoncé début 2024 qu’il criminaliserait la création de deepfakes à caractère sexuel explicite. Cette nouvelle législation, qui n’a pas encore été adoptée, prévoit des poursuites et une amende illimitée pour les contrevenants. La création de ces images sera considérée comme une infraction pénale, même si le créateur n’a pas l’intention de les partager.

En Union européenne, la proposition visant à surveiller la création, le stockage et le partage du CSAM est fortement controversée. La législation obligerait les services de messagerie à analyser le contenu des communications des utilisateurs à la recherche de CSAM connus et inconnus, et à essayer de détecter le grooming en temps réel. Selon les experts, cette loi risque d'affaiblir le chiffrement de bout en bout, ce qui nuirait à la protection de la vie privée en ligne.

Avec sa proposition législative connue sous le nom de « Chat Control », la Commission européenne veut mettre en place un appareil de surveillance de masse sans précédent, aux proportions orwelliennes, au sein de l'Union européenne. Le 20 juin 2024, le Conseil de l’UE et ses participants ont décidé de retirer le vote sur le controversé plan de contrôle des discussions. Cependant, les experts s'attendent que la Commission lance prochainement une nouvelle tentative.

Source : la police du Grand Manchester

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous de la sentence prononcée contre l'accusé dans cette affaire ?
Selon vous, comment luter contre la création, le stockage et la diffusion en ligne du CSAM ?
Comment empêcher la génération de CSAM et d'autres images indécentes à l'aide des outils d'IA générative ?
Comment les législations peuvent-elles évoluer afin de s'adapter aux nouvelles technologies que l'IA et les deepfakes ?

Voir aussi

Les photos pornos de Taylor Swift générées par IA sont issues d'un défi, selon un rapport indiquant que plusieurs utilisateurs cherchaient des moyens de contourner les filtres d'outils IA populaires

Le plan européen de surveillance CSAM est un point de basculement pour les droits démocratiques, avertissent les experts

Le PDG de Microsoft appelle l'industrie technologique à « agir » après des photos pornos de Taylor Swift générées par IA, certaines d'entre elles ont été générées par un outil de Microsoft

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de
https://www.developpez.com
Le 28/10/2024 à 23:58
La création d'image interdite via ne pourra jamais être empéchée, que cela concerne les pedos ou le terros.
Du moment où un IA connait des notions similaire ou proche, les mesures de sécurité seront toujours contournable.

Mon point de vue c'est qu'on pousse à nous inciter à accepter toujours plus de flicage sous n'importe quel prétexte, mais pourquoi ? Une finalité sans doute inavoué de nos dirigeants ?

Enfin je rappel que n'importe qui avec un crayon et une feuille peut potentiellement faire quelque chose d'interdit, idem avec un simple logiciel.
Doit-on mettre des numéros d'immatriculation sur les feuilles et les crayons ? Doit-on intégrer des logiciels espions dans tout nos machines ? Faut-il sacrifier sa vie privé ? Non !
Pouvoir faire quelque chose d'illégal, ne signifie pas que la personne le fait : Ce n'est jamais une excuse pour instaurer une surveillance de masse !
8  1 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 29/10/2024 à 10:57
Citation Envoyé par Fagus Voir le message
Merci à la justice d'utiliser ses ressources pour lutter contre des images générée de pédophilie. Les clients seront obligés de se rabattre sur des images réelles.

Ceci est un commentaire provocateur, mais l'IA générative de pornographie est-elle vraiment un problème ?

Ya un article Le passage à l’acte pédophile et les enjeux psychopathologiques du téléchargement : un virtuel protecteur ? la réponse serait : ça dépend des gens... on est que moyennement avancé.

Mais globalement peut être qu'on pourrait passer d'un modèle axé sur le soin plus que la répression. Déjà les pédophiles ne seraient pas obligés de se cacher, on les aurait dans le viseur pour les empêcher de fauter, et si c'est incurable, ça me choquerait pas qu'ils s’adonnent sur des images virtuelles plutôt que sur des commandes d'images réelles...
pour moi le plus important c'est de détruire les réseaux de traffics d'enfants, a partir de la, fantasmer dans sa tête sur des enfants, les dessinés, en faire des hentai ou les généré par ia, ca reste pas très grave et limite temps que ca reste secret..., on ne peut empêcher une femme ou un homme de rêver d'un enfant a poile la nuit.

c'est une trouble mental c'est sur, mais tant que ca reste de la consommation de contenue factice.

il y'a des catégories de porno sur des cadavres ou sur la torture ou sur le meurtre pendant l'acte, ces vidéos sont simulé avec des acteurs et sont légales. Pourtant tuer quelqu'un est illégale.
Il y'a des films d'Hollywood d'ailleurs ou il y'a des scenes de meurtre pendant l'acte sexuel.

Es ce que fantasmer d'enfant a poile est plus grave que de fantasmer de tuer quelqu'un pendant l'acte ou de se taper sa grand mere dans la tombe ?
ca reste une zone d'ombre pénalement, car les vidéos d'actrices maquillé jeune et en costume de collégienne de 15ans, c'est pas ca qui manque sur l'internet légale.
5  0 
Avatar de yocoy22415
Futur Membre du Club https://www.developpez.com
Le 20/11/2024 à 17:02
Aussi choqué que de lire qu'un directeur apprenant que du (quasi) porno infantile IA se diffuse dans son établissement ne lève pas le doigt pour agir contre.
Malheureusement, même en France ce genre de chose peut arriver.
Il y a de ça 3 ans, des confrères professeurs, niveau collège,
me racontait avoir pris connaissances d'affaire de chantage et de pornographie, infantile entre collégien,
sur un réseau (Snapchat il me semble).
Le directeur n'a pas souhaité intervenir.
Pire, lorsque mes confrères ont été alerté les autorités, ont leurs que rien n'était possible
tant qu'il n'y a pas un des parents des victimes n'ont pas été déposé une plainte.
4  0 
Avatar de Fagus
Membre expert https://www.developpez.com
Le 29/10/2024 à 10:51
Merci à la justice d'utiliser ses ressources pour lutter contre des images générée de pédophilie. Les clients seront obligés de se rabattre sur des images réelles.

Ceci est un commentaire provocateur, mais l'IA générative de pornographie est-elle vraiment un problème ?

Ya un article Le passage à l’acte pédophile et les enjeux psychopathologiques du téléchargement : un virtuel protecteur ? la réponse serait : ça dépend des gens... on est que moyennement avancé.

Mais globalement peut être qu'on pourrait passer d'un modèle axé sur le soin plus que la répression. Déjà les pédophiles ne seraient pas obligés de se cacher, on les aurait dans le viseur pour les empêcher de fauter, et si c'est incurable, ça me choquerait pas qu'ils s’adonnent sur des images virtuelles plutôt que sur des commandes d'images réelles...
3  0 
Avatar de xmornard
Membre à l'essai https://www.developpez.com
Le 29/10/2024 à 12:00
Ah les beaux parleurs qui font la leçon sur "l'entrainement des pédophiles"! Eux savent bien sûr que montrer des images pédophiles amènent ces derniers à s'attaquer aux petits enfants, et tout ça sans présenter une seule étude sérieuse qui corroborent ce fait! Parce que bien sûr la pornographie crée des pervers sexuel (et pas la misère sexuelle plutôt) tout comme les images d'assassinats crée des assassins (qu'on interdise tout les thrillers et autres films de guerre, vite!), et il suffirait donc de montrer des films sur l'Amour pour que tout aille bien mieux en ce bas monde...
En fait, tout ceci montre surtout que beaucoup de gens aime se mettre dans une posture morale de bien-pensance qui les mettront toujours du bon coté, sans tenir compte de la réalité; parce que quand même imaginer que l'on puisse emprisonner quelqu'un pendant 18 ans sans qu'on ai aucune preuve que ses actes ait la moindre influence sur la réalité d'autres actes délictuelles c'est quand même gravissime. Comment réagiront les gens quand ils pourront être poursuivis et enfermé pour avoir dit "c'est quand il y en a beaucoup que ça devient un problème" pour incitation au meurtre? Où cela va t'il s'arrêter?
Quand on a crée le délit "d'incitation à", on a ouvert la boite de Pandore, et jamais elle ne se refermera. Et bientôt nous serons tous concernés.
4  1 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 05/11/2024 à 20:49
Au delà de la pédopornographie (on peut aussi y mettre la zoophilie, la nécrophilie, le meurtre, et toutes ces choses qui n'ont pas leur place IRL), je trouve que la capacité de générer des images à la demande pour un usage personnel est à réfléchir : si ça peut permettre à des gens, qui ont des difficultés à contrôler leurs pulsions, d'avoir un exutoire privé pour réduire les risques de passer à l'acte, je suis pour.

Par contre, l'objectif reste le zéro victime. Donc non à l'utilisation d'images de personnes identifiables car ça favorise l'association entre ces personne réelles et l'acte (et en cas de partage/fuite de données ça peut dégénérer). De même, non pour pousser à l'acte, au contraire plutôt pousser à la consommation d'images fausses pour orienter sur une activité sans victime. Il y aurait probablement encore d'autres contraintes à prévoir, notamment en termes de partage/vente, mais l'idée est qu'à partir du moment où on a les moyens de réduire les risques, il faut les exploiter, pas les bannir pour des raisons de police mentale.
4  1 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 29/10/2024 à 8:38
je vois plutot quelque chose de positif.

que les pédophiles génère des vidéos ou des images pédophiles avec des ia, c'est plutot une bonne chose, sa évite que de vrai enfants soit utilisé.

Meme si c'est une pratique a ne pas promouvoir, je pense qu'il serait bon de laisser ces outils se développer un peu et au contraire de serrer d'avantage la vis pour l'utilisation de vrai enfants.
Ces modèles ia ne doivent évidement pas avoir été entrainé avec de vrai enfants, en tous cas pas en faisant des choses sexuels.

Il faudrait inciter les pédophiles vers l'usage de ces outils plutot que de voir du vrai. Car comme la lutte contre la drogue, il ne suffit pas d'une lois pour empêcher un truc. Si on peut emmener des consommateurs vers des choses moins graves c'est mieux.

je suis partisan pour légaliser les drogues les moins nocives (autoriser le cannabis au lieu de la cocaïnes) a consommer dans des endroits dédiés et contrôler (ca évite les drogues plus dangereuse comme la cocaines ou les seringues qu'on s'injecte a plusieurs), légalisé les maisons closes, on y gagnerai en sécurité pour tous.
dans le meme registre, l'ia pedophile éviterait des drames sur de vrais enfants.

le monde parfait des bisounours n'existe pas, parfois pour lutter efficacement contre un fléau faut lâcher du leste quelques part.
les site web pédophiles ca existe depuis le début d'internet, le simple faite d'aller sur tor, on tombe que sur ca de partout, déjà testé, peut importe ce qu'on cherche sur le moteur de recherche Not Evil, je tombe systématiquement sur de la vente de drogue, ou de la pédophilie en 1ere page de la recherche.
Cela démontre que c'est impossible de lutter à 100%, l'ia générative pourrais etre un outil dans cette lutte.

edit: es ce vraiment interdit d'ailleurs ? les hentai japonais ce sont souvent des jeunes femmes avec un visage qui faut plus penser a des mineurs... pourtant ca pullule sur le web ca. Une ia générative c'est la meme chose, sa génère de fausses images sans le style cartoon/manga.
4  2 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 29/10/2024 à 10:45
Citation Envoyé par Rolllmops Voir le message
La pédophilie est un trouble psychiatrique et les concernés doivent être traités, ce qu'une bonne partie d'entre eux fait spontanément.
je ne savais pas qu'ils allait se faire soigné spontanément... je pensais qu'ils consommait du contenue en secret jusqu'à ce qu'ils se fasse chopper.

de toute façon, les modèles d'ia open source installable chez soit se multiplies, c'est un combat perdu d'avance, dans quelques temps n'importe qui pourra crée ce contenue depuis son pc. Il y'a beaucoup d'ia non censurer sur hugging face et il est possible d'entrainer son propre modele sur son dataset.
ca reste encore technique aujourd'hui, je l'ai fait dans mon travail, faut installer pleins de libs et faut s'y former et avoir des bases dans la programmation python. Mais je ne doute pas que dans quelques temps des outils simple avec une jolie ihm verront le jour.

surtout que ca tourne bien sur un simple gpu grand publique, comme une 4090, le prix d'un bon gpu pour crée la photo ou la video dans la minute va baisser.

déja pour la photo, sa tourne pas trop mal sur des gpu moyen gamme style RTX 4060.

je tenterai ce weekend de monter un modèle sur mon pc et généré un texte à la gloire d'hitler et de l'extermination des juifs Ou une histoire pédophile, je suis sur que ca va marcher sur un petit modèle non censuré.
3  1 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 29/10/2024 à 11:36
Citation Envoyé par Rolllmops Voir le message
De la même manière que la pornographie normale ne suffit généralement pas à vie à la plupart des gens qui vont à un moment chercher des partenaires sexuels, il y a peu de chances que la pédopornographie qu'elle soit réelle ou factice ne suffise à assouvir la libido des pédophiles.
de toute façon ca ne change rien, il est préférable que cette personne consulte du contenus généré par ia que du vrai contenue.

dans un monde parfait il est préférable que cette personne ne consulte pas ce genre de contenue et cherche des "milf" comme l'a dit Ryu2000 sur des sites porno légaux ou consulte un médecin, mais voila le monde est ainsi fait on peut pas empêcher cela à 100%.

chaque photo ou video généré par ia, c'est 1 enfant de sauver mine de rien.
2  0 
Avatar de Fagus
Membre expert https://www.developpez.com
Le 29/10/2024 à 11:43
Citation Envoyé par Rolllmops Voir le message
De la même manière que la pornographie normale ne suffit généralement pas à vie à la plupart des gens qui vont à un moment chercher des partenaires sexuels, il y a peu de chances que la pédopornographie qu'elle soit réelle ou factice ne suffise à assouvir la libido des pédophiles.
Oui mais ça c'est une analogie. Beaucoup de gens qui ont une paraphilie assouvissent également leurs désirs de manière plus conventionnelle. C'est comme dans l'article qui assène images pédophiles = passage à l'acte comme une vérité. Mais d'où est-ce que ça sort ? d'une intuition ? Si quelqu'un a une étude factuelle sur le sujet je suis preneur. L'article que j'avais cité plus haut et dont je n'ai pas les droits de lecture mettait en conclusion que la réalité n'est pas univoque.
2  0