IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

OpenAI fouille dans les historiques de discussion d'un adolescent pour se dédouaner de la responsabilité dans une affaire de suicide,
Le débat sur la responsabilité juridique des IA revient sur la table

Le , par Patrick Ruiz

0PARTAGES

6  0 
OpenAI fouille dans les historiques de discussion d'un adolescent pour se dédouaner de la responsabilité dans une affaire de suicide
Le débat sur la responsabilité juridique des IA revient sur la table

Confrontée à plusieurs poursuites judiciaires pour homicide involontaire, OpenAI vient de présenter sa première défense. L'entreprise nie dans un document judiciaire que ChatGPT a causé le suicide d'un adolescent et affirme au contraire que celui-ci a enfreint les conditions d'utilisation qui interdisent de discuter de suicide ou d'automutilation avec le chatbot. Le débat sur la responsabilité juridique de l’intelligence artificielle revient sur la table.

Le premier aperçu de la stratégie mise en place par OpenAI pour surmonter la série de poursuites judiciaires apparait dans une affaire où les parents d'Adam Raine, âgé de 16 ans, accusent OpenAI d'avoir assoupli les mesures de sécurité, permettant ainsi à ChatGPT de devenir le coach en suicide de l'adolescent. Les parents affirment qu'OpenAI a conçu de façon délibérée la version utilisée par leur fils, ChatGPT 4o, pour encourager et valider ses idées suicidaires dans le but de créer le chatbot le plus engageant au monde.

OpenAI pour sa part affirme dans un billet de blog que les parents ont sélectionné des journaux de discussion inquiétants tout en ignorant le soi-disant tableau global révélé par l'historique des discussions de l'adolescent. En examinant les journaux, OpenAI affirme que l'adolescent a dit à ChatGPT qu'il avait commencé à avoir des idées suicidaires à l'âge de 11 ans, bien avant d'utiliser le chatbot.

« Une lecture complète de son historique de chat montre que sa mort, bien que dévastatrice, n'a pas été causée par ChatGPT », fait valoir OpenAI dans son dossier de défense.



Tous les journaux de conversations auxquels OpenAI fait référence dans son dossier sont scellés

Cela rend impossible la vérification du contexte plus large que l'entreprise d'intelligence artificielle prétend que ces journaux fournissent. Dans son blog, OpenAI déclare qu'elle limite la quantité de preuves sensibles mises à la disposition du public, en raison de son intention de traiter les cas liés à la santé mentale avec soin, transparence et respect.

Cet état de choses renforce néanmoins le positionnement selon lequel OpenAI est le concepteur de cette intelligence artificielle et, qu’en tant que tel, devrait assumer la responsabilité de ce suicide. Des sorties d’internautes suggèrent en effet que la programmation de ChatGPT aurait dû être menée de sorte que l’intelligence artificielle garde la flamme de l’espoir allumée chez ce jeune au lieu de lui montrer comment faire un nœud coulissant pour se pendre.



C’est pour des cas de figure de ce type que les autorités de divers pays poussent afin d’introduire la vérification d’âge sur les services en ligne

Parmi les méthodes suggérées et pour lesquelles les tentatives d'adoption se multiplient, on trouve :

  • Vérification par carte de crédit/débit : Une vérification simple mais efficace, car les cartes de crédit ne sont généralement délivrées qu'aux adultes.
  • Estimation faciale de l'âge : Une technologie basée sur l'IA qui analyse une photo ou une vidéo en direct pour estimer l'âge de l'utilisateur, sans identifier la personne ni stocker de données personnelles.
  • Services d'identité numérique : Des portefeuilles d'identité numérique qui peuvent stocker et partager en toute sécurité des preuves d'âge vérifiées.
  • Vérification via les opérateurs de réseaux mobiles : Confirmation que le numéro de téléphone mobile de l'utilisateur n'est pas soumis à des filtres d'âge.
  • Vérification par pièce d'identité avec photo : Téléchargement d'une pièce d'identité (passeport, permis de conduire) qui est comparée à un selfie pour confirmer l'identité et l'âge.
  • Vérification par services bancaires ou adresses e-mail : Accès sécurisé à des informations bancaires ou analyse de l'utilisation de l'adresse e-mail sur d'autres services pour estimer l'âge.

L’objectif affiché : réduire drastiquement l’exposition précoce des enfants à des contenus jugés dangereux, dont de nombreuses études montrent qu’ils peuvent altérer la perception du consentement, la santé mentale ou encore les comportements sexuels.

Source : OpenAI

Et vous ?

Une IA conversationnelle peut-elle être tenue juridiquement responsable de ses interactions, ou doit-on en rester à la responsabilité de l’entreprise qui la déploie ?

Les concepteurs d’IA doivent-ils être considérés comme des fournisseurs de services psychologiques involontaires lorsqu’ils mettent en avant l’empathie de leurs modèles ?

Jusqu’où une entreprise comme OpenAI doit-elle aller pour anticiper les usages déviants de son outil ?

Devrait-on instaurer une période de tests de sécurité obligatoires avant tout lancement commercial d’un nouveau modèle IA ?

Les régulateurs doivent-ils aller jusqu’à imposer des “boîtes noires” permettant d’analyser les logs en cas d’incident grave ?

Les équipes tech devraient-elles intégrer systématiquement des psychologues et sociologues dans le développement des IA conversationnelles ?

Voir aussi :

OpenAI crée un « conseil du bien être » pour superviser les questions de santé mentale liées à l'usage de l'IA, mais aucun expert en prévention du suicide n'en fait partie

Une mère a poursuivi Character.AI après le suicide de son fils qui avait été manipulé par des chatbots IA, elle est maintenant horrifiée de voir des chatbots se faire passer pour son fils sur la plateforme

Un homme se serait suicidé après avoir parlé de ses craintes concernant le changement climatique à un chatbot d'IA, sa veuve affirme que l'IA l'a rendu solitaire avant de le pousser au suicide

«OpenAI Files» et Sam Altman : l'enquête met la lumière sur la tempête traversant OpenAI, leadership contesté, démissions en chaîne, course à la commercialisation à tout prix et ombre sur la sécurité de l'IA
Vous avez lu gratuitement 261 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !