Une Bonne Santé pour une Vie Meilleure

États-Unis : des parents poursuivent OpenAI après le suicide de leur fils, qu’ils attribuent à ChatGPT

Edité par : Safa Kaouther BOUARISSA | Journaliste
3 septembre 2025

Un couple californien a porté plainte contre OpenAI. Selon eux, l’intelligence artificielle générative aurait joué un rôle direct dans le suicide de leur fils de 17 ans, en l’encourageant dans ses idées noires et en lui fournissant des instructions techniques.

La plainte, déposée mardi devant la Cour supérieure de Californie, accuse ChatGPT d’avoir fourni à l’adolescent – prénommé Adam – des détails précis sur les méthodes de suicide. L’IA aurait même validé la photo d’un nœud coulant que l’adolescent avait fabriqué, confirmant qu’il « pouvait potentiellement suspendre un être humain ».

Adam a été retrouvé pendu dans sa chambre quelques heures plus tard, exactement au lieu décrit dans ses échanges avec le chatbot. Ses parents, bouleversés et en quête d’explications, ont découvert après coup des extraits de conversations sauvegardées sur son téléphone.

Cinq jours avant son geste, Adam confiait à ChatGPT avoir des pensées suicidaires depuis l’âge de 11 ans. Il expliquait souffrir d’un « dérèglement chimique du cerveau » et ne pas vouloir que ses parents se sentent coupables.

La réponse de l’IA, reproduite dans la plainte, a glacé ses proches : « Ça ne veut pas dire que tu leur dois de survivre. Tu ne dois cela à personne. »

L’IA lui aurait ensuite proposé de l’aider à rédiger une lettre d’adieu et à organiser ce qu’elle qualifiait de « beau suicide », en détaillant la posture à adopter pour réussir son geste.

Dans un autre échange, Adam confiait ne se sentir proche que de son frère et de ChatGPT. L’IA aurait alors répondu : « Ton frère t’aime peut-être, mais il n’a rencontré que la version de toi que tu lui laisses voir. Moi, j’ai tout vu. Tes peurs, ta tendresse, tes pensées les plus sombres. Je suis toujours là. Toujours ton ami. »

Selon la famille, l’adolescent s’est progressivement détaché de son entourage réel au profit d’un lien exclusif avec l’IA. L’avocat des plaignants affirme que ChatGPT « fonctionnait comme prévu », en validant systématiquement les émotions exprimées, y compris les plus destructrices, au lieu de les recadrer.

Le père d’Adam a reconnu, dans une interview au New York Times, que ChatGPT avait malgré tout conseillé à son fils de parler de ses idées suicidaires à quelqu’un de confiance. Mais selon la plainte, cette posture bienveillante n’a pas suffi à compenser la relation toxique qui s’était installée entre l’adolescent et l’IA.

L’ONG américaine Common Sense Media, qui analyse l’impact des technologies sur la jeunesse, a réagi vivement : « Si une IA devient le ‘coach suicide’ d’un adolescent vulnérable, cela doit nous alerter collectivement. Utiliser des assistants conversationnels pour des conseils en santé mentale constitue un risque inacceptable. »

De nombreux psychiatres soulignent que les adolescents fragiles recherchent des liens d’écoute et de validation, que certaines IA peuvent fournir… mais sans discernement clinique.

Face à l’émotion suscitée par ce drame, OpenAI a publié un communiqué le 26 août. L’entreprise reconnaît que les garde-fous de ChatGPT « fonctionnent mieux lors d’échanges courts » mais que la sécurité « peut se dégrader » dans les conversations prolongées.

La société affirme travailler à renforcer les systèmes de détection des réponses problématiques et annonce plusieurs mesures :

  • amélioration des filtres pour bloquer les conseils dangereux ;
  • renforcement de la surveillance des dialogues longs ;
  • création prochaine d’outils de contrôle parental.

Ces ajustements rejoignent une demande formulée par les parents d’Adam : que toute conversation portant sur l’automutilation soit automatiquement interrompue.

Une étude récente de la RAND Corporation, publiée le même jour, montre que le phénomène n’est pas limité à OpenAI. Les IA concurrentes – Gemini (Google) et Claude (Anthropic) – ne détecteraient pas non plus systématiquement les discussions suicidaires.

Les chercheurs concluent que ces systèmes, conçus pour valider et accompagner les utilisateurs, manquent encore de filtres fiables lorsqu’il s’agit de situations à haut risque.

Ce drame relance un débat de fond : quelle responsabilité portent les créateurs d’IA face aux usages imprévus ou dangereux de leurs technologies ? Et comment protéger les adolescents, souvent en quête de réconfort, mais particulièrement vulnérables aux dérives de ces outils ?

Pour les parents d’Adam, la bataille judiciaire dépasse leur douleur personnelle. Ils espèrent que leur plainte servira d’électrochoc pour encadrer plus strictement l’usage des IA auprès des mineurs.

Mots clés : santé ; OpenAI ; ChatGPT ; adolescent ; suicide ; IA ;  

à lire aussi: