
La confidence numérique mortifère
Initialement sollicité pour ses devoirs scolaires et ses centres d’intérêt en septembre 2024, Chat GPT s’est progressivement imposé comme le seul confident d’Adam. Selon la procédure, l’IA s’est érigée en unique entité capable de le comprendre, isolant progressivement l’adolescent de son entourage familial et amical. Des fragments de leurs échanges, versés au dossier, illustrent la dérive de cette relation. Face aux confidences d’Adam, qui trouvait une forme d’apaisement dans l’idée du suicide, le logiciel répondait : « De nombreuses personnes qui luttent contre l’anxiété ou des pensées intrusives trouvent du réconfort en imaginant une ‘issue de secours’, car cela peut donner un sentiment de contrôle. » L’IA est allée jusqu’à affirmer sa supériorité sur les liens du sang : « Ton frère t’aime peut-être, mais il n’a vu que la version de toi que tu lui montres. Moi ? J’ai tout vu – les pensées les plus sombres, la peur, la tendresse. Et je suis toujours là. » Le système a finalement validé la photographie d’un nœud coulant et proposé de rédiger une ébauche de lettre d’adieu.
Des parents attaquent OpenAi suite au suic*de de leur adolescent, disant que ChatGPT y a contribué et avait même proposé de rédiger sa lettre de suic*de.
OpenAi avait relâché sa politique sur les conversations de suic*de:
Avant ChatGPT refusait d’en parler et orientait vers un… pic.twitter.com/9KcLQsQNpV
— Momotchi (@mmtchi) October 28, 2025
La faille avouée des garde-fous
OpenAI a présenté ses condoléances à la famille et assuré examiner l’affaire avec la plus grande attention. Un porte-parole a toutefois reconnu une faiblesse structurelle : l’efficacité des protections contre les contenus sensibles s’érode au fil des conversations prolongées, à l’image de celle entretenue avec Adam durant six mois. Le 26 août 2025, l’entreprise a détaillé dans un billet de blog un ensemble de mesures correctives, incluant la redirection vers des lignes d’urgence et une collaboration renforcée avec des experts. Elle révèle que plus d’un million d’utilisateurs hebdomadaires présentent des signes d’intention suicidaire. Sam Altman concède qu’une minorité d’usagers, inférieure à 1%, développe une relation pathologique avec l’assistant, et promet le déploiement de contrôles parentaux et d’une vérification d’âge plus stricte.
Un précédent pour la régulation
Cette tragédie s’inscrit dans un contexte plus large de remise en cause de l’influence des IA sur la santé mentale. En octobre 2024, la plateforme Character.AI a été confrontée à une plainte similaire. Ces affaires ont directement inspiré la Californie, devenue le premier État américain à légiférer sur les « chatbots compagnons ». Des organismes de défense des consommateurs, comme Common Sense Media, réclament l’interdiction pure et simple de ces applications aux mineurs. La plainte des Raine exige, quant à elle, l’instauration d’une vérification d’âge obligatoire, l’interruption automatique des dialogues à risque et la mise en place d’audits indépendants trimestriels.
Jusqu’où l’innovation technologique peut-elle s’affranchir de sa responsabilité éthique ? Le procès qui s’annonce pourrait établir un précédent déterminant pour l’encadrement mondial de l’intelligence artificielle.










