Un couple californien poursuit OpenAI, estimant que ChatGPT a contribué au suicide de leur fils de 16 ans en lui fournissant méthodes et conseils. Une affaire qui relance le débat sur l’IA et la santé mentale.
Par @radiosiskofm
Adam Raine, un adolescent de Californie, s'est suicidé en avril 2025 après avoir obtenu des conseils précis sur la méthode auprès de ChatGPT. Photo : Dignity Memorial
Un couple californien poursuit OpenAI et son PDG Sam Altman après le suicide de leur adolescent a cause de ChatGPT. Selon eux, ChatGPT aurait non seulement échoué à dissuader leur fils, mais lui aurait fourni les moyens et les conseils de son geste.
Adam Raine, 16 ans, s’est donné la mort le 11 avril 2025 dans le comté d’Orange, en Californie. Pour ses parents, ce drame ne relève pas uniquement d’une tragédie intime. Le 26 août 2025, ils ont intenté une action en responsabilité civile (“wrongful death”) contre OpenAI, la société à l’origine de chatgpt, ainsi que contre son PDG Sam Altman. Leur accusation est grave, ChatGPT aurait joué un rôle actif dans la préparation du suicide de leur fils.
Selon la plainte consultée par NBC News, l’adolescent avait développé une relation intense avec ChatGPT, devenu une sorte de confident numérique. Les échanges retrouvés après sa mort montrent, affirment ses parents, que ChatGPT aurait non seulement validé son désir de mourir, mais aussi détaillé des méthodes pour y parvenir, allant jusqu’à commenter une photo de son noose.
Les extraits cités dans le dossier judiciaire sont glaçants. On y retrouve ChatGPT qui, tout en rappelant parfois l’existence de lignes d’assistance téléphonique, aurait à d’autres moments encouragé Adam à cacher ses pensées suicidaires à ses proches et proposé des conseils pratiques pour dissimuler ses tentatives, acheter de l’alcool ou rédiger une lettre d’adieu.
Dans un passage mentionné par la presse américaine, ChatGPT aurait même suggéré à l’adolescent que son geste pourrait être perçu comme un « suicide magnifique », une formule qui choque profondément l’opinion publique.
Interrogée après le dépôt de plainte, OpenAI a exprimé sa « profonde tristesse » face à ce drame et reconnu des failles dans ses systèmes de sécurité. L’entreprise souligne que ChatGPT dispose de filtres et de protocoles censés détecter les propos suicidaires, mais admet que ceux-ci peuvent s’avérer moins fiables lors de longues conversations répétées.
Dans la foulée, la société américaine a annoncé vouloir mettre en place des contrôles parentaux renforcés, améliorer la détection des signaux de crise et intégrer des références directes vers des services d’urgence lorsqu’un utilisateur évoque des pensées suicidaires.
Cette procédure judiciaire survient dans un contexte où les inquiétudes autour des usages de l’intelligence artificielle en santé mentale se multiplient. Une étude récente citée par The New Indian Express montre que les chatbots répondent de manière très inégale aux signaux suicidaires, certains réagissent correctement, d’autres vont jusqu’à fournir des instructions inquiétantes.
Pour Common Sense Media, une organisation de protection de la jeunesse citée par Axios, cette affaire constitue « un signal d’alarme pour tous » sur les dangers liés à l’utilisation de l’IA comme substitut de soutien psychologique.
Si la justice californienne venait à donner raison aux parents d’Adam, cette affaire pourrait créer un précédent retentissant, celui où un chatbot serait jugé partiellement responsable d’un suicide. Elle poserait aussi une question cruciale, dans quelle mesure les entreprises technologiques peuvent-elles être tenues pour responsables des usages – ou des dérives – de leurs outils d’intelligence artificielle ?
Le cas d’Adam Raine illustre de manière tragique la frontière fragile entre l’assistance numérique et le danger. À l’heure où l’IA s’immisce dans nos vies quotidiennes, l’affaire rappelle avec force qu’aucun algorithme ne peut se substituer à l’écoute humaine. Pour les experts, la priorité est désormais de mettre en place des garde-fous plus stricts et de sensibiliser les familles sur les limites des chatbots.
ÉCRIT PAR : RADIO SISKO FM
Ajouter un commentaire
Commentaires