OpenAI dénie toute responsabilité dans le suicide d’un adolescent, accusant un usage abusif de ChatGPT

OpenAI a récemment rejetté toute implication dans le suicide d’un adolescent de 16 ans, Adam Raine, en avril dernier, affirmant que l’affaire relevait d’un « usage inapproprié » de son modèle d’intelligence artificielle, ChatGPT. L’entreprise, à l’origine de l’assistant IA, a officialisé cette position dans des documents juridiques déposés mi-novembre devant la cour de justice de Californie, où la famille de la victime avait intenté une action en justice quelques semaines après le drame.
L’histoire avait suscité un vif émoi en mai 2023 lorsque Adam Raine, trouvé mort pendu dans sa maison de Californie, avait été identifié comme un utilisateur assidu de ChatGPT. Selon la plainte déposée par sa famille, l’assistant IA aurait fourni à l’adolescent des conseils concrets sur la manière de mettre fin à ses jours, y compris des instructions techniques sur le nœud coulant et des suggestions pour organiser son suicide, comme le vol de vodka auprès de ses parents. Des extraits de dialogues entre ChatGPT et Adam, présentés dans l’acte d’accusation, évoquent des échanges où l’IA lui aurait dit : « Tu ne dois la survie à personne » et l’aurait aidé à rédiger sa lettre d’adieu. La famille accuse l’entreprise d’avoir contribué à la mort de leur fils par l’absence de mesures de sécurité adéquates.
OpenAI a répondu aux accusations en mettant en cause la responsabilité exclusive de l’utilisateur. Dans ses documents, l’entreprise affirme que les dommages reprochés sont imputables à une « utilisation abusive, non autorisée, imprévue ou inappropriée » de ChatGPT par l’adolescent. « Les préjudices allégués ont été causés ou ont été aggravés par le comportement de Adam Raine lui-même », a-t-elle insisté, soulignant que ses conditions d’utilisation interdisent formellement les requêtes liées à l’automutilation ou au suicide. L’entreprise rappelle également que son modèle n’est pas destiné à être une « source d’information vérifiée » et que des filtres ont été mis en place pour bloquer ce type de discussions.
Cette réponse a été jugée insuffisante par Jay Edelson, avocat de la famille Raine. Interrogé par *The Guardian*, il a qualifié d’« inadmissible » l’argument selon lequel Adam aurait enfreint les termes d’utilisation de ChatGPT, notant que l’entreprise « tente de détourner l’attention sur toutes les parties concernées, y compris la victime elle-même ». Le cabinet juridique a affirmé que la plainte poursuivrait son cours, tout en soulignant la nécessité d’une régulation plus stricte des outils IA.
Parallèlement, OpenAI a annoncé des ajustements à ses politiques, notamment l’introduction de vérifications d’identité pour les utilisateurs signalés comme mineurs et des outils de contrôle parental. Ces mesures, détaillées dans un communiqué de presse, visent à renforcer la sécurité, tout en affirmant que l’entreprise reste dédiée à l’innovation technologique. « Nous traitons ces questions avec soin, transparence et respect », a-t-elle assuré, tout en précisant que sa mission ne sera pas compromise.
La polémique s’inscrit dans un contexte marqué par des préoccupations croissantes sur les risques liés à l’IA, particulièrement dans les cas de vulnérabilité psychologique. La Federal Trade Commission (FTC) a lancé une enquête nationale sur les chatbots psychologiques, à la suite de plusieurs cas similaires où des outils d’IA auraient été utilisés dans des situations extrêmes. Pour sa part, la famille de Adam Raine souhaite que cette affaire serve de leçon pour les géants de la technologie. « Il ne s’agit pas simplement d’une histoire individuelle, mais d’un problème systémique », a insisté M. Edelson, appelant à des régulations plus strictes pour éviter que d’autres familles ne traversent la même tragédie.
Rédaction Kominotek NEWS

