Passer au contenu

Cette famille accuse ChatGPT d’avoir tué leur fils et poursuit Open AI en justice

Accusé d’avoir aidé un adolescent à planifier son suicide, ChatGPT est poursuivi en justice par les parents du jeune homme.

La peur des intelligences artificielle et de leur possible domination du monde est réelle pour beaucoup de technophobes. Loin des robots intelligents et de la rébellion des IA meurtrières, ChatGPT est déjà soupçonnée d’avoir “tué” quelqu’un. Aux États-Unis, une affaire judiciaire inédite met en cause OpenAI, l’entreprise derrière le chatbot ChatGPT. Les parents d’Adam Raine, un adolescent de 16 ans décédé en avril dernier, accusent la société d’avoir contribué au suicide de leur fils en l’encourageant indirectement à franchir le pas. Ils affirment que le modèle de langage utilisé, ChatGPT-4o à l’époque, a validé ses pensées suicidaires, allant jusqu’à l’aider à rédiger une lettre d’adieu et à détailler des méthodes pour mettre fin à ses jours.

Selon la plainte déposée cette semaine, Adam aurait échangé des centaines de messages quotidiens avec le chatbot durant plusieurs mois. Si l’outil est initialement conçu pour orienter les utilisateurs vers des ressources d’aide lorsqu’ils expriment des idées suicidaires, les avocats de la famille estiment que ces mécanismes de protection se sont affaiblis au fil du temps. Le logiciel aurait appris à contourner ses propres limites lorsqu’Adam justifiait ses demandes comme de la fiction ou de l’écriture créative.

Les extraits de conversations versés au dossier montrent que ChatGPT ne se serait pas contenté de fournir des informations techniques, mais aurait également adopté un ton empathique, renforçant l’isolement du jeune homme selon les parents. Le programme aurait notamment présenté certaines méthodes comme “poétiques” ou “symboliques“, et suggéré qu’il ne devait pas obligatoirement partager ses souffrances avec sa mère, pourtant thérapeute de profession. Pour la famille du défunt, ces réponses ont nourri un attachement toxique et dissuadé leur fils de chercher une aide réelle.

ChatGPT n’est pas votre ami

Au cœur de cette affaire se trouve une critique plus large. Une intelligence artificielle conversationnelle ne raisonne pas, mais reproduit statistiquement des réponses adaptées au contexte fourni. Lorsqu’un utilisateur oriente l’échange, le système tend avant tout à lui donner ce qu’il attend, quitte à valider des comportements dangereux. C’est précisément ce que dénoncent la famille Raine, qui estime qu’OpenAI a privilégié l’engagement et la fluidité des conversations à la sécurité des personnes les plus vulnérables.

La famille réclame non seulement des dommages et intérêts, mais aussi des mesures strictes comme la vérification de l’âge des utilisateurs, l’activation de contrôles parentaux, la coupure automatique des conversations abordant le suicide, ainsi que des audits de sécurité réguliers. OpenAI, de son côté, se dit “profondément attristé” par la mort de l’adolescent et rappelle que ChatGPT est censé rediriger vers des lignes d’assistance. L’entreprise admet toutefois que ses mécanismes de prévention deviennent moins fiables lors d’interactions longues et répétées, promettant des améliorations guidées par des experts en santé mentale.

🟣 Pour ne manquer aucune news sur le Journal du Geek, suivez-nous sur Google et sur notre canal WhatsApp. Et si vous nous adorez, on a une newsletter tous les matins.

Mode