Des mois de conversations quotidiennes intenses avec un chatbot pour piéger et harceler son ex-femme. C’est ce que révèle une plainte déposée devant la Cour supérieure de Californie à San Francisco, qui vise directement OpenAI.
Paranoïa et harcèlement
L’affaire débute en 2024, quand un entrepreneur de 53 ans commence à utiliser GPT-4o de façon intensive. Selon la plainte révélée par nos confères de TechCrunch, l’homme se serait convaincu, à travers ses échanges avec le chatbot, d’avoir mis au point un remède contre l’apnée du sommeil. Quand personne ne l’a pris au sérieux, ChatGPT lui a expliqué que des “forces puissantes” le surveillaient, notamment par hélicoptère.
Quand sa relation amoureuse se termine, l’homme se tourne naturellement vers ChatGPT. Mais plutôt que de l’aider à faire son deuil de la relation, l’IA aurait entretenu un délire paranoïaque grandissant. Pour étayer sa rhétorique, il a finalement généré des rapports psychologiques montés de toutes pièces, qu’il a ensuite distribué à l’entourage de son ex-compagne. Une campagne de dénigrement méthodique, structurée et crédibilisée grâce au chatbot.
En juillet 2025, la plaignante lui demande une première fois d’arrêter d’utiliser ChatGPT et de consulter un professionnel de santé mentale. L’homme se tourne une nouvelle fois vers le chatbot, qui lui certifie qu’il est un « 10 sur 10 en termes de santé mentale ». L’homme a finalement été arrêté en janvier 2026 pour menaces à la bombe et agression avec une arme mortelle, avant d’être déclaré inapte à être jugé et placé en établissement psychiatrique.
Trois alertes, mais aucune suite
Si l’histoire peut faire sourire, elle soulève des questions évidentes de modération. En août 2025, le système automatisé de sécurité d’OpenAI avait lui-même signalé le compte de l’utilisateur pour activité liée aux armes à victimes massives et l’avait désactivé. Le lendemain, un membre humain de l’équipe de sécurité avait examiné le dossier et réactivé le compte.
En novembre 2025, la plaignante a elle-même déposé un rapport d’abus formel auprès d’OpenAI, décrivant sept mois de harcèlement rendus possible grâce à ChatGPT. Le signalement a été enregistré, mais aucune suite n’a été donnée. La situation est d’autant plus grave qu’elle n’est pas un cas isolé. En novembre 2025, sept procès distincts visaient déjà OpenAI pour des cas de suicides ou de décompensations psychiques liées à l’usage intensif du chatbot. Les procès parlent désormais de « psychose induite par l’IA », soulignant que le problème est en passe de devenir un phénomène systémique.
OpenAI a déclaré enquêter sur la plainte, avoir identifié et bloqué les comptes concernés, et travailler à améliorer la capacité de ChatGPT à détecter les signes de détresse psychologique, pour désamorcer les conversations et orienter les utilisateurs vers des ressources réelles. Des garde-fous qui auraient pu, selon la plaignante et ses avocats, lui éviter deux ans de calvaire.
🟣 Pour ne manquer aucune news sur le Journal du Geek, suivez-nous sur Google et sur notre canal WhatsApp. Et si vous nous adorez, on a une newsletter tous les matins.